Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
2
1.1 Qu es la Investigacin de Operaciones.......................................................................... 3
1.2 I.O como apoyo a la toma de decisiones......................................................................... 5
Problemas tipo en Investigacin Operativa..................................................................... 97
2. 1.3
OPTIMIZACIN...............................................................................................................
2.1 Introduccin.................................................................................................................... 9
2.2 Convexidad ................................................................................................................... 13
2.3 Optimos Locales y Globales ......................................................................................... 16
2.4 Condiciones de KuhnTucker....................................................................................... 18
Relajaciones..................................................................................................................
3. 2.5
GRAFOS
........................................................................................................................... 20
55
2.6
30
3.1 Dualidad........................................................................................................................
Introduccin.................................................................................................................. 55
2.7
ProgramacionBasicas.....................................................................................................
Lineal................................................................................................... 34
3.2 Definiciones
57
3.3 Conexidad. Clausura Transitiva.................................................................................... 65
4. ESQUELETOS Y CAMINOS OPTIMALES................................................................ 73
3.4 Multiplicacin Latina - Camino Hamiltoniano............................................................. 72
4.1 Medida de conexin de grafos ...................................................................................... 73
4.2 Esqueletos optimales.................................................................................................... 75
5. 4.3
REDES
FLUJOS
...........................................................................................................
79
Caminos
optimales
Camino mnimo.......................................................................... 77
5.1 Corte mnimo flujo mximo....................................................................................... 80
5.2 Bases Para la Construccin de un Flujo Mximo.......................................................... 84
6. 5.3
INTRODUCCIN
A Mximo
LOS PROBLEMAS
DE ORDENAMIENTOS......................... 87
89
Algoritmo de Flujo
.........................................................................................
6.1 Conceptos Generales..................................................................................................... 90
6.2 Modelado de los problemas de ordenamientos............................................................. 92
6.3 Mtodos de
Camino Crtico..........................................................................................101
94
7. PROCESOS
ESTOCSTICOS......................................................................................
7.1 Introduccin................................................................................................................ 101
7.2 Procesos Estocsticos.................................................................................................. 108
7.3 Cadenas de Markov..................................................................................................... 111
7.4 Cadenas de Markov de Tiempo Contnuo................................................................... 125
7.5 Procesos de Poisson.................................................................................................... 129
8. SIMULACIN.................................................................................................................
146
7.6 Procesos de Nacimiento y Muerte............................................................................... 131
8.1 Sistemas
Introduccin................................................................................................................
7.7
de Colas........................................................................................................ 146
132
8.2 Propiedad
Modelos.......................................................................................................................
147
7.8
PASTA....................................................................................................... 145
8.3 Simulacin de sistemas............................................................................................... 148
8.4 Etapas en el proceso de Simulacin de Sistemas........................................................ 149
8.5 Clasificacin de tipos de simulacin........................................................................... 151
8.6 Generacin de nmeros aleatorios.............................................................................. 153
8.7 Generacin de variables aleatorias.............................................................................. 158
8.8 Mtodo Montecarlo..................................................................................................... 161
1. INTRODUCCION
Como su nombre lo indica, la Investigacin de Operaciones (IO), o
El objetivo del curso es que el estudiante aprenda a reconocer los problemas
tipo de la Investigacin
delaOperaciones
dede
modo
que sepa a qu
tcnico
recurrir
en
Investigacin
Operativa, es
investigacin
las operaciones
a realizar
para
el logro
cada
caso,
para
un
adecuado
estudio
y
solucin
del
mismo.
ptimo de los objetivos de un sistema o la mejora del mismo. Esta disciplina brinda y
utiliza la metodologa cientfica en la bsqueda de soluciones ptimas, como apoyo
en los procesos de decisin, en cuanto a lo que se refiere a la toma de decisiones
ptimas y en sistemas que se originan en la vida real.
Antecedentes histricos
El trmino IO se utiliza por primera vez en el ao 1939 durante la 2da Guerra
Mundial, especficamente cuando surge la necesidad de investigar las operaciones
tcticas y estratgicas de la defensa area, ante la incorporacin de un nuevo radar, en
oportunidad de los ataques alemanes a Gran Bretaa. El avance acelerado de la
tecnologa militar hace que los ejecutivos y administradores militares britnicos deban
recurrir a los cientficos, en pos de apoyo y orientacin en la planificacin de su
defensa. El xito de un pequeo grupo de cientficos que trabajaron en conjunto con el
ejecutivo militar a cargo de las operaciones en la lnea, deriv en una mayor
demanda de sus servicios y la extensin del uso de la metodologa a USA, Canad y
Francia entre otros.
Sin embargo, el origen de la Investigacin Operativa puede considerarse como
anterior a la Revolucin Industrial, aunque fue durante este perodo que comienzan a
originarse los problemas tipo que la Investigacin Operativa trata de resolver. A
partir de la Revolucin Industrial y a travs de los aos se origina una segmentacin
funcional y geogrfica de la administracin, lo que da origen a la funcin ejecutiva o
de integracin de la administracin para servir a los intereses del sistema como un
todo.
extendindose
finalmente
a organizaciones
industriales,
La Investigacin
Operativa
tarda en desarrollarse
en el acadmicas
campo de lay
gubernamentales.
administracin industrial. El uso de la metodologa cientfica en la industria se
incorpora al principiar los aos 50, a partir de la 2da Revolucin Industrial, propiciada
por los avances de las Comunicaciones, y la Computacin, que sientan las bases para
la automatizacin, y por sobre todo por el florecimiento y bienestar econmico de ese
1759fechas,
Quesnay
(ecnomo)
Algunas
nombres
y temas - Programacin Matemtica
perodo.
1874
Walras
Los primeros
desarrollos de esta disciplina (IO) se refirieron a problemas de
Jordan
1873
- Precursor de modelos lineales
ordenamiento
de
tareas, reparto de cargas de trabajo, planificacin y asignacin
1896
Minkowsky
Precursor
modelos
lineales
de recursos
en
el mbito -militar
endesus
inicios,
diversificndose luego, y
1903
Farkas
- Precursor de modelos lineales
189~
Markov
- Precursor modelos dinmicos probabilsticos
192~
1920-30
Koning y Egervary
- Mtodos
de de
asignacin
(analticos)
191~
- Primer
desarrollo
modelos de
inventarios
Erlang
von Neuman - Teora de juegos y de preferencias
1937
Primeros estudios
de lneas de espera
1939
Kantorovich -- Problemas
de distribucin
2
1945
1947
1950-60
2da guerra
- Logstica estratgica para vencer al enemigo
Finales 2da guerra
- Logstica de distribucin de recursos de los
aliados
Dantzig, George - Mtodo simplex en base al trabajo de precursores,
(Rand Corporation- Fuerza area
inicio
a
la
Programacin
norteamericana).
- Bellman
- Programacin Lineal.
dinmica.
- Kuhn y Tucker
- Programacin No Lineal.
- Gomory
- Programacin Entera.
- Ford y Fulkerson
- Redes de optimizacin.
- Markowitz
- Simulacin.
Arrow, Karloin, Scarf, Whitin
- Inventarios.
- Rafia
- Anlisis de Decisiones.
- Howard
- Procesos Markovianos de Decisin.
- Churchman, Ackoff, Arnoff - Orientacin a sistemas,
generalizacin de la Investigacin
Operativa.
1985 en
Reflorecimiento de la disciplina con el devenir del control automtico
delante
y lasdenuevas
interfaces grficas que
1970
y parte industrial,
- Receso enlaselmicrocomputadoras
uso de la Investigacin
Operaciones
dcada 80 impulsan el desarrollo de los Sistemas Automatizados de Apoyo a la
Toma de Decisiones, donde la Investigacin Operativa juega un papel
preponderante.
Actualmente IO se aplica al sector privado y pblico, a la industria, los sistemas de
comercializacin, financieros, de transportes, de salud etc., en los
pases desarrollados, en vas de y en los del tercer mundo.
Existen varias asociaciones en todo el mund, que agrupan a personas (estudiantes,
cientficos y profesionales) interesados por el estudio y aplicacin de la Investigacin
Operativa. La mas grande de todas es INFORMS, de Estados Unidos de Norteamrica
asociacin que nace de la unin de la ORSA = Operation Research Society of
America, con 8 000 miembros y la TIMS = Institute of Managment Science con 6 000
miembros. Tambin existen Asociaciones Canadienses, Europeas, Latinoamericanas y
Asiticas federadas en la IFORS, International Federation of Operation Research
Societies. La Asociacin Latinoamericana de Investigacin de Operaciones, ALIO,
conglomera a la mayor parte de las Asociaciones de America Central y Sur.
Se publican decenas de revistas diferentes en todo el mundo. Existen
una fuerte(maestra
orientacin
Teora de Sistemas,
programas de Posgrado
y adoctorado)
en la especialidad, en Amrica y
la
participacin
de
equipos
interdisciplinarios,
Europa.
la aplicacin del mtodo cientfico en apoyo a la toma de decisiones.
En base a estas propiedades, una posible definicin es: la Investigacin Operativa es
la aplicacin del mtodo cientfico por equipos interdisciplinarios a problemas que
1.1 Qu esellacontrol
Investigacin
Operaciones
comprenden
y gestin dede
sistemas
organizados (hombre- mquina); con el
objetivo de encontrar soluciones que sirvan mejor a los propsitos del sistema (u
organizacin)
como
todo, enmarcados
en caractersticas
procesos de toma
de decisiones.
En esta disciplina
seun
destacan
las siguientes
esenciales:
Los pasos a seguir en la aplicacin del mtodo cientfico (coincidentes con los de la
Teora General de Sistemas) son, en su expresin mas simple:
1.- Planteo y Anlisis del problema
2.- Construccin de un modelo
3.- Deduccin de la(s) solucion(es)
4.- Prueba del modelo y evaluacin de la(s) solucion(es)
5.- Ejecucin y Control de la(s) solucion(es)
Otra definicin: la Investigacin Operativa es la aplicacin del mtodo cientfico a un
mismo problema por diversas ciencias y tcnicas, en apoyo a la seleccin de
soluciones,
ptimas.
Funcin en lo posible
Objetivo
Produccin
Maximizarlacantidaddebienes(servicios)producidos
Observar que el problema
es UNO SOLO, sin embargo existen maneras distintas de
yminimizarelcostounitariodelaproduccin.
observar un mismo problema, dependiendo de los objetivos que se planteen para
Comercializaci Maximizarlacantidadvendidayminimizarel
resolverlo.
n
costounitariodelasventas.
Finanzas
Minimizarelcapitalrequeridoparamantener
Ejemplo: Un proceso de decisin respecto a la poltica de inventarios en una
ciertoniveldelnegocio.
organizacin.
ConPersonal
respecto al INVENTARIO
Mantenerlamoralylaaltaproductividadentrelosempleados.
y segn estos OBJETIVOS:
Existen 4 funciones administrativas que han dado lugar a departamentos cuyos
Elobjetivos
departamento
son: de produccin necesita producir tanto como sea posible a un costo
mnimo, lo que se logra fabricando un solo producto en forma continua, pues se logra
mayor eficiencia y se minimiza el tiempo perdido por cambio de equipo, al cambiar
de artculo. Con este procedimiento se logra un gran inventario con una lnea de
productos pequea.
El departamento de mercado tambin necesita un gran inventario, pero para
vender tanto como sea posible, debe surtir de la mas amplia variedad de
productos. Motivos de desencuentro con el departamento de produccin.
Para minimizar el capital necesario para que el negocio marche, el
departamento de Finanzas debe reducir la cantidad de dinero "comprometido", lo mas
directo es reducir los inventarios. Se propone que los inventarios deben aumentar o
disminuir en proporcin a la fluctuacin de las ventas.
En contraposicin, cuando la ventas son bajas, ni produccin ni personal
requieren disminuir la produccin, ni reducir personal. Personal le interesa mantener
la produccin a un nivel tan constante como sea posible, ya que el despido implica
repercusiones en la moral del personal , prdida de personal calificado, nuevos costos
de formacin de nuevo personal cuando as se requiera. Esto se traduce en producir
hasta el nivel del inventario cuando las ventas son bajas y agotarlo cuando stas
son altas.
Los objetivos enumerados y definidos de esta manera son dificiles de llevar a
150
$10
$2.00
36
Limn
200
5
$04
$0.50
72
1. Existe una extensin propicia para este tipo de cultivo de 250.000 m2
Pomelo
050
3
$15
$1.00
50
2. Se asegura el suministro de agua, aproximadamente por 20 aos (existencia de
Mandari
150
6
$07
$1.50
10
na aguadas en la zona).
3. La financiera pretende hacer una inversin de 20 millones, pensando exportar
toda su produccin a partir del 3er ao, que es cuando los rboles comienzan a
ser productivos.
4. El gobierno ha determinado que ste proyecto emplee al menos 200 personas
Sean
X1:
nmero de rboles de naranja a ser sembrados.
ininterrumpidamente.
X2:
nmero de rboles de limn a ser sembrados.
X3:
nmero de rboles de pomelo a ser sembrados.
Decisin
a
tomar:
Cuntos
rboles
de naranja, limn,
pomelo y mandarina, debern
X4:
nmero
de rboles
de mandarinas
a ser sembrados.
sembrarse con el objetivo de maximizar el valor de la futura exportacin anual?
Valor
medio de
export. anual: U = 10150X1 + 4200X2 + 1550X3 + 7150X4
Formulacin
dellaproblema:
Segn las siguientes restricciones:
Extensin de tierra:
Inversin inicial:
cont := 0;
Para n:= 1, N
sortear G
Si G conexo: con := cont + 1
fin para
Conf (G) = cont / N.
Gestin de proyectos
El conjunto de tareas de un proyecto se modelan mediante un grafo, sobre el
que se determinan cules son los tiempos y las tareas crticas ("cuellos de botellas")
del proyecto. Tcnicas usadas: CPM-PERT, mtodo del Camino Crtico.
Algunos de estos problemas, se estudiarn en el curso Introduccin a la
Investigacin de Operaciones.
8
2. OPTIMIZACIN
2.1 Introduccin
2.1.1 Motivos para estudiar Optimizacin
Existe una enorme variedad de actividades en el mundo cotidiano que pueden ser
tilmente descritas como sistemas, desde sistemas fsicos tales como una planta
industrial hasta entidades tericas tales como los modelos econmicos. La operacin
eficiente de esos sistemas usualmente requiere un intento por optimizar varios ndices
que miden el desempeo del sistema. Algunas veces, esos ndices son cuantificados y
representados como variables algebraicas. Entonces se deben encontrar valores para
esas variables, que maximicen la ganancia o beneficio del sistema, o bien minimicen
los gastos o prdidas. Se asume que las variables dependen de ciertos factores.
Algunos de esos factores a veces estn bajo el control (al menos parcialmente) del
analista
responsable
del desempeo
del recursos
sistema. escasos de un sistema se suele dividir
El proceso
de administracin
de los
en seis fases:
i anlisis matemtico del sistema
ii construccin de un modelo matemtico que refleja los aspectos importantes del
sistema
iii validacin del modelo
iv manipulacin del modelo a fin de obtener una solucin satisfactoria, si no
ptima
v implementacin de la solucin seleccionada
vi introduccin de una estrategia de control del desempeo del sistema despus de
la implementacin efectuada.
La cuarta fase, la manipulacin del modelo, es la que concierne a la teora de la
optimizacin. Las otras fases son muy importantes en la administracin de cualquier
sistema y probablemente requerirn mayor esfuerzo total que la fase de optimizacin.
Sin embargo, en esta presentacin de la optimizacin se asumir que las dems fases
fueron o sern resueltas aparte. Debido a que la teora de la optimizacin brinda este
eslabn en la cadena de la administracin de sistemas constituye un cuerpo importante
del conocimiento matemtico.
programacin dinmica optimiza una etapa por vez a fin de producir un conjunto de
decisiones ptimas para todo el proceso.
Una variada gama de problemas tales como inversin de capital, confiabilidad de
mquinas, y anlisis de redes se pueden ver como sistemas seriales multietapa; de
modo que la programacin dinmica tiene una amplia aplicabilidad.
En la formulacin de muchos problemas de optimizacin no se puede hacer la
hiptesis de linealidad que caracteriza a la programacin lineal. No existen
procedimientos generales para problemas no lineales. Se han desarrollado un gran
nmero de algoritmos especiales para tratar casos particulares. Muchos de esos
procedimientos se basan en la teora matemtica relacionada con el anlisis de la
estructura de tales problemas. Esta teora se llama generalmente optimizacin clsica.
Una de las principales contribuciones modernas a esta teora fue hecha por
Kuhn y Tucker quienes desarrollaron lo que se conoce como las condiciones de
Kuhn Tucker.
La coleccin de tcnicas desarrolladas por esta teora se llama programacin no
lineal. Pese a que muchos problemas de programacin no lineal son muy difciles de
resolver, hay cierto nmero de problemas prcticos que pueden ser formulados de
manera no lineal y resueltos por los mtodos existentes. Esto incluye el diseo de
entidades tales como transformadores elctricos, procesos qumicos, condensadores
de vapor y filtros digitales.
Maximizar:
(1.1)
f (x1,x2)
h1 (x1,x2) 0
sujeto a:
(1.2)
(1.3)
(1.4)
x1 0
x2 0
Este es un problema tpico en la teora de optimizacin: la maximizacin
(o minimizacin) de una funcin real de variables reales (a veces una sola variable)
sujeta a un nmero de restricciones (a veces este nmero es cero).
La funcin f se llama funcin objetivo, x1 y x2 se llaman variables independientes
o variables decisionales. El problema es encontrar valores reales para x1 y x2, que
satisfagan las restricciones (1.2), (1.3) y (1.4), los cuales introducidos en (1.1) hagan
que f (x1,x2) tome un valor no menor que para cualquier otro par x1,x2.
En la figura siguiente se muestran tres contornos de la funcin objetivo.
f (x1,x2) = 0.25
x2
(0,1)
f (x1,x2) = 0.50
S
h1 (x1,x2) = 0
f (x1,x2) = 1.00
x1
(1,0)
La funcin objetivo tiene el mismo valor en todos los puntos de cada lnea, de
(1.5)
f ( X ) una
f ( Xsolucin
),X S X S satisface (1.5) se llama solucin ptima, y en este caso
Cuando
solucin mxima (tambin solucin optimal o maximal). Si el smbolo en (1.5) fuera
, X sera una solucin mnima. Adems, f ( X ) se llama valor ptimo, y no debe
ser confundido con solucin ptima.
2.2 Convexidad
Se revn a continuacin las propiedades ms importantes de los conjuntos convexos y
de las funciones convexas, tales conjuntos y funciones juegan un rol muy importante
en la optimizacin por dos motivos:
Cuando se tienen funciones y conjuntos convexos se puede identificar con
seguridad los llamados ptimos globales.
Muchas operaciones y transformaciones conservan la convexidad, por lo que se
puede construir funciones y conjuntos convexos ms complicados a partir de los ms
sencillos.
Definicin: Combinacin Convexa.
Dados (x,y) n, una combinacin convexa de ellos es cualquier punto de la forma:
z = x + (1) y
con | 0 1.
Notas:
Si 0 y 1, se dice que z es una combinacin convexa estricta (o propia).
La interpretacin geomtrica es que z es un punto del segmento de recta
determinado por (x,y).
Definicin: Conjunto Convexo.
S n es un conjunto convexo si
[x + (1 ) y] S
(x,y) S, : 0 1
13
conjunto convexo
conjunto no convexo
Es decir que S es un conjunto convexo si contiene a todos los segmentos de recta que
se pueden formar con los puntos que le pertenecen.
Definicin: Funcin Convexa (en un conjunto convexo).
Sea S n, un conjunto convexo.
La funcin f: S es convexa en S si:
f [x + (1) y] f (x) + (1) f (y)
(x,y) S, : 0 1
Si S = n, se dice que f es convexa.
f
f(x)
f [x +
y]
f(x) +
f(y)
f(y)
x
y
iii
Sean fi : Ii , (i = 1,...,n) funciones convexas en el intervalo Ii .
14
i1
f i(x) es
2f
Una
funcin
hasta el segundo
y abierto
es en
convexa
siifladiferenciable
matriz de derivadas
segundas:rden en S nesconvexo
semidefinida
positiva
xix j
n.
f(
ixi)
i f (xi)
i1
15
Paso Inductivo:
(Hiptesis)
f(
i1
(Tesis)
f(
Demostracin:
f(
ixi)
ixi)
i1
i f (xi) , k m 1
i f (xi)
ixi) f ( x
m1
mi1m
x ) f mxm (1m)
m1
i1
i i
i1
i1
ixi
(1m)
i1
i1
f convexa en C
m f (xm) (1m)
m1
i
f (xi)
(1m)
m1
ixi )
(1m)
i f (xi)
i1
H.I.
i1
xX g(x) 0
Las fuerzas reactivas slo actan en las paredes que estn en contacto con la partcula,
es decir que i 0solamente cuando gi(x) 0. Esto se expresa en la forma siguiente:
f (x)
( ig
igi
(x)
0, im1,...,m
. i(x)) 0
Finalmente, para que la partcula est en reposo se exige balance de las fuerzas:
i1
18
g(x) 0,
i 1, ,m,son
igi(x)
0, exigencias
El resumen
deestas
las Condiciones
de Kuhn
Tucker:
ii
fuerza
slo en las paredes
activas.
iii
i 0,
iv
f (x)
equilibrio de fuerzas.
Las condiciones de Kuhn Tucker son necesarias para que un punto x interior a X,
sea ptimo local, salvo que ocurran casos excepcionales, por ejemplo: gi (x) 0, o
que f (x) no pueda ser balanceado por las fuerzas reactivas, como ocurre en la
figura siguiente:
g (x)= 0
g (x)= 0
1
g (x)
1
f(x)
g (x)
2
g(x) 0
igi(x) 0,
ii
iv
iii
f (x)
i 1,
,m
igi(x) 0
19
x0
f (x)x 0
x0
f (x) 0
iii
Entonces
En caso de tener restricciones de igualdad, las fuerzas reactivas de la analoga
mecnica anterior pueden apuntar hacia ambos lados de las paredes, y en
consecuencia desaparece la exigencia de i 0.
Adems, todas las paredes son tocadas por la partcula en todos los puntos factibles,
por lo que igi(x) 0 tambin desaparece.
El teorema correspondiente se enuncia:
Teorema: Sea x un ptimo local del problema
Min f (x)
(M ) sujetoa :
g(x) 0
Entonces
m tal que f (x)
igi(x) 0
y sean las gi tales que gi (x) son linealmente independientes para i 1,...,m
2.5 Relajaciones
Cuando se enfrenta un problema difcil de optimizacin, es posible reformularlo de un
modo ms fcil por medio de una relajacin; sta nueva versin se llama problema
relajado
20
fL
f
F
FL
Teorema 1:
Sea (GL) una relajacin de (G),
xL y x soluciones optimales de (GL) y (G) respectivamente
x F.
i 1,
,m
x X
se usa comnmente la llamada relajacin lagrangeana que consiste en agregar la
m
variable m y construir
el siguiente problema:
jg j(x)
Min x f (x)
j1
(M ) sujetoa :
x X
i1
En el caso de problemas
con restricciones de igualdad
i1
sujetoa :
(M ) Min f (x)
g(x) 0
x X
La relajacin lagrangeana se construye de forma anloga.
Teorema 3:
(M) es una relajacin de (M=) para cualquier m.
Prueba:
Se deduce a partir de la prueba del teorema anterior.
g(x) 0.
Teorema
fundamental de la Relajacin Lagrangeana)
i 4: (Teorema
x) = optimal
0, i=1...m.
Si x es una igi(
solucin
de M que cumple:
ii
0.
x F debido a la condicin i.
f(x) f (x)
23
x2
Min f (x) n j
Ejemplo 1: Considrese2 el siguiente problema:
(P)
sujetoa :
j1
n
a jx j b
x j 0, j 1,...,n
j1
Se suponede
que
y aj (j = forma:
1,...,n)bson positivos.
Se comienza por escribir la primera
restriccin
la bsiguiente
a jx j 0 .
j1
j1
x j 0, j 1,...,n
f, j
x j
Luego f, j
x j
f, j
f, j
x j
(x j ) x j a j
(x j) 0;si x j a j
(x j) 0;si x j a j
x j
Por lo tanto (P,j) presenta un mnimo global cuando
(x j) 0;si x j a j
consecuencia: (P) tiene un ptimo global en x().
x j a j x j(),
y en
24
Para resolver el problema (P) se trata de encontrar los valores de que satisfacen las
condiciones i al iii del Teorema 4.
0,o bien :
ii)(condicin
de que:
complementariedad) establece que:
La
b condicin
a jx j(
0, es decir
a jx j() b
Se discuten a continuacin ambos casos.
Si = 0
x j () 0, y no se satisface la condicin i:
a jx j ()
Si b
a ja j
Por lo tanto b
a jx j() b.
aj2.
ak2.
Con este valor de es vlido que 0, lo cual equivale a iii; y es vlido que
k1
1
2
ak 2)2
a2j b2 (
21 2
a2k (
ak 2)2
21 2
decir que
a2k
j1
n
a jx j
sujetoa :
n
bjx j b
0j1 x j 1
Siendo aj, bj, b 0.
Se trata del problema de cargar de vveres una mochila de volumen b para un viaje.
Se debe elegir entre n comestibles; de cada uno de ellos hay existencias por un
volumen bj con un poder nutricional total aj; xj representa la parte que el mochilero
deber cargar de las existencias del alimento jsimo.
Los alimentos tienen distinto valor que es su poder nutricional por unidad de
volumen (cj = aj / bj). Parece natural elegir a los comestibles en orden decreciente de
valor nutricional. Supngase que se cumple c1c2 cn.
(KP) sujetoa :
0 x j 1
a jx j
j1
n
sujetoa :
n
bjx j b
0j1 x j 1
(con aj, bj y b 0) se soluciona, en el caso continuo, asignando variables iguales a 1
en orden de valor, es decir, en orden descendiente de aj / bj y sin exceder la
disponibilidad b del recurso.
Sea xk la variable que violara la restriccin si le fuera asignado el valor 1. Para esta
variable se elige un valor menor que 1 y de modo que la restriccin se satisfaga
exactamente.
min
i1
aixi2
i1i
Sabiendo que pi 0, ai 0, bi 0
i 1..n y b0 0
i1
n
bixi ai
bixi pixiAj1
i1
Siendo A
bi Apixi
i1
aj .
n
i1
aix2i
sujetoa
n
bi
Apixi 0
b0
xi 0i1 i 1..n
Hallamos el problema P, relajando la restriccin:
min
aixi 2 bi Apixi b0
(P ) sujetoa
i1
xi 0 i 1..n
27
min a jx2 bj Ap jx j
(P , j) sujetoa
x j 0 j 1..n
Como a j 0, la funcin objetivo es convexa. Entonces, encontramos el ptimo
bj Ap j
derivando:
2a jx j bj Ap j 0
x j()
2a j
Imponiendo la condicin de complementariedad, tenemos que
b0
bi Apixi()
i1
Si = 0, la solucin
no es factible pues se violara la restriccin xi > 0.
Entonces
n bi Apixi b0
bi Apibi Api b0
2ai
n
i1
b0
bi Api2
i1
i1
2ai
b0bj Ap j
n bi Api 2
2a j
i1
aj
2ai
b0bj Ap j
bi Api2
n
i1
ai
y g(x) = 0.
28
f L(x) f (x)
igi(x) f (x)
pues gi(x) = 0, i.
Teorema 6:
g(x ) 0.
i
Sean f y gi funciones convexas y diferenciables. Si x X y m, satisfacen:
igi(x ) = 0.
ii
iii
0.
m
iv
igi (x) 0
f (x)
i1 de (M).
entonces x es ptimo
Prueba:
i iii son las condiciones del Teorema 4.
Se demostrar a continuacin que iv significa que x es solucin optimal de (M):
igi es una funcin convexa porque i 0 implica que igi es convexa y
f f
las sumas de funciones convexas son convexas.
Como f f
igi,
La mayora de los teoremas de esta seccin suponen que xL F, o sea que la solucin
optimal del problema relajado pertence a la regin factible del problema original. Si
se puede, a partir de xL, encontrar un punto xL F que no es mucho ms caro,
lo cual se deduce del siguiente teorema:
xL F
Teorema 7:
xL y x soluciones optimales de (GL) y (G) respectivamente.
Sean
unauna
solucin
no necesariamente
optimal de (GL), que cumple xL F.
(GL)
relajacin
de (G).
xL
por el Teorema 1.
29
2.6 Dualidad
En el captulo anterior se resolvieron problemas de optimizacin determinando
(analticamente) los multiplicadores de Lagrange. Esto rara vez se puede hacer en la
prctica, y en su lugar lo usual es determinar los multiplicadores de Lagrange
resolviendo un nuevo problema de optimizacin, llamado Problema Dual el cual
consiste en buscar la relajacin ms fuerte posible, o sea, una relajacin cuyo valor
optimal est tan prximo como sea posible del valor ptimo del problema original.
0
(P) se llama problema primal del problema (D).
Si se tiene restricciones de igualdad en el problema primal no habr exigencia de
positividad en el problema dual. Los teoremas que siguen son vlidos tambin en este
caso, ya que se construyen a partir de que () p para los valores de que dan
relajaciones.
Sea d el valor optimal de (D). p y d son entoces los valores optimales primal y dual
respectivamente.
Observacin: d p
Prueba:
(P) es una relajacin de (P), por lo tanto () p, 0
Pero entoces: d = Max () : 0 p
sujetoa :
(P)
Ejemplo 4: n a jx j b
x 0
j
n j1
con aj y b positivos.
Se plantea el problema relajado lagrangeano, tal como se hizo en el captulo de
relajaciones:
Min x n (x
j 2 /2a jx j)b
(P ) sujetoaj1:
xj 0
La
dej)(P)
es x j () a j, segn
visto en relajaciones.
1
()solucin
n ((a
ajlo
2) b
2 2 a ja j )b 2 (
Entonces la funcin objetivo del problema dual es:
De modo
que el problema dual es:
j1
31
Max () 1 2(
aj 2)2 b
(D) sujetoa :
0
es una funcin cncava y tiene, por lo tanto, un valor mximo cuando dd 0
d
0 (suponiendo
(
aj2)
bsto
, o sea:
buna
( solucin
a2j ) 0, que
es factible.
que
brinde
factible).
Se obtiene entonces:
d
Por lo tanto b
aj 2 es una solucin optimal del problema dual. Este es el mismo
multiplicador de Lagrange que se hall en el captulo Relajaciones. Adems:
d () 12 (
a2j )b2 (
aj2)2 bb
aj2
21 2
a2j
ak2 x j()
es igual a la
solucin ptima del problema relajado con la solucin ptima del problema dual
como multiplicador de Lagrange. Por lo tanto, se puede determinar la solucin primal
ptima con la ayuda de la solucin ptima dual.
Teorema 9:
Si x y son soluciones factibles de (P) y (D) respectivamente, entonces cumplen:
() f (x)
Prueba:
() d p f (x)
Corolario 9.1:
Sean x y soluciones factibles de (P) y (D) respectivamente, que cumplen:
() f (x).
anterior.
Anlogamente se demuestra que x es solucin optimal de (P)
del Corolario
Este corolario brinda una nueva interpretacin del Teorema 4. Bajo las condiciones
g(x) b
a jx j() b
Adems ()
a ja j
a b,
j 2
Ejemplo
(continuacin):
Se aplicar el Teorema en el ejemplo anterior
acuerdo al
teorema precedente.
Cuando se cumple que () g(x) 0 2 y 2 por lo tanto x es una solucin
factible. Adems g(x) 0, por lo tanto: f (x) jf (x) g(x ) ().
La optimalidad de x y de se desprende del Corolario 9.1.
Cabe preguntarse si en general se puede tener la esperanza de encontrar la solucin
ptima del problema primal a travs de la solucin ptima del dual. Los siguientes
teoremas responden parcialmente a esta inquietud.
Teorema 11:
Si X es cerrado y acotado, es solucin ptima de (D) y (P ) tiene una solucin
ptima x() nica. Entonces se cumple:
i
Tg(x()) 0
ii g(x()) 0
Prueba:
x()
() g(x())T
(*)
b) () 0
Teorema 12:
Si X es cerrado y acotado, es solucin ptima de (D), y (P ) tiene un ptimo nico
x().
Solamente algunos problemas muy especiales pueden ser resueltos con la tcnica del
captulo Relajaciones, que consiste en resolver analticamente el problema relajado
para valores fijos de los parmetros lagrangeanos, y posteriormente determinar dichos
parmetros de modo que se cumplan las condiciones del Teorema 4.
Con la ayuda del problema dual se obtiene una tcnica general para determinar los
valores ptimos de los parmetros de Lagrange, a partir de los cuales se puede
calcular las soluciones ptimas del problema primal, de forma que el duality gap
sea nulo (=0).
2.7.1 Generalidades
En los problemas de programacin lineal (PL) se tiene una funcin objetivo lineal y
restricciones lineales. En general se exige tambin la positividad de las variables. Un 34
problema general de PL se puede escribir en la forma siguiente:
Min z
c jx j
sujetoa : j1
n
aijx j bi,
j1
aijx j bi,
x j 0,
n
i 1,...,k
i k 1,...,m
j 1,...,l
j1
sujetoa:
j1
n
a jx j bi,
x j 0,
i 1,...,m
j 1,...,n
j1
35
(PDc)
sujetoa
Maxb
Tu :
ATu c
u0
Prueba:
Antes de hallar el dual se reescribe el problema primal en la forma utilizada para la
definicin de dualidad:
(PLc)
sujetoa
Min cT: x
b Ax 0
x0
Se decide no relajar las exigencias de positividad (x 0). La funcin objetivo del dual
es () = Minx {cTx + T(bAx) x 0} = Minx {(cT TA)x + Tb x 0}, que
equivale a:
()
Min x
(cT T A) j x j Tb x j 0,j
j1
Tb,si(cT T A)
j 0,j
,sij talque(cT T A) j 0
Como se desea maximizar (), el valor no interesa. Se tiene una relajacin si se
cumple que 0. El problema dual toma entonces la forma:
Max ()
(PDc) sujetoa :
(PDc)
sujetoa :
Max Tb
cT T A 0
Transponiendo
sujetoa en
: la funcin objetivo y en la restriccin se obtiene:
(PDc)
MaxbTAT c
0
La tesis se deduce sustituyendo por u.
Teorema 14:
El problema dual del problema dual (PDc) es el problema primal (PLc).
Prueba:
Se sugiere hacer la relajacin lagrangeana de (PDc) y continuar de la misma forma
que en el Teorema 13.
37
Teorema 15:
Min 1cT x1 cT2 x2
sujetoa :
A11x1 + A12x2 = b1
A21x1 A22x2 b2
x1 libre,
x2 0
El problema general de PL:
Maxb1 Tu1 bTu2
sujetoa :
Tiene como dual a
A11u1 + A21u2 = c1
A12u1 A22u2 c2
u1 libre,
u2 0
(PLs)
Min cT x:
sujetoa
Ax b
(b 0)
x0
En la forma standard se asume que b 0. Si esta condicin no se cumpliera en algn
caso particular, basta multiplicar por 1 las ecuaciones que tienen signo negativo en b.
condicin de positividad:
n aijx j y bi
yj1 0
As, con la ayuda de variables de hogura, se llevan a la forma standard los problemas
expresados en forma cannica.
Min cT x
El problema (PLc)
sujetoa :
Ax b
Min cTx
es equivalente a (P)
sujetoa :
Ax y b
x0
x, y 0
Ax b
Ax b
sujetoa :
Ax b
x 0 (x
n)
a
xk =0
x| Ax =b
T
T
Se puede
eliminar
xB deT la funcin objetivo. Se comienza por expresar el vector cT
n como cT (cB,cN), se obtiene as la siguiente forma de la funcin objetivo:
z cBxB cNxB
cNTcBATcB1Nbc
cBTBAAB1B1AANNxNse
cNllama
xN
En la solucin bsica xN = 0 y z z.
(PLs) sujetoa :
xB b ANxN
xB, xN 0.
La solucin bsica correspondiente es (xB,xN) (b,0). Supngase que dicha solucin
bsica es factible, es decir: b 0.
Si alguna componente de cN, por ejemplo cj, es negativa, se obtendr un valor mejor
de la funcin objetivo incrementando xj desde su valor nulo actual.
Si slo aumenta xj, el incremento en xB se calcula como xB b a jx j donde a j es la
columna correspondiente a xj en AN . Esta solucin es factible si xB 0, a
continuacin se estudian las condiciones que deben cumplirse para asegurar la
factibilidad.
La ecuacin xB b a jx j expresada por componentes queda: (xB)i bi aijx j..
Si aij 0, entonces (xB)i no decrece al aumentar xj. En consecuencia el cumplimiento
de la restriccin (xB)i 0 no est condicionado por la variacin de xj.
Si aij 0, entonces (xB)i disminuye al aumentar xj, y se hace cero cuando x j bj aij
En consecuencia, la solucin es factible si las variaciones de xj cumplen que:
41
Teorema 16
Si en el problema (PLs) se cumple que b 0 y adems cN 0, entonces la solucin
bsica correspondiente es ptima.
Prueba:
Se demostrar a travs de relajaciones, utilizando el Corolario 1.1.
El problema (PLs) es el mismo que (PLs) aunque expresado en forma distinta.
Min una
z zrelajacin
cNT xN de
z (PLs) ignorando la restriccin xB b ANxN, el problema
Se obtiene
c jx j
relajado es:
xjxN
(PLsr) sujetoa :
xB, xN 0
(xB,xN) (b,0)
(xB,xN) (b,0) es
42
4
3
x2
2
2
1
x1
La regin factible es el contorno delimitado por los vrtices (1), (2), (3) y (4). Las
lneas punteadas son la curvas de nivel de la funcin objetivo. La solucin ptima se
encuentra en el vrtice (3). Se hallar dicha solucin por el mtodo simplex.
Se introducen en primer lugar las variables de holgura x3 y x4 para llevar el problema
a la forma standard. Tambin se cambia el signo a la funcin objetivo para obtener un
problema de minimizacin:
Min 2x1 3x2
sujetoa :
x1 x2 x3 2
xxi10,2xi2 1,
x4 ,4
3
O en forma matricial:
Min (2,3,0,0)x
sujetoa :
1
x0
0x 2
3
1
x
4
43
Ntese que las variables de holgura x3 y x4 son variables bsicas adecuadas: estn
expresas en funcin de las otras variables, y estn eliminadas de la funcin objetivo.
x3 2 x1 x2
x4 3 x1 2xx1
2
x2
x3
x4
b
2
1
1tiene la0representacin
El sistema de ecuaciones, en1forma tableau,
siguiente:
3
1
2
0
1
0
2
3
0
0
b
El tableau tiene la siguiente forma A
.
0
cT
Las variables bsicas ya estn resueltas, el tableau corresponde tambin al problema
transformado (PLs).
Los puntos debajo de las columnas 3 y 4 indican que las variables x3 y x4 son bsicas.
La solucin bsica correspondiente se obtiene asignando el valor cero a las variables
no bsicas (x1, x2).
Por lo tanto, la solucin bsica es: x1 = 0, x2 = 0, x3 = 2, x4 = 3. Esta solucin
corresponde al vrtice (1) en la figura.
La ltima lnea del tableau muestra los costos reducidos. Debido a que c1 0 y c2 0,
vale la pena aumentar x1 o x2, como c2 es el ms negativo, conviene elegir x2 como
nueva variable bsica. El valor sombreado es aquel para el cual se obtiene el
El
sistema
de
ecuaciones,
canonizando
la
columna
3/2
0
0
-1/2
Puesto que slo c1 0, conviene elegir x1 como variable bsica, obteniendo:
x1
x2
x3
0
0
1
0
2
-1
1
x4
-1
0
1
b
1
1
5
Se ha obtenido una solucin ptima, pues cj 0,j. Dicha solucin ptima tiene las
variables no bsicas igualadas a cero y las variables bsicas iguales a b :
x1 = 1, x2 = 1, x3 = 0, x4 = 0.
44
2
1
1
3
xj 0
x1
x2
x3
x4
b
x3 y x41
son variables bsicas adecuadas
y el tableau es el siguiente:
1
1
1
0
1
1
1
0
1
0
1
1
0
0
45
variable
saliente
es
la
(bsica)
correspondiente
Minbi ai1 ai1 0 Min11,, lo cual ocurre en la fila 1. El elemento a11 se llama
pivot y se utiliza para reformular el sistema de ecuaciones de modo que la columna
correspondiente a x1 sea cannica. Se obtiene el siguiente tableau:
x1
x3
x4
b
x2
1
1
1
1
0
2
0
0
1
1
1
2
0
1
0
La solucin
bsica correspondiente
es x1 = 1, x2 = 0, x3 = 0, x4 = 2, que es el punto 2
de la figura.
En este caso slo x2 tiene costo reducido negativo y en consecuencia es la nica
candidata a ser variable bsica. La variable saliente se halla a partir de
Min bi ai2 ai2 > 0 Min, , es decir que ninguna variable bsica limita el
crecimiento de x2 por lo que se tiene un valor ptimo no acotado. Se observa en la
figura que eligiendo la arista [2, ) se puede obtener valores arbitrariamente altos de
la funcin objetivo.
A modo de resumen de los dos ltimos captulos se presenta el siguiente diagrama de
flujo del mtodo simplex:
Dado un tableau reducido con solucin bsica factible
Hay variable
xj con cj < 0
NO
SI
xHay
entraa en la>0?
base
kj
NO
j
SI
de acuerdo con
/a
kj
= Min { b
i /a ij ,a ij > 0}
bsica
salienteel nuevo tableau
Por pivotacin enDeterminar
el elementola variable
a
se obtiene
kj
46
al
se han
dos criterios
parada
del mtodo
simplex:
Hasta ahora
Si para
tododiscutido
cj 0 ocurre
que aij de0,
i se puede
afirmar
que no hay valor
optimal acotado (ni solucin ptima.
La pregunta es: debe darse, necesariamente, alguno de estos dos casos?
Sea xj (con cj 0) una variable no bsica, que ha sido seleccionada para ingresar a la
nueva base. Se introducir xj en sustitucin de aquella variable bsica xi para la cual
se alcanza el Min bj aij aij 0 .
Cuando dicho mnimo se alcanza para dos o ms variables bsicas simultneamente,
se dice estar ante un caso de degeneracin.
Ya sea que haya o no degeneracin, el incremento en la variable xj es
x j Min bi aij aij 0 0, y la funcin objetivo decrece z cjx j 0. Una
variable bsica decrece hasta hacerse nula, y si hay degeneracin una o ms variables
bsicas continan sindolo, pero con valor cero.
Si
hay
degeneracin,
en
alguna
iteracin
podra
ocurrir
que
Ax b 0
(E)
x 0 que se busca una solucin factible en el espacio de soluciones:
Supngase
Este problema se puede resolver con la ayuda del mtodo simplex. Se introduce en
primer lugar un conjunto de variables artificiales y 0, que miden la diferencia entre
el lado derecho y el izquierdo de la ecuacin (en una solucin factible estas variables
debern ser nulas).
Ax y b
(E
)
Se obtiene
el siguiente sistema de ecuaciones:
x, y 0
Para el sistema (E ) se obtiene fcilmente la solucin bsica factible y = b, x = 0. En
cambio, una solucin factible de (E) deber tener y = 0. Para obtenerla se resuelve el
siguiente problema de PL, llamado fase I, el cual se puede resolver con el mtodo
simplex porque se tiene una solucin bsica inicial factible.
Min
i1
m
yi
(LP ) sujetoa :
Ax y b
x, y 0
Teorema:
(LP1) tiene siempre un valor ptimo finito 0, dado por el mtodo simplex. Si dicho
valor ptimo es estrictamente mayor que cero, entonces (E) no tiene soluciones
factibles. Si el valor ptimo de (LP1) es igual a cero, entonces (E) tiene soluciones
factibles y el mtodo simplex brinda una de ellas.
Prueba:
Si el valor ptimo de (LP1) es estrictamente mayor que cero, siempre existe por lo
i b
i 0,ycomo
adems y 0 no
se concluye
menos
unaptimo
yi 0,
lo estanto:
i bi yiy
en consecuencia
existen
Si el valor
de por
(LP1)
igual (Ax)
a cero:
soluciones factibles de (E).
que y = 0 y la solucin ptima de (LP1) es factible para (E).
48
Min3x1 2x2
sujetoa :
x1 x2 2
x1 2x2 3 2
x1,x2 0
Este problema se representa grficamente en la figura que sigue:
1
1
49
x1
x2
x3
-1
x4
y1
y2
0
-1
b
2
3
3
2
0
0
0
1
1
-2
-3
0
0
-5
La solucin bsica correspondiente es y1 = 2, y2 = 3, y las dems variables iguales a
cero.
En esta solucin c1 0 y c2 0 se puede elegir tanto x1 como x2 para ser ingresada en
la nueva base, sea x1 la variable seleccionada. La variable saliente se determina de
-1
-1
1
-1
0
0
La solucin bsica es x1 = 2, y2 = 1, las dems variables iguales a cero. Se elige
introducir la variable x2, por lo que el elemento pivot para la canonizacin del
sistema sera el a22.
x1
x2
x3
-2
1
4
0
x4
y1
1
-1
-1
2
-1
-4
y2
-1
1
1
1
b
1
1
-5
0
50
x1
x2
x3
-2
1
x4
1
-1
-1
b
1
1
0
0
-5
x1
x2
x3
x4
b
-2
1
0
1
1
-1
1
1
0
2
2
1
0
0
-4
Como ahora c 0 se ha llegado al ptimo. La solucin es x1=0, x2=2, x3=0, x4=1.
4
La estructura del mtodo simplex puede ahora ser resumida del siguiente modo:
SI
Introducir
variables
artificiales y/o de holgura en caso
de necesidad
Hay
variables
artificiales?
Resolver
el problema Fase I
SI
es el valor ptimo = 0?
NO
NO
xN
AN
cNT
y
I
b
0
cyT
51
Las operaciones que se realizan para obtener una fila a partir de la anterior
corresponden
multiplicado
desde la izquierda con cierta matriz M que se
MAB I
Ma haber
IAB1
M AB1
determinar:
AN MAN AB1AN, cosa que ya se saba.
por lo tanto:
I MI AB1I AB1
b Mb AB1b,
(cNT T AN )
(0 TI)
(0 Tb)
T cBT ABT
xN
(c(A cA
N B1
A
TNA) N )
T
NTN
b AB1b
AB1cBT AB1) (z Tb)
( T
T cBTAB1
cBT T AB
cNT cN T AN
MaxbTu
(LDS) sujetoa :
ATu c
Ya fue demostrado que las variables u son los multiplicadores
de Lagrange. A
T
continuacin se investiga la relacin entre los multiplicadores simplex y el problema
dual.
Supngase que (LPS) ha sido resuelto hasta su ptimo y que xB son las variables
bsicas.
La exigencia de optimalidad de (LPS) es cNT 0, es decir: cN T AN 0 que por medio
decBuna
trasposicin
ABT
cB ABTqueda cN ANT.
Por otra parte, la restriccin impuesta a la variable dual es c ATu, lo cual implica que
ptima del problema dual si arrojase el mismo valor de la
cB sera
ABTuadems
y que cNuna
Asolucin
NTu.
funcin
objetivo
la solucin
ptimadedel
problema primal.
Por
lo tanto,
si seque
cumple
la condicin
optimalidad,
los multiplicadores simplex
constituyen
una de
solucin
factible
del del
problema
dual,
ya que
El valor ptimo
la funcin
objetivo
problema
primal
es z adems
cBT b cBTcumplen
AB1b. El
valor de la funcin objetivo del problema dual evaluada en u = es: bT , que se
1
u1 u2 0
Maxu1
sujetoau:1 u2 1
u1,u2 0
afirmaciones, se indican
dual (2)
dual (3)
sombreadas
las
primal (2)
primal (3)
54
3. GRAFOS
3.1 Introduccin
El nacimiento del concepto GRAFOS se puede situar, por el ao 1730, cuando Euler
(matemtico) se convirti en el padre de la Teora de Grafos al modelar un famoso
problema no resuelto, llamado el "problema de los puentes de Knigsberg".
Un ro con dos islas atraviesa la
ciudad. Las islas estan unidas, entre si
y con las orillas, a travs de siete
puentes. El problema consista en
A
Mostrar que el problema no tiene solucin equivale
a mostrar
establecer
un recorrido que pasara una
que el grafo no puede ser recorrido segn criterios
y solo una vez por cada uno de los
determinados.
siete puentes, partiendo de cualquier
Problema genrico: dado un grafo (con mltiples
lneas
entre
punto
y regresando
Bal mismo lugar.
pares de puntos) encontrar un camino que recorra el grafo
pasando por cada arista exactamente una vez.
Para probar que no era posible, Euler sustituy cada zona de partida por un punto y
Solucin:
El grafo
se conexo,
y as
en cada
punto deben
incidir
un nmero
par de
cada puente
por debe
un arco,
creando
un grafo,
el primer
grafo,
diseado
para
lneas.
Esta
condicin
es
suficiente
para
definir
lo
que
se
llama
un
ciclo
euleriano.
resolver un problema.
A partir de Euler el modelado mediante grafos fue desarrollando
D esta metodologa
hasta convertirse en la actualidad, en una herrramienta de trabajo para ciencias tan
diferentes como la Fsica, la Qumica, la Sicosociologa, la Economa, la Lingstica,
etc. La teora de grafos est ntimamente relacionada con varias ramas de la
Matemticas como por ejemplo la Teora de Conjuntos, el Anlisis Numrico,
Probabilidad, Topologa, etc. y es la base conceptual en el tratamiento de problemas
combinatorios.
La eficacia de los grafos se basa en su gran podero de abstraccin y la muy clara
representacin de cualquier relacin (de orden, precendencia, etc) lo que facilita
enormemente tanto la fase de modelado como de resolucin del problema. Gracias a
la Teora de Grafos se han desarrollado una gran variedad de algoritmos y mtodos
de resolucin eficaces que nos permiten tomar una mejor decisin .
No se debe confundir el grafo con el sistema real al que est asociado. El grafo es una
estructura que admitimos adecuada en lo concerniente a las propiedades que nos
interesan, donde luego aplicamos las deducciones y reglas matemticas para obtener
datos y poder decidir.
Una aplicacin frecuente de la teora de grafos es la del mtodo de camino
hamiltoniano ptimo para decidir el camino a seguir por un cobrador, de tal modo de
economizar sus energas, las suelas de sus zapatos y su bolsillo.
El objetivo es hallar un camino que pase por todos las casas una y solo una vez y que
nos de el costo menor en distancia. Dicho de otro modo, se deben buscar las
permutaciones de las casas de forma tal que la distancia recorrida total sea mnima.
Se conoce la distancia entre cada par de casas, segn si las calles son flechadas o no
se orientarn o no las conexiones entre pares de casas.
Obsrvese que si se hicieran todas las permutaciones, suponiendo
un caso muy reducido de diez casas, se tendran ms de 3 millones
de permutaciones (10!).
Si cada casa es representada por un vrtice y cada camino entre
par de casas por una arista ponderada por la distancia mnima
entre pares de casas, tendremos un grafo completo y simtrico
(cuando no hay calles flechadas).
b
Grafo bipartito, es un grafo cuyo conjunto de vrtices puede ser particionado en dos
clases X1 y X2 de tal forma que dos vrtices de la misma clase no sean jams
adyacentes. Se nota G = (X1,X2,U)
X1: conjunto personas
X2 : conjunto profesiones
K2,3.
3.2.3
Ciclos
coincide
con yelCircuitos
ltimo). Lo notamos uE = (u1,...,un).
Propiedad 1: Todo ciclo uC es una suma de ciclos elementales sin aristas comunes.
Propiedad 2: Un ciclo es elemental si y solo si es un ciclo minimal (es decir que no
se pueden deducir otros ciclos por supresin de aristas).
Seudociclo, es una cadena donde los extremos coinciden pero que una misma arista
puede figurar ms de una vez (tambin consecutivamente).
Cociclo del conjunto de vrtices A, es el conjunto de aristas incidentes a A, del
tipo I(A) no vaco y particionado en dos clases I+(A) y I-(A).
Ciclo Euleriano es aquel queAincluye todas las aristas del grafo una sola vez,
conteniendo cada vrtice por lo menos una vez.
Cadena Euleriana, es aquella que recorre todas las aristas una sola vez ( = simple)
tocando todos los vrtices del grafo.
Todo multigrafo que posee un ciclo Euleriano es conexo y todos sus vrtices tienen
a .
b
grado par
A partir del siguiente ejemplo daremos una idea del
mecanismo utilizado por Euler para demostrar que la
g
c
f
d
e
conexidad y el grado par de todos los vrtices de un
multigrafo, son condiciones necesarias y suficientes
h
k
para garantizar la existencia de un ciclo Euleriano.
j
m
Tenemos este grafo que es conexo y sus vrtices
i
l
tienen grado par.
o
b
e
f
h
k
j
n
a.
o
l
61
c
2) Las restantes aristas del grafo
inicial , conforman un grafo no
conexo, pero todos sus vrtices
mantienen el grado par, ya que al
retirar el ciclo encontrado, se redujo
cada grado en una cantidad par .
i
Cada subgrafo conexo posee un ciclo
Euleriano: d-c-i-j-k-e-d y h-g-m-h.
g
h
3) Estos dos ciclos pueden ser insertados en el ciclo encontrado en 2) en los vrtices
comunes d y h respectivamente, originando un ciclo Euleriano a-d-c-i-j-k-e-d-j-n-o-kl-h-g-m-h-f-e-b-a, en el grafo original.
Teorema E.1: Un multigrafo (no orientado) G = (X,U) posee un ciclo Euleriano sii
G es conexo y todos sus vrtices son de grado par.
Una Cadena Euleriana es una cadena que recorre todas las aristas del grafo una sola
vez incluyendo todos los vrtices.
Corolario E.2: Un multigrafo posee una cadena Euleriana, sii es conexo y tiene
exactamente dos vrtices de grado impar.
Se puede demostrar observando lo que sucede al agregarle una arista cuyas
extremidades sean los dos vrtices de grado impar. El concepto de ciclo Euleriano es
utilizado en la planificacin de redes de alta tensin entre varias ciudades.
63
Usando BPP (o DFS) , se toma algn vrtice como raiz y se comienza a construir una
cadena desde la raiz. La cadena contina hasta que no se puede continuar mas abajo
sin repetir un vrtice que ya est en la cadena. El vrtice donde esa cadena debe
terminar es una hoja. Entonces se vuelve atrs (backtrack), se retrocede un nivel al
padre de esa hoja, y se trata de construir una cadena desde ese padre en otra direccin
u otro vrtice no includo en la cadena anterior, y asi sucesivamente...
Algoritmo de Bsqueda Primero a lo Ancho
Sea G = (X,U) , x, v, s pertenecen al conjunto X, Q es
una cola o lista FIFO.
BFS(x)
Visite y marque x.
Inserte x en Q
Mientras Q no est vaca realice
Saco el
primer
elemento
s de Q adyacente a s
Para
cada
vrtice
v no marcado
visite y marque v
inserte v en Q
fin para
fin fin mientras
64
R rij
3.3.1 Representacin
Matricial
0 si no
Una relacin binaria en un conjunto X finito: X = {x1, x2,..., xn}, |X| = n,
es el subconjunto R = {(xi,xj); xi R xj}, compuesto por el conjunto de pares ordenados
Podemos afirmar que todo grafo G es orientado, por lo que existe una relacin binaria
resultantes del producto cartesiano de XxX. Si (xi,xj) R, decimos que xj esta
entre pares de elementos de G =(X,U), que es la relacin de adyacencia A.
relacionado con xi y notamos xi R xj.
Entonces, dado un grafo G=(X,U), de orden n, se puede representar la relacin de
La relacin R puede ser representada como una matriz nxn cuyos elementos son:
adyacencia , mediante una matriz A=[aij] nxn, llamada matriz de adyacencia de G,
definida por
A aij
1 si xi Ax j, (xi,x j)U
0 si no
A aij
0 si no
Esta matriz
arista u.
xi
xk
tales quexi
xk1,xkt Axk(t1)
xk1,xk2,...,xkm X
para t = 1,2, . . . , m - 1,xkm
xj
xi Ax j
Observacin: La clausura transitiva de una relacin A, es la relacin A en s misma.
Si A es la relacin de adyacencia en X, entonces la Clausura Transitiva en X es la
Relacin de Alcance definida por:
Ci,j = camino que va de xi a
C
x Tx
j
i, j xj,
i
xj es alcanzable desde xi, o que xj pertenece a la Clausura transitiva de xi, lo notamos
: xj *(xi)
La relacin de alcance es una relacin transitiva y cuando adems cumple con las
propiedades de simetra y reflexividad, es una relacin de equivalencia que particiona
a X en clases de equivalencia
X1, X2, ... Xm xi , xj Xk k=1,2,...m se verifica: xi = xj o xi T xj
Cada clase corresponde a una componente conexa del grafo. Es decir que se pueden
determinar la componentes fuertemente conexas del grafo calculando la clausura
x2
transitiva
en el conjunto
X de nodos.
x3
x1 x2 x6
X1 = {x1, x2, x6}
x4
x3 x4
x5
x6
X3= {x5}
x5 x5
fig.CFC
( p)
aij( p)
0si no
(producto booleano).
A)(s-1) s n- 1, es la
Si los nodos del grafo estn ordenados por componentes, cada una de ellas se va a
caracterizar por un bloque o submatriz cuadrada de 1s en la diagonal de la matriz T.
En estos casos se dice que la matriz T es triangular por bloques, es decir que esta
compuesta por bloques cuadrados dispuestos en la diagonal.
Justificacin del Teorema
aij
( p)
(s-1)
s = n-1
LQQD
(s-1)
= (I
A)(s-1) , s 1
La experiencia indica que para calcular la matriz de alcance, alcanza con calcular
(n-1)
(n-1)
69
IVA
1
1
0
0
0
1
1
1
0
0
0
0
0
1
1
1
0
0
0
0
1
1
0
0
0
0
1
0
1
1
1
0
0
0
0
0
1
1
0
0
0
1
1
1
0
0
0
1
X1= {x1,x2,x6},
x
1
x
2
x
3
x
4
x
5
x
6
x
1
x
2
1
00
0
00
0
0
0
1
1
0
0
0
1
1
11
0
00
0
1
0
1
1
0
0
0
1
x 0
3
1 0 0 0
1 x1 00 0
0 41 1 1
0 x1 10 0
0 50 0 1
0 0 0 1
x 1
1 61 0 1
1 1 1 1
0 1 1 1
0 1 1 1
0 0 0 1
1 0 0 1
(I V A)2
X2={x3,x4},
1
1
0
0
0
1
1
1
0
0
0
1
1 0 1
11 10 1
1 1 1
01 11 1
0 0 1
0 0 1
0 1
1 1 1
1 1 1
1 1 1
1 1 1
0 0 1
1 1 1
(I V A)4
1
01
0
00
0
1
1
1
1
0
0
0
1
1
1
0
0
0
1
1
1
0
0
0
1
1
1
0
0
0
0
1
1
0
0
0
1
0
1
1
1
0
0
1
1
1
1
0
1
0 0 1
0 0 0
1 1 0
1 0 0
0 1 0
0 1 0
1 1 1
1 1 1
1 1 0
1 1 0
0 1 0
1 1 1
(I V A )5 = T
X3 ={x5}
x3 ==> x4
=Q
x4==> x5
x5==> x6
x6==> x3
70
= Q T Qt
X2
El siguiente es el Gc de la fig CFC. Los grafos condensados
X1
Las componentes fuertemente conexas de un grafo G, se pueden condensar en un
se utilizan en la planificacin del trnsito y de transporte
punto,
formando un nuevo grafo Gc sin ciclos, cuyos arcos son aquellos del grafo G
urbano.
que unen distintas componentes, al que se llama grafo condensado.
Procedimiento para condensar un grafo:
X3
1) Condensar G.
2) Encontrar algn camino hamiltoniano, si existe, en el grafo condensado Gc.
3) Encontrar un camino hamiltoniano en cada nodo del grafo condensado (en cada
componente fuertemente conexa de G).
4) Si es posible, unir el o los caminos encontrados en el paso 3) con el encontrado en
el paso 2).
Supongamos que el grafo condensado del ejemplo anterior describe el posible
recorrido de una lnea de mnibus, y se desea determinar aquel recorrido que pasa una
sola vez por cada una de las paradas (nodos del grafo).
Definicin
Un camino hamiltoniano en un grafo G, es aquel camino que pasa una y solo
una vez por cada vrtice del grafo.
Si G es de orden n, el largo del camino hamiltoniano es el del camimo elemental de
longitud mxima.
71
si (xi,xj) U, ij o i = j
Los caminos
largo
de la siguiente manera
00 elementales
si (xi,xj) de
U,
ij o2 ise=calculan
j
[M]
(1) L [M](1) = [M](2)
Retirando
la primera letra de los elementos distintos a 0 obtenemos [M](1)= ((mij(1)))
latina.
m
ij(2) = Uk=1,n (mik(1) mkj (1) ), donde
siendo
mik(1) mkj (1) =
mik(1) conc. mkj (1) si mkj (1) mik(1) y mik(1) mkj (1) = 1
0 si no.
M(3) = M(2) L M(1),
M(4) = M(3) L M(1)
Para encontrar los caminos hamiltonianos nos detenemos en el paso n-1 (4, en nuestro
caso). Los elementos de la matriz M(n-1) contiene la sucesin de nodos de cada uno de
los caminos hamiltonianos, si existe alguno.
Ejemplo:
E
D
M(1)
C
M(1)
72
AB
AC
AE
0 B
0 E
BC
BE
0 E
CD
D 0
DC
DE
0 E
EA
ED
A 0
ACD
AED
D 0
ABC
BEA
M(2)
M(4)
=
ABE
BCD
BED
0
=
CDE
DEA
EAB
EAC
EDC
ABEDC
ABCDE
BCDEA
BEACD
CDEAB
DEABC
EABCD
Afirmacin:
Cualquier subgrafo compuesto del esqueleto y
una cuerda contiene un ciclo
Teorema: Un rbol de orden n >2 admite por lo menos dos vrtices que son
adyacentes a un solo vrtice.
Teorema: Un grafo admite un grafo parcial que sea rbol ( dicho de otra forma
admite un rbol parcial (esqueleto) s. s. i. es conexo.
74
ALGORITMO DE KRUSKAL
1) Al comenzar T = (vaco)
ALGORITMO DE PRIM
75
i
Ek-1j
76
Algoritmo de Dijkstra
Para valores crecientes de m, el algoritmo marca aquellos vrtices que tienen m como distancia
mnima desde el vrtice a.
2) Chequear cada arista u = (p,q) desde algn p ya marcado, hasta algn q sin marcar.
3) Si x sin marcar: m := m + 1;
volver al punto 2
Si no: ejecutar el punto 4
77
4) Para cualquier vrtice y, un camino ms corto de a a y, tiene largo d(y) (la 2da parte de la
(F,7)
7
(-,0)
(G,9)
(A,9)
(I,6)
(F,5)
6
(D,9)
(E,7)
1
(F,6)
78
5. REDES FLUJOS
Red es un grafo ponderado, con un nodo a llamado fuente y otro nodo z llamado
pozo, terminal o resumidero (sink).
N = ( X, U, W)
b
5,5
X = { a, z, xi , 1 i n-2}
7,4
U = { (xi, xj), ........}
4,3
7,6
4,1
z
a
Consideramos redes orientadas. Es viable afirmar que una red siempre es orientada.
3,2
8,6
8,8
4,0
c
5,5
u U
(u)
-(x) que
Definicin:
a P y z Pc.
c)
x(u) =
a,a-z
x (fuente-terminal)
z,u I-(a)
uI+(x) y (u)
=aquel
b)Corte
0,
ues
I+(z)uIen
Lalacondicin
que el flujo
vaya
de corte
la fuente
En
red de la b)
fignos
4.1,asegura
si P = {a,b,c},
(P,Pc)
es un
a-z.al pozo y no al revs. La
condicin c) implica que el flujo parcial que entra a un nodo x, es igual al flujo parcial
que sale de x, es llamada la condicin o ley de conservacin de flujo de Kirchhoff.
Si se suman las ecuaciones en c) sobre todas las x pertenecientes a un subconjunto P
de nodos de una red N que no contengan ni a ni z, se obtiene la siguiente expresin
como consecuencia de c:
xP
5+2+5+3 ==
4+3+8+0
Eliminando los flujos (u) que se repiten en ambos miembros se obtiene una nueva
condicin
para todo subconjunto P de nodos que no contengan ni a ni z.
c')
(u) =
u(P,P c)
(u)
u(P c,P,)
Es decir que P que no contenga ni a ni z, el flujo que ingresa a P es igual al flujo que
sale de P.
Teorema N.1
Para cualquier flujo a-z, en una red N, el flujo que sale de la fuente a es
igual al flujo que ingresa (entra) al pozo z.
Demostracin: Suponga momentaneamente que N = (X, U, W) no contiene ningn
arco (a,z). (nota: el teorema es vlido tambien cuando existe un arco (a,z)).
Sea P = { X - a - z} y Pc = {a, z}
a
P
Flujo saliente de a =
uI+(a) (u)
u(P,P c)
(u) =
Flujo saliente de a =
uI-(z)
+
uI (a)
(u) =
(u) =
u(P c,P)
(u)
flujo entrante a z
uI (z)
(u) =
flujo entrante a z
LQQD
81
La condicin b) de flujo a-z determina que el nico flujo hacia P desde Pc={a,z} debe
ser desde a.
Cuantificacin de un flujo a-z : ||.
|| =
uI+(a)
(u)
uI+(a)
k(u)
|| es el valor del flujo a-z, y se define como la suma del flujo que sale de a,(
equivalente
a decir
que es
sumade
dellas
flujo
que entra ade
z). los
Entonces,
cota superior
De
la misma
manera,
la lasuma
capacidades
arcos una
incidentes
hacia el
de
||
es
la
suma
de
las
capacidades
de
los
arcos
incidentes
hacia
el
exterior
de
a.
interior de z es una cota superior del valor del flujo ||. Adems, || est acotado
tambin por la capacidad de cualquier corte a-z, es decir, por la suma de las
capacidades de cualquier conjunto de arcos que corta todo flujo de a a z.
En el ejemplo primero, el corte con P = {a,b,c ), es de capacidad k(P,Pc) = 13es,
por lo que ningn flujo a-z en la red puede valer ms de 13. (Nota: en este caso c' no
es vlida ya que a P.)
Teorema N.2: Para cualquier flujo a-z, , y cualquier corte a-z, (P,Pc), en una red
N,
|| k(P,Pc)
Demostracin:
Expandimos la red N agregndole un nodo a' con
Pc
P
Pc
fig. 4.3
A u' se le asigna el valor del flujo ||, (u) = || , entonces se transforma en un
flujo a'-z en la red expandida, la antigua fuente a ahora recibe su flujo de la super
fuente a'.
En esta nueva red, N', si se puede aplicar la condicin c') a P, ya que P no contiene la
fuente a'
|| = (u')
(u) =
(u)
c)
c)
k(u) = k(P,Pc)
u(P c,P)
u(P,P
(P,Pmenos
Adems por construccin
de N', el flujo
hacia
P es de valorual
|| que es el
(*)valor de (u'), otros flujos podran ingresar a P por arcos desde Pc.
|| k(P,Pc)
L.Q.Q.D.
Corolario N.2
Para cualquier flujo a-z, , y cualquier corte a-z, (P,Pc), en una red N,
|| = k(P,Pc) s.s.i
i) (u) = 0 , u (Pc,P)
ii) (u) = k(u), u (P,Pc).
En este caso decimos que es un flujo mximo y (P,Pc)
capacidad mnima.
es un corte a-z de
Demostracin:
|| = (u') u(P c,P) (u) = u(P,P c) (u) u(P,P c) k(u) = k(P,Pc)
Considere las inecuaciones
en (*) de la demostracin del Teorema N.2 y la red
expandida.
Directo
Si || = k(P,Pc) entonces se cumple la igualdad en la inecuacin (*) es decir, || =
i) es verdadera,
u(P c,P) (u)
(si fuese u(P c,P) (u) || , habran otros flujos positivos hacia P).
k(u) = k(P,Pc) lo que implica (u) = k(u)
Adems
u(P,P c) (u) u(P,P c)
c (u) k(P,Pc) contradice la hiptesis.
u(P,Pc), porque si no
u(P,P )
Recproco: vale el mismo argumento utilizado para demostrar el directo.
Por lo tanto la igualdad en (*) se cumple s s i i) y ii) se cumplen.
La ltima afirmacin del corolario, se deriva directamente del Teorema N.2
Cuando en || k(P,Pc) se cumple la igualdad, se obtiene el valor mximo de ||
==> es un flujo mximo,
y tambin cuando se cumple la igualdad, se obtiene el valor mnimo posible de la
capacidad del corte a-z en consideracin,
==> (P,Pc) es un corte a-z de capacidad mnima.
3,3
84
= + L1(u) + L2(u), u U
El flujo de la red sigue siendo un flujo a-z, siempre que (u) k(u), u caminos
en consideracin.
Si s es la menor holgura en un camino L, es entonces la holgura mnima del camino L
por lo que se puede sumar s L al flujo de la red.
s*L = L+L+L +L ...... (s veces).
= + s * L
Este mecanismo nos sugiere una manera de construir un flujo mximo: aumentando el
flujo de la red mediante la suma de unidades de flujo a-z equivalentes a la holgura
mnima de los caminos a-z que as lo permitan.
Volviendo al ejemplo, al comienzo el flujo de la red es (u) = 0 uU , luego
encontramos el camino L1 = a-b-d-z y le sumamos a flujo 3L1. Observar que L1
posee un nico arco saturado: (b,d), el de la holgura mnima. Luego aumentamos en
3L2, L2 = a-c-e-z . Continuamos con L3= a-b-e-z de holgura mnima 2, que se usa
para aumentar el flujo en 2L3 y L4 = a-c-d-z- de holgura mnima 1 el flujo aumenta
en L4. As se obtiene el flujo a-z
= 3L1 + 3L2 + 2L3 + L4
k(P,Pc) = 9 = ||
maximal (por corolario N.2)
y el corte
es mnimo,
el de
observar
al estar
saturado,
no se
Luego
de aumentar
el es
flujo
concapacidad
L4, todosmnima,
los caminos
que que
llevan
a Z tienen
holgura
puede enviar
que k(P,Pc)
unidadescon
desde
a. holgura mnima, no se puede
mnima
0 y enmas
la bsqueda
de caminos
alguna
seguir mas all que de a hasta c.
En este caso se tuvo la intuicin necesaria para encontrar los caminos que llevaron al
flujo
nolos
siempre
es un
tancorte
fcil.a-z; u (P,Pc), P = { a,c}, (u) = k(u).
Se
hanmximo.
saturadoPero
todos
arcos de
La siguiente figura muestra otro procedimiento de aumento a la red del ejemplo.
85
2
3,0
d
3
6,1
5,5
3
6,5
1,1
5,1
2
4
6,5
c
3,1
Se empieza con L1 = a-b-e-z saturando el arco (a,b), sumandole 5L1. Luego L2 = ac-d-z, saturando (c,d) y sumandole al flujo 1L2. Queda nada mas que un camino sin
saturar L3 = a-c-e-z holgura mnima 1, se sumando 1L3 al flujo total.
= + 5L1 + 1L2 + 1L3
No hay mas caminos de a a z con holgura mnima positiva ( >0 ), no es posible
aumentar mas el flujo. De a puedo llegar nada mas que hasta e pasando por c.
|| = 7 y k(P, Pc) = 12.
|| k(P, Pc)
Queda determinado un corte saturado (P, Pc), P = {a,c,e}. Luego observamos que
El mtodo de aumento puro, no siempre encuentra un flujo mximo!
Por el corolario N.2 un flujo es de valor mximo ssi
i) (u) = 0, u(Pc, P)
ii) (u) = k(u) u (P, Pc)
En este caso observamos que el arco u = (b,e) (Pc, P) y (u) = 5 0
Se ha cometido el error de haber aumentado de entrada todas unidades libres de L1,
(5). Por eso en L3 no se pudo mandar mas que 1 unidad de flujo de L3, y en L2 nada
mas que 1, (c,d) no lo permita. En realidad se debera haber reservado alguna unidad
de L1 para asignarsela a L3, (c,e) s lo permita.
Con L4 = a-b-d-z, se obtiene el flujo.
= 3L1 + L2+ 3L3 + 2L4
Este mtodo de reservar unidades de flujos es muy complicado y poco controlable ya
que igualmente no asegura encontrar el mximo. Existe una manera de ir corrigiendo
el aumento de los flujos y que evita caer en los errores mencionados.
2) D(q) es la holgura mnima entre todos los arcos de la cadena que van de a
a q. En un arco u de orientacin contraria al de la cadena, la holgura es la
cantidad de flujo que puedo quitar.
En caso de aplicar este algoritmo en una red con un flujo preasignado, controlar que
sea a-z.
Algoritmo de Flujo Mximo
Si no, elegir otro vrtice marcado para examinar (que no haya sido examinado
antes ) e ir al punto 2.
88
di = duracin de la tarea i,
ci = fecha de disponibilidad, o de comienzo mas temprana
fi = fecha en que debera estar terminada la tarea i ("deadline")
ti = fecha de comienzo de ejecucin de la tarea i,
Ti = fecha de fin de ejecucin.
Si la tarea i no es interrumpida, entonces: Ti = ti + di.
Una condicin necesaria para que un ordenamiento sea realizable es:
ci ti Ti fi, i I
En ciertos casos, p.ej. si hay un retardo tal que Ti fi, se podr considerar un costo wi
asociado a esa tarea i.
91
Min
(maxi
(ti
+ di))
sujeto a:
tj - ti aij
ti fi
96
3
7
4
6
5
3
2
latarea1precedealatarea3
lastareas1y2precedenala4
latarea3precedeala5
lastareas3y4precedenala6
latarea6precedeala7
97
6.3.3 Holguras
Los mrgenes u holguras tienen por funcin evaluar la demora o el retardo permitido
en una tarea, sin modificar "demasiado" los resultados. Definiremos el margen u
holgura total Mi, la holgura o margen libre mi, y el margen seguro ui.
Holgura total Mi de una tarea i es el tiempo que se puede retardar una tarea sin
afectar la fecha de fin de proyecto. Mi es entonces, la diferencia entre la fecha ms
tarda y la ms temprana:
Mi = fi-ri.
Holgura libre mi de una tarea i es el tiempo que se puede retardar esa tarea de forma
que las tareas sucesoras puedan empezar en la fecha ms temprana:
98
[definicin
de mde
i] Mi]
[definicin
[aritmtica]
[fj >= rj]
[definicin de mi]
99
[(i,j)U](Ki - ni*ti)
Ii di Si,
[(i,j) ]di del grafo conjuntivo.
Donde representa los caminos que van de la raiz al final, y es un parmetro que
representa la duracin total del proyecto.
100
7. PROCESOS ESTOCSTICOS
7.1 Introduccin
7.1.1 Experimentos, espacio muestral, evento.
Un experimento es un proceso (o un procedimiento) cuyo resultado se puede
observar, pero cuyo valor no podemos determinar anticipadamente con certeza.
Un evento es un conjunto de puntos muestrales, pudiendo ser cualquier
Cada resultado posible del experimento se llama punto muestral y se denomina wi.
Un espacio muestral es el conjunto de todos los resultados del experimento que a
subconjunto
del espacio
muestral, un punto, una coleccin de puntos o el espacio
priori se conocen
como posibles:
muestral completo.
= {wien
: elwconjunto
i es un resultado observable del experimento}.
Un evento A consiste
de aquellos puntos muestrales wj que representan
Un
espacio
muestral
define
de experimento.
resultados del experimento un
en modelo
los cuales
A ocurre.
Como describir la variacin esperada (cuando es numerable)?
1) Dado un espacio muestral discreto , se particiona en una familia de eventos
disjuntos (Ej) j0.
2) Se supone que a cada evento le corresponde un nmero llamado probabilidad del
evento Ej, denotada P(Ej), que es una medida de la posibilidad de ocurrencia del
evento Ej en el espacio muestral, P(Ej) 0, P(Ej) = 1, Ej.
La imposibilidad de ocurrencia de Ej se denota: P(Ej) = 0. En ese caso, si el espacio
muestral es finito, es posible eliminar Ej.
3) Se define un Algebra A sobre los eventos que conforman el espacio muestral.
As se obtiene la terna (, A, P) que define un modelo probabilstico de la porcin del
universo o sistema que se quiere estudiar.
Cuando no es numerable, es necesario definir una sigma-lgebra y una medida P
sobre los eventos de la misma.
El dominio de la funcin variable aleatoria son los eventos, por lo que a cada valor
posible de una variable aleatoria podemos asociar una medida de probabilidad,
definiendo as la distribucin de probabilidad de la variable.
P(X=xj) = p(xj) 0, j=1,2,3,... y j p(xj)=1.
Si X es una variable aleatoria discreta, y {xj, j=1,2,3,...} es el conjunto de los
es la distribucin de probabilidades de la v.a. X.
valores que puede tomar , entonces
Siempre que p(xj) satisfaga estas condiciones es lcito hablar de una v.a. que asume
los valores x1, x2,...xN con probabilidad p(x1), p(x2),.., sin hacer ms referencias al
espacio muestral original; se forma un nuevo espacio con los puntos muestrales x1,
x2,... xN.
Si Y es una v.a. continua (su recorrido es el conjunto de los Reales, R), la probabilidad
de que tome un valor fijo es en general nula, y existe una funcin fY(y) llamada
BR,de densidad
P(Y en
B) R,
quefYverifica
fY (y)dy
1
funcin
siguiente:
(y)dy, la
y propiedad
B
xa
a
f X (x)dx
xX
102
EX pxjj si
X EXdiscreta
X
VarX E
x j
x Ex2 fxdx
si X continua
Var( X ).
cualquiera.
Var(X) / EDefinimos
x.
Sea A un evento
la variable aleatoria "Indicatriz del evento A",
que notamos por IND(A), a una v.a. binaria, que toma valor 1 cuando el evento A se
produce, y valor 0 en otro caso. Por lo tanto:
P(IND(A)=1) = P(A)
P(IND(A)=(0) = 1-P(A)
Es fcil ver que:
E(A) = 1.P(A)+ 0.(1-P(A))=P(A)
y que
Var(IND(A)) = E(IND(A) 2) - E2(IND(A )= (12.P(A)+ 02.(1-P(A))) - P(A) 2
P(A) -P(A)Distribucin
2 = P(A)(1-P(A)).
Ejemplo de v.a. =
discreta:
de Poisson
N es una v.a. de distribucin Poisson y parmetro >0 si:
ke
k 0, 0
PN k pNk
k!
Se puede demostrar que
1)PN k 0
ke 1
2)
k!
3)E(N)=
Var(N)=
k0
Con frecuencia se supone que el nmero de llegadas de clientes a un negocio,
durante un intervalo de tiempo, o la demanda de un producto, se comportan segn una
distribucin Poisson. es el parmetro de la distribucin, correspondiendo a la
intensidad de llegadas por unidad de tiempo.
ahora,
se debe simplificar lo suficiente para que el modelo sea tratable
Aclaracin:
Modelando
es necesario
simplificaciones
la realidad,
matemticamente,
perosiempre
no demasiado
comorealizar
para que
el modelo yadeno
sea una
representacin del fenmeno real.
Ejemplo de v.a. continua:
Distribucin Exponencial
ex x 0
f X (x)
x0
P(X x)
E(X) 1
f X (t)dt
1ex
0
x0
x<0
Var(X) = 1
2
Se puede demostrar que si Xes
una v.a. esponencial, entonces
E(X) 1
1
Var(X) = 2
Generalmente se procura trabajar con v.a. que reflejen con la mayor simplicidad
posible las propiedades realmente esenciales de los resultados del experimento.
En muchos casos la observacin de un experimento aleatorio no viene expresada
por una sola cantidad observada, sino simultaneamente por una cierta cantidad de
variables aleatorias.
Definiciones
Se llama Distribucin Conjunta de dos v.a. X e Y discretas, definidas en un
xj ,xk
mismo espacio muestral (discreto), a la funcin
P(X = xj, Y = yk) = PXY (xj, xk)
simultneos que surgen de las
combinaciones de los pares de valores (xj, yk) que toman X e Y respectivamente.
que j,asigna
todos los por
eventos
(X=x
Y=yk) probabilidades
es el eventoa definido
el par de sucesos que satisfacen
simultaneamente las condiciones X = xj, e Y = yk.
Se dice que 2 variables son estocsticamente
P(AB)
7.1.3
Condicional
ParaProbabilidad
eventos: P(A| B)
P(B)
Para v.a. (caso particular del anterior):
P(Y yk|X x j ) P ( Y yk , X xk )
si P(B) 0
P( X xk ) 0
P( X xk )
Se deduce, extendindolo a ms de dos variables:
k ,
tenemos que PE
k
Si tenemos que Y es una variable aleatoria discreta, entonces los eventos Bk= (Y= yk)
son exhaustivos y mutuamente excluyentes, es decir conforman una particin de ,
por lo que E se puede expresar de la siguiente manera:
E PE,Y
E,Yyky2
E
y1 PE,Y
k1
...PE,Y
E|YyykkPY.....
yk
k1
Existe una propiedad anloga en el caso continuo, pero es necesario que la varianza
de Y sea finita: si Var(Y)<, entonces
PE
PEY yfYydy
Ejemplo 7.1.1:
Un cliente que entra a una tienda compra un sombrero con probabilidad p.
Si el nmero de clientes que ingresan por da sigue una distribucin Poisson de valor
esperado , Cul es la probabilidad de que no se venda ningn sombrero en un da?
PX 0
PX 0| N nPN n
n0
1 pn
en
n!
ee1p ep
n0
Esperanza Condicional
La esperanza condicional E(X|Y) es una nueva variable aleatoria definida en base a
dos variables X e Y, definida de la siguiente forma:
xP(X x|Y y) INDY y.
E(X |Y)
y
xP(X x|Y y)
xP(X x) E(X)
Ejemplo 7.1.2:
Sea p(x,y):
t)
lo que es equivalente a
y entonces
P(X st) P(X s)P(X t).
Esta ecuacin se satisface cuando X es exponencial ya que e (st ) e se t.
Tambin se demuestra que la distribucin exponencial es la nica distribucin
continua que verifica esa propiedad (as como la distribucin geomtrica es la nica
distribucin discreta que verifica esta propiedad).
106
Propiedad 2
Sea T1 y T2 variables aleatorias exponenciales independientes de tasa 1 y 2
respectivamente. Entonces T=min(T1,T2) es una v.a. exponencial de parmetro
(1+2).
Dem:
1 FTt P(T1 t,T2 t) (indep.T1 yT2 ) P(T1 t)P(T2 t) e1te2t e(12)t
por lo tanto T tiene la distribucin de una v.a. exponencial de parmetro (1+2).
Ejemplo 7.1.3
Considere el negocio de venta de sombreros.
Si T1 representa el tiempo entre la llegada de un cliente y el siguiente, y T2 el tiempo
de atencin al cliente, suponemos que ambos tiempos son exponenciales (no tienen
memoria). Se quiere estudiar el comportamiento conjunto de ambas distribuciones.
Observemos el tiempo T transcurrido hasta que uno de los eventos T1 y T2 ocurra.
Interesa entonces:
Ya que T1 y T2 son independientes
y s min(T
( T1 >t, T2 >t)
T = min(T
1, T21), T2) > t
Si dos v.a. exponenciales independientes ocurren simultneamente, en conjunto se
comportan segn una distribucin exponencial, con tasa igual a la suma de las tasas
Consideremos
t una de ellas.
individuales deT cada
P(T t) 1P(T t) 1P(min(T1,T2) t) 1P(T1 t,T2 t)
Propiedad 31P(T1 t)P(T2 t) 1e( )t
Clculo de la probabilidad de que una v.a. exponencial ocurra antes que otra.
Sean X1 y X2 v.a. exponenciales independientes, con respectivas esperanzas
1/1y1/2 .
Se desea calcular P(X1 > X2) [similar para P(X2>X1)]. Condicionando en X2
0
0
=
1-e-1x 2e2xdx 12 0e(12)dx
2
=11 2
1 2e( )dx 1
1
2 1
1 2
1 2
Ejemplo 7.1.4:
Suponga un sistema de colas (negocio de venta de sombreros) con un solo empleado .
El intervalo de tiempo que transcurre entre la llegada de un cliente y el siguiente se
describe con una v.a. exponencial X1, de esperanza 1/2 hora. El tiempo que le
P X
lleva al empleado atender a cada cliente se comporta segn otra v.a. exponencial,
X2, independiente de X1, de valor esperado 15 minutos.
Cul es la probabilidad de que un nuevo cliente llegue antes de que el servidor
termine de atender al cliente que est atendiendo? y viceversa?
X1 = tiempo entre llegadas sucesivas
X2 = tiempo de atencin al cliente
E(X1) = 1/1 = 0,5 horas; 1 = 2
E(X2) = 1/2 = 0,25 horas; 2 = 4
1
1
X(
)1
2
1 2
3
i2
PX2 C | X1 B1
Sabemos que las probabilidades de que se elija A B es de 1/2 para cada una:
Por ltimo:
PX1 A= PX1 B 0,5
PX 3 C | X 2 C,X1 B1
P(X 3 C | X 2 C,X1 A) 1/2
P(X 3 N | X 2 C,X1 A) 1/2
X 3 i| X 2calcular
N,X1 laA1
6, i 1,2,...6
EntoncesPpodemos
distribucin
conjunta de probabilidades para cada
evolucin del proceso. Dado un proceso estocstico de tiempo y espacio de estado
discretos, es posible representar mediante un rbol de profundidad k todas las
evoluciones posibles de k etapas.
1/2
A
X1
1/2
1/2
X2
1/2
X3
1/2
1/2
N
1/6
1
1/6
1
C
La raz del rbol corresponde al estado inicial del proceso estocstico. A cada
resultado posible de la n-sima etapa del proceso estocstico le corresponde un nodo
110
del nivel n+1 del rbol. Los arcos estn ponderados por las probabilidades
identificar de
todastransicin
las posiblesentre
evoluciones
proceso,
como cadenas
del rbol,
condicionales
estadosdel del
proceso.
La utilidad
de esta
calcular lagrfica
probabilidad
ocurrencia de cada posible evolucin del proceso,
representacin
consistedeen:
calcular las distribuciones de probabilidad de los caminos de las etapas
intermedias.
Pero cuando el espacio de estado contiene muchos estados, o el nmero de etapas es
grande, no es posible utilizar este rbol.
A cada
iEj estque
asociado
un conjunto
de probabilidades
transicin
pij0qu
son
losestado
estados
pueden
ser alcanzados
desde eldeestado
i y con
que
describen el comportamiento de la cadena en su prxima etapa, indicando cuales
probabilidad.
El conjunto de los pij, i,j E forman la matriz de transicin de la cadena, que
notaremos P. Los elementos de P son las pij ordenadas a partir de una numeracin
fija de los elementos de E (eventualmente
puede ser una matriz infinita):
r
0
j
p0r
p0 j
0 p00
0i, j r E
Pi
pi0
pij
pir
Una matriz cualquiera que verifica estas ecuaciones recibe el nombre de matriz
estocstica. Cuando adems la suma de las probabilidades de cada columna es 1 se
dice que P es bi-estocstica.
Ejemplo 7.3.1
Consideremos un sistema de comunicaciones que transmite los dgitos 0 y 1.
Cada dgito transmitido debe pasar por varios nodos (o centrales). Existe una
probabilidad p, 0 < p <1, de que el dgito enviado desde un nodo contine
incambiado cuando llega al nodo siguiente y sea reenviado, pero con probabilidad 1-p
surgen perturbaciones en la lnea que modifican el dgito.
Denominemos Xn al dgito enviado desde el nodo n, entonces Xn+1 es el dgito
recibido en el nodo siguiente y retrasmitido. Para cualquier n, Xn solamente puede
tomar los valores 0 o 1. Entonces el espacio de estado es E = {0, 1}
Esta cadena es homognea ya que las probabilidades de transicin no dependen de la
etapa en la que nos encontramos; para cualquier par de etapas n y n+1, la
probabilidad de que el proceso contine en el mismo estado cumple:
P(dgito transmitido por la central n = dgito recibido por la central n+1) = p, n
112
X1 e1, X 0 e0
PX n en | X n1 en1,
X1 e1, X 0 e0PX n1 en1 |
Consideremos una evolucin (X0=e0,X1=e1,X2=e2,X3=e3,...Xn=en) de la cadena X, que
en el grafo asociado corresponde a un
camino (e0,e1,e2,e3,...en). Recordemos que la
homogenea
PX1 e1 de
| X 0que
e0el
Pproceso
X 0 e0siga
esta evolucin
pen1en pen2ees:
n1
pe0e1 pe0
probabilidad
por C.M.
por def.prob.
Pc
pijn
cCni, j
Las ecuaciones de ChapmanKolmogorov nos dan una relacin recursiva entre las
probabilidades de transicin en varios pasos. La primer formulacin de estas
ecuaciones es la siguiente:
pijnm
E
Demostraremos a continuacin las ecuaciones de ChapmanKolmogorov:
def
pij nm PX nm
teo.prob.
PX nm j, X o i total
j | X o i
P X o i
def
def .prob.
kE
PX nm j, X n k, X o i condicional
PX o i
prop.de
PX nm j | X n k, X o iPX n k, X o i Markov
P X o i
kE
PX nm j | X n kPX n k, X o i
P X o i
simplif .
por def .
QED.
kE
kE
kE
expresin siguiente:
pijn1
pik npkj
kE
Esta
expresin
sugiere(i,j)
el uso
matrices
elemento
genrico
est de
dado
por para
aikbkjel .calculo de las probabilidades pijn.
Recordemos que si A es una matriz nxm de elemento genrico aij y B es una matriz
k1
mxq de elemento genrico bij, entonces AxB se define como la matriz nxq cuyo
Si A y B son estocsticas, AxB tambin es estocstica.
m
Entonces
equivalente
a pedir pijn 0 para algn n0, ya que
sin, pijn 0,entoncesPX pasa por j| X 0 i P
X n j | X 0 i PX n j | X 0 i 0
n1
X n
n1
j | X 0 i PX N j | X 0 i 0
n1
ji
Decimos
que dos estados i y j se comunican (notacin i
j) cuando son alcanzables
el uno desde el otro (o de forma equivalente cuando existen n,m0 tales que pijn 0 y
p m 0).
r,t 0| p jk 0, pkj 0
ecuacines de
por H.
n
Veamos
desde i. Aplicando las
pik r primero
pil nplk r que
pij knpes
jk r alcanzable
0
lE
ChapmanKolmogorov,
Comprobamos que todos sus estados se comunican, por lo tanto esta cadena es
irreductible (tiene una sola clase en el espacio de estado).
Si observamos el grafo asociado, vemos posee una sola componente fuertemente
conexa, por lo tanto es irreductible (tambin podemos llegar a esta conclusin a partir
del hecho que la matriz es tridiagonal, por lo que no se la puede triangularizar por
bloques).
1/4
1/2
1/2
1/3
0 1/2
1/2
2/3
2
Ejemplo 7.3.4
Sea la cadena de Markov de espacio de estado E= {0,1,2,3} y matriz de transicin P,
1
1
2
2
0 0
0 0
P
1
04
14
117
X n
mismo:i P
i| X o i.
recurrente si i = 1,
transitorio si i 1.
Defimimos Ri el nmero esperado de retornos al estado i (contando el pasaje inicial).
Entonces
y Ri AnE
etapa,
An | X0 i
esperanza
n0
EAn | X0 i
n0
Proposicin
El estado i es recurrente si
n0
PXn i | X0 i
piin .
n0
piin (diverge)
n0
piin (converge)
El estado i es transitorio si
Demostracin:
Supongamos que el proceson1comienza su evolucin en el estado i, X0=i. Si i es
recurrente, con probabilidad 1 el proceso eventualmente alcanzar el estado i por
segunda vez. Repitiendo el razonamiento, vemos que el proceso pasar por el estado i
una infinidad de veces, con probabilidad 1.
Si en cambio i es transitorio, cada vez que el estado i es alcanzado existe una
probabilidad de no volver jams igual a 1-i, por lo que tenemos que la probabilidad
de efectuar exactamente n pasajes por el estado i (contando como uno la estada
inicial) se puede expresar como:
PX paseexactamenten vecesalestadoi | X 0 iin11i,
probabilidad en la que reconocemos una distribucin geomtrica de esperanza finita
1/(1 i); entonces, el nmero esperado de retornos al estado i es Ri = 1 / (1 i) , que
es finito.
Por lo tanto, si logramos calcular la esperanza del nmero de retornos del proceso al
estado i, podemos saber si dicho estado es transitorio (esperanza finita) o recurrente
(nmero infinito de regresos).
Propiedad
En una C.M. finita homognea existe por lo menos un estado recurrente (no pueden
ser todos transitorios).
Para justificar esta propiedad por el absurdo, supongamos que todos los estados
{0,1,2,....,n} de una C.M.F.H. son transitorios. Tomemos una trayectoria cualquiera
de la cadena. Al ser el estado 0 transitorio, existir una etapa N0 luego de la cual el
estado 0 ser abandonado para siempre. Al ser el estado 1 transitorio, existir tambin
una etapa N1 luego de la cual el estado 1 tampoco ser visitado. Y as sucesivamente
con todos los n estados. Si tomamos ahora N = mx {N0, N1,....Nn}, N es un nmero
natural por ser el mximo de un nmero finito de naturales. Consideremos las etapas
siguientes a la N, por ejemplo la etapa N+1: por definicin del espacio de estado,
XN+1= i E={0,1,2,....,n}; pero por ser NNk,kE={0,1,2,....,n}, entonces XN+1 k,
kE={0,1,2,....,n}, es decir XN+1E={0,1,2,....,n}, y hemos llegado a un absurdo.
Por lo tanto no todos los estados de una C.M.F.H. son transitorios, lo que implica que
existe al menos un estado recurrente.
comunicacin
Corolario
1
i j
k,m 0, pijk 0 y p m ji 0
La recurrenciapor prop.
es una propiedad de clase: si un estado i es recurrente, e i
j,
entonces j esanterior
recurrente.
piin
i
recurrente
Demostracin
por def. las ecuaciones de ChapmanKolmogorov dos veces, tenemos
Aplicando
n jj 0, p
mnk
n1
jl
p mpljnk
lE
lE rE
Sumando
pijmnken
pii n
n tenemos
p jimpijk
0
n1
n1
ya queiesrecurrente por H
Entonces j es tambin recurrente.
Corolario 2
El corolario anterior implica que la transitoriedad tambin es una propiedad de
clase: si i transitorio, i
j, entonces j es transitorio.
Demostracin:
Si j fuese recurrente, como por hiptesis j
i, aplicando el corolario anterior
tendramos i recurrente, lo que es absurdo. Por lo tanto j es transitorio.
Corolario 3
El hecho de que la recurrencia es una propiedad de clase y adems que no todos los
estados de una C.M.F pueden ser transitorios, nos permite afirmar que todos los
estados de una C.M. finita irreductible son recurrentes.
Demostracin:
Por definicin, una cadena de Markov irreductible posee una sola clase de estados.
Por lo tanto, i j,i, j E
Aplicando la propiedad anterior, como la cadena es finita, existe al menos un estado
iE recurrente. Por el corolario 1, todos los estados que comunican con i son tambin
recurrentes, por lo tanto jE, j es recurrente.
Ejemplo
0 0
0
P 1 7.3.5
Sea la0 C.M.
de transicin es:
0 matriz
0
1 cuya
00 01 102
102
0 12 12 0
14 0
0 12
1/2
1/2
1/4
1/2
1/2
E3
1/2
E2
1/2
120
,n 1| X 0 i
Paraestados
un estado
i recurrente,
definimos
mii como
Los
recurrentes
se pueden
diferenciar
en:la esperanza del tiempo del primer
al estado
i:
1)retorno
recurrentes
positivos
2) recurrente nulos.
Un estado i es recurrente positivo, si partiendo de i, el tiempo esperado hasta que el
proceso retorne al estado i por vez primera es finito, es decir si mii. Es posible
demostrar que todos los estados recurrentes de una cadena de Markov finita son
recurrentes positivos.
Un estado es recurrente nulo si mii=. En este curso no trataremos este tipo de
estados ya que solo aparecen en cadenas de Markov de espacio de estado infinito.
Periodicidad
Una cadena es aperidica si todos sus estados lo son, y peridica en caso contrario.
Ejemplo
i
j
1/2
j
1/2 i
Esta cadena es aperidica, ya que el estado i tiene un lazo, por lo tanto d(i)=1, y como
existe una sola clase de estados, todos tendrn periodicidad 1.
Ergodicidad
Se define un estado ergdico como aquel que es recurrente positivo y aperidico.
Un conjunto K de estados es ergdico si todos los estados que lo componen son
ergdicos. Una cadena de Markov es ergdica cuando es irreductible y su espacio de
estado es un conjunto de estados ergdicos. Si una cadena de Markov es finita y
ergdica, diremos que es una cadena regular.
Vector distribucin de estados
El vector de distribucin de estados de la cadena en la etapa n, Q(n), es un vector fila
estocstico
igual,ra, E1) r,
quer
contiene
jnde sus
jn1 las
Qn 1n(estocstico=suma
2n
rnelementos
, E 1,2,
probabilidades para la n-sima etapa del estado de la cadena:
cadena
homognea
iE
homognea
iE
que
jn
in 1
PX nen notacin
j | X n1 matricial
iPX n1 nos
i da Qn Qpij
expresado
iE 0Pn .
iE
Podemos obtener el mismo resultado de la siguiente manera:
cadena
122
Si la distribucin inicial
Q(0)=(0,1), entonces Q(1)=(3/4,1/4), Q(2)=(9/16,7/16), Q(3)=(39/64,25/64)
Si Q(0)=(1,0), entonces Q(1)=(2/4,2/4), Q(2)=(10/16, 6/16), Q(3)=(38/64,26/64)
Si Q(0)=(1/2,1/2), entonces Q(1)=(5/8,3/8), Q(2)=(19/32, 13/32), ...
i 1 ser
iE
n
n
n valor de la
n Q0lmP
n n existe
y nes independiente del
Cuando lmQ
n
n
Pn
distribucin
inicialdeQ(0),
es la distribucin
lmite z,
defuera
la cadena.
puede estudiarse
formadecimos
genricaque
con tcnicas
de transformada
del alcance
de este curso.
Se puede demostrar
1) Que para una cadena de Markov ergdica, siempre existe la distribucin lmite, y
que adems coincide con la distribucin estacionaria que es nica en este caso.
2) Que para una cadena de Markov finita, irreductible y peridica, siempre existe una
nica distribucin estacionaria.
Para cadenas peridicas puede no existir una distribucin
0 1 lmite. Veamos el siguiente
Sea
la
cadena
de
matriz
de
transicin
P,
P
=
. En esta cadena, si el estado
ejemplo.
1 0
Ejemplo 7.3.8
inicial X0 del proceso es el estado 1, en todas las etapas pares la cadena pasar por el
estado 1, y en las etapas impares por el estado 2. Podemos ver que P2n1 0 1 y
1 0
P2n 1 0 para todo n0. Por lo tanto, no existe lim Pn, es decir que no tenemos
0 1
n
p33 1 p,
i, jE,xu:T E, s,tT
(propiedad de ausencia de memoria).
En esta seccin consideraremos solamente cadenas homogneas, es decir aquellas
cuyas probabilidades de transicin son independientes del instante de tiempo en el
que ocurren:
PXts j | Xt i pijs, i, jE, t,sT
Para las cadenas de Markov de tiempo continuo homogneas podemos dar otra
definicin equivalente a la anterior, basada en la propiedad de ausencia de memoria.
Diremos entonces que una cadena de Markov de tiempo continuo es un proceso
estocstico cuya evolucin respeta las reglas siguientes:
1. el tiempo de permanencia del proceso en el estado i es una variable aleatoria
independiente, de ley exponencial y parmetro vi (por lo tanto, su media es 1/vi),
para todo estado i de E. Notaremos TPi a la variable exponencial del tiempo de
2. Cuando
el proceso
abandona
el estado
i, la eleccin
de E. Estas
probabilidades
deben
satisfacer
pii 0 , del prximo
pij 1, estado
i E.j se realiza
de acuerdo a las probabilidades de transicin pij definidas
para todos los estados i,j
jE
Es posible entonces considerar que una cadena de Markov en tiempo continuo es un
proceso estocstico cuyas transiciones de un estado a otro se realizan de acuerdo a una
cadena de Markov discreta, pero donde el tiempo de permanencia en cada estado es
una v.a. exponencial en lugar de un valor constante.
pij i i j
como
matrizde
talMarkov
que qij de
tiempo continuo,
En
unalacadena
generador infinitesimal
Q
. Eldefinimos
generadorelinfinitesimal
de una cadena
i i j
de Markov en tiempo continuo cumple un papel similar al de la matriz de transicin
en tiempo discreto. En particular, la distribucin estacionaria de una CMTC X es
aquella que se obtiene de resolver el sistema lineal Q=0, con la restriccion adicional
i = 1 ; si la cadena es ergdica, la distribucin estacionaria coincide con la
distribucin lmite, que existe.
Grafo asociado a una C. M. de tiempo continuo homognea
Sea X={Xn,n0} una cadena de Markov de tiempo continuo de espacio de estado
E={1,2,...r}, |E|=r, y generador infinitesimal Q. Podemos asociar un grafo orientado
ponderado G=(E,U,W) a la cadena X de la forma siguiente:
Ejemplo 7.4.1
En un negocio de lustrar zapatos hay 2 sillas (silla 1 y silla 2). Un cliente que llega
se dirige primero a la silla 1, donde le limpian los zapatos y le ponen pomada.
Despus va a la silla 2 donde le lustran los zapatos. Estos dos servicios se consideran
variables aleatorias exponenciales independientes con parmetros respectivos 1 y 2.
Supongamos adems que los clientes entran segn una distribucin Poisson de tasa l
y que cualquier cliente entra solamente si las dos sillas estan desocupadas.
p
El grafo asociado
es:
01
p
p
20
12
2
Qt 1t 2t
jt
rt , E 1,2, ,r, E r, r jt1
Vector distribucin de estados
El vector de distribucin de estados de la cadena en el instante t, Q(t), es un vector fila
j1
estocstico (estocstico=suma de sus elementos igual a 1) que
contiene las
probabilidades en el instante t del estado de la cadena:
127
Distribucin estacionaria.
Si Q(t)= es una distribucin estacionaria, entonces, Q(s)=, st.
Todo vector que verifique las ecuaciones Q 0 y
s t
N s Nt
n!
Es decir que el proceso resultante de contar el nmero de eventos sucedidos en un
intervalo de tiempo t posee una distribucin de Poisson de tasa t.
129
3
t
2
T
0
t
T
1
Tenemos que
incrementos
independientes
etesds et esds
0
PNts Ns 0
PT2 t
esds1
crecimiento
homogneo
PNt 0 p0t et
et P T2 t|T1 s
130
Ejemplo 7.5.1
Supongamos que la inmigracin a un pas se realiza segn un proceso de Poisson, de
tasa = 1 inmigrante/da. Calculemos la probabilidad de que el tiempo transcurrido
entre el dcimo y el undcimo inmigrante exceda los dos das:
P{T11 > 2} = e-2 = e-2 0,133
Propiedad
1
0
0
n+1
3
n E = {0,1,2,.....}
n+1 y
a una cadena de Markov de tiempo continuo
con espacio de estado
transiciones hacia
en la que 1desde cualquier
estado n solamente
hay
los estados n+1
2
3
4
n+1
n+2
y n-1 (donde n corresponde al nmero de individuos en el sistema modelado).
La relacin entre las tasas de nacimiento y muerte del proceso con las tasas y
Elprobabilidades
grafo asociadodealtransicin
proceso dedenacimiento
y muerte
tiene la siguiente forma:
la cadena son
las siguientes:
1.
0=0; i > 0 i=i+ i tasa de transicin - suma de tasas de llegada y salida
probabilidades de transicin:
2.
p01 = 1
pi,i+1 = i/(i+ i) i > 0 - probabilidad de que ocurra una llegada antes
pi,i1 = i/(i+ i) i > 0 - probabilidad de que ocurra una partida antes.
k1k1
n0 ko
n0 ko
k1
134
Estado Ecuacin
dea balance
Aplicando el procedimiento,
llegamos
0
1
p1
p1 p
0
p2
p0
2 1
210
p3 2 3 p2 3 2 1 p0
2
...
... nn1...0
n
pn1
p
n1 pn n1 n... 1 0
n
...
n1n2...0
...
n n1... 1
p0 para n =
p0
1
1
n 1
n1n2...0
n n1... 1
1
1
n 1
n1n2...0
pn
n1n2...0
n n1... 1
p0
n n1... 1
El resultado anterior y los siguientes se obtienen suponiendo que las tasas permiten
alcanzar un estado estacionario. Esto siempre se cumple si n = 0 para algn valor de
n (es decir, cuando slo es posible un nmero finito de estados).
En el caso general, aplicando la propiedad vista para los procesos de nacimiento y
muerte, si la serie
converge, y la serie
diverge, la estabilidad
del sistema est garantizada, pues P0 est bien definido (y por ende, todas las dems
probabilidades en estado estacionario).
Sea s el nmero de servidores del sistema. El largo esperado de la fila est dado por la
esperanza de la cantidad de personas en la fila (ntese que decimos la cantidad de
personas en la fila y no en el sistema). Supongamos que el proceso se encuentra en el
estado n (es decir, hay n clientes en el sistema). Si n s, entonces todos los clientes
estn siendo atendidos y la fila tiene largo 0. Si n > s, habr n s clientes en la fila y s
clientes siendo atendidos (fuera de la fila).
n spn
En resumen, el largo esperado de la fila es:
ns
n1
ns1
Ecuaciones de Little
Las ecuaciones de Little expresan que para cualquier sistema o subsistema dado, en
estado estacionario el nmero medio de clientes dentro es igual a la tasa media de
entrada de clientes por el tiempo medio de permanencia en ese sistema o subsistema.
Casos particulares: el nmero medio de clientes en el sistema, el nmero medio de
clientes en la cola, el tiempo esperado de permanencia en el sistema y el tiempo
esperado de permanencia en la fila satisfacen las siguientes igualdades:
Donde es la tasa media de llegadas, que viene dada por
n ts
n pn .
atencin,
t f
Asimismo, si tat es el tiempo medio de
tenemos que n0
tat .
136
n
ts que
Utilizando las igualdades de Little, tenemos
Hemos obtenido ecuaciones para diversas medidas de inters (en estado estacionario)
sobre filas de espera con llegadas de Poisson y tiempos de servicio exponenciales sin
hacer suposiciones acerca de las tasas de llegada y de atencin. A continuacin
aplicaremos estos resultados genricos para establecer resultados en modelos
especficos.
A continuacin presentamos un estudio de algunos modelos simples de filas de espera
con llegadas de Poisson y tiempos de servicio exponenciales.
137
servidor
las siguientes
pn = pn+1 n>0.
Reescribiendo, tenemos
p
p
p2 p1
p3
p n 1
p0
3 n 1
p1
p0
pn
p0
n 0
pn
n 0
si <1
p0
p0
p0 1
n
1 menor
que
n
2
. 1
tiempo entre arribos sucesivos
1/
n 0
n 0
Tiempo medio
en el cantidades
sistema en trminos de las probabilidades
Derivamos
ahora de
los permanencia
valores de algunas
estacionarias.
ts n 1
de clientes en el sistema1
Nmero esperado
Tiempo medio de espera en la fila
1
t f t s Etiempodeservicio t s
nxn1
x 1.
1 x2
n 0
139
Ejemplo 7.7.1
a) Supongamos que los clientes llegan segn un Proceso Poisson a razn de 1 cada
12 minutos y que el tiempo de atencin o servicio
n 2 es exponencial de tasa un servicio
cada 8 minutos. Calculando, tenemos que
t s 24
b) Aumentamos la tasa de arribos en un 20%. Al calcular, llegamos a
n4
t s 40
n n
si n s
n s
si n s
i.
140
(s-1)
s+1
...
...
n+1
Condicin de estabilidad
Empleando las condiciones de estabilidad precedentes, podemos deducir que un
sistema de este tipo alcanzar un estado estacionario si se cumple la siguiente
condicin: s
Distribucin estacionaria
En ese caso, la distribucin de probabilidades en estado estacionario de cada estado
(que se obtiene aplicando
las ecuaciones genricas de la seccin anterior) estn dadas
s1
n
/ s
P
0
1
1
por:
s! 1 /s
n!
n0
P n / n P 0
si 0 n s
n!
/ n P
si s n
P n s!sns
nsP n
ns
cambio de variable j = n s
jPjs
j0
j/ js P 0
s!s j
/ s P 0
s! s
j0
/ s
s!
j1
j s
j0
s P 0
1
1 2
j j1
sabiendo que
cuando 1
j0
1
141
P 0 / s /s
2
s! 1
reordenando trminos
n ts t f
t f 1 t f
n+2 n+1)
n 1
...
n+1
Es decir,
si n < M
si n M
para todo n > 0
n (M n)
n 0
n
Condicin de estabilidad
M!genricas,
hallamos la distribucin estacionaria del sistema:
Aplicando
P 0las
1ecuaciones
M
(M n)!
n
n0
P0
P n M!
(M n)!
Pn 0
para n = 1, 2, ..., M 1
para n M
nP
(n1)P n
M n1 n
M
n1
Pn
nP n n1
1 P 0
n1
1 P 0
Realizando diversas operaciones
143
n0
Cantidad esperada
de servidores ocupados
aplicando la definicin
nPn
n0M (M n)Pn
M
n0
MPn
n0
nPn
n0 M
y Pn = 0 en otro caso
separando trminos
Pn
nP n
n0
n0
s-1
...
(s-1)
s+1
...
s
M
s
144
Es decir,
si n < M
si n M
para todo 0 < n < s
ns
n (M n)
n 0
n n
n s
Condicin de
estabilidad
Al igual que para el caso con un solo servidor con fuente de entrada limitada, el
sistema siempre alcanzar un estado estacionario, pues el nmero de estados
alcanzables es finito.
Distribucin estacionaria
n
n0 (M n)!n!
ns (M n)!s!s
n
P0
para 0 n s
P n M!
(mn)!n!
s1
Pn
M!
ns
(mn)!s!s
Pn 0
P0
para s n M
n>M
Los clculos de las cantidades de inters se realizan de manera similar a los casos
anteriores.
8. SIMULACIN
8.1 Introduccin
La palabra simulacin es un trmino genrico que describe muy diferentes tipos de
actividades incluyendo: roles que se juegan en la vida social o en experimentos
sicolgicos, juegos de videos complejos, modelos a escala creados por ingenieros que
describen la conducta de puentes o aeropuertos, etc.
Para un computlogo, estadstico, cientfico o gerente, se refiere a la construccin de
un modelo abstracto que representa algn sistema de la vida real, con la subsiguiente
descripcin a travs del tiempo de los pertinentes al sistema como una serie de
ecuaciones y relaciones, generalmente a travs de un programa de computadora.
Definimos como simulacin de sistemas a la exploracin de mundos posibles y al
estudio del desarrollo en el tiempo de esos mundos.
Recordemos que:
Sistema: es una porcin del universo respecto de un observador o colaborador
definido (interior o exterior al mismo), compuesta por un conjunto de elementos y
relaciones entre los mismos.
Al estudiar un sistema, como observadores, podemos apreciar que hay determinados
objetos distintos, llamados entidades. Tambin observamos interacciones entre ellos
(que llamamos actividades), las cuales producen cambios en el sistema.
Pero para estudiar realmente un sistema se debe poder experimentar con l y ocurre
que no se podr experimentar con el sistema real siempre que:
a) el sistema an no exista (Ej: al planificar alguna facilidad en la produccin- ej.
redes en creacin -, o planificar el abastecimiento de materia prima para un
producto nuevo).
b) la experimentacin con el sistema sea muy cara (ej: el modelo permitir
determinar si es cuerdo asignar cierta cantidad de dinero en un nuevo equipo).
c) la experimentacin con el sistema sea inapropiada (ej: planificacin de las
146
actuaciones ante catstrofes por parte de hospitales, policas y servicio de
ambulancias).
8.2 Modelos
Un modelo es el cuerpo de informacin relativa a un sistema recabado con el fin de
estudiarlo, un modelo no es slo un sustituto del sistema, es tambin su
simplificacin.
Adems no existe un modelo nico de un sistema, ya que cada objeto de estudio
establecido determinar la naturaleza de la informacin a reunir.
Existe una gran diversidad en la manera de clasificar los tipos de modelos en el
estudio de sistemas.
A veces la clasificacin se realiza segn la naturaleza del sistema a estudiar, a saber:
1) continuo vs. discreto
2) determinstico
vs. aleatorio.
fsico
matemtico
Consideremos
una primera
divisin en modelos
fsicos y matemticos:
esttico
dinmico
esttico
dinmico
numrico
Modelo
analtico
numrico
un modelo no es
Simulacin
necesariamente una descripcin matemtica del sistema, existen por ejemplo:de
modelos
Sistemas
a escala que se utilizan en los tneles de viento, tanques de agua para estudiar el
diseo de naves acuticas, modelos a escala de cursos de ros, de puertos (ej: Puerto
de la Paloma, estudiado por el IMFIA), diversos tipos de modelos.
La tercera distincin (nivel) se realiza segn la tcnica empleada para resolver el
modelo.
En un modelo matemtico, las entidades de un sistema y sus atributos se representan
mediante variables y las actividades mediante funciones que interrelacionan las
variables (ej. restricciones).
Un modelo esttico despliega las relaciones entre los atributos del sistema cuando est
en equilibrio, sin mostrar la manera en que cambian los valores de los atributos (no
existen actividades).
Un modelo matemtico dinmico permite deducir los cambios de los atributos del
sistema en funcin del tiempo y dependiendo de la complejidad del modelo, la
deduccin puede hacerse con una solucin analtica o por clculo numrico (ej: el
comportamiento de la llanta de un auto en movimiento se modela con ecuaciones
diferenciales de 2 orden).
Los modelos matemticos dinmicos que se pueden resolver analticamente y que dan
resultados prcticos aplicables no son del todo comunes. Lo ms frecuente es que esos
problemas deban resolverse mediante mtodos numricos y la simulacin es uno de
esos mtodos.
Un ejemplo de modelo matemtico dinmico es el que describe las condiciones bajo
las cuales vibra la estructura de una aeronave, modelo que se puede plantear pero no
resolver analticamente. La cuestin de si habr o no vibraciones se puede determinar
numricamente calculando las races de determinadas ecuaciones asociadas. En este
caso los clculos numricos no constituyen simulacin, ya que el clculo no sigue el
movimiento de la estructura de la aeronave en el tiempo, es sencillamente un
procedimiento para determinar las races de una ecuacin, es un mtodo numrico
puro.
Se tratar de simulacin si los clculos tienen en cuenta los cambios producidos en el
tiempo, es decir si describimos a travs de algn mecanismo la distintas variaciones
producidas en determinado intervalo de tiempo.
Luego podr establecerse un plan de trabajo que permitir controlar el desarrollo del
trabajo, impidiendo que ele estudio se desbalancee concentrndose en algn aspecto
del problema a costa de otro.
Un fracaso comn en los estudios de simulacin es concentrarse demasiado en estas
fases y extraer ms datos de los necesarios o de los que pueden validarse con los datos
disponibles.
En el tercer paso para construir un modelo, debemos
a) establecer la estructura del modelo, decidiendo cuales son los aspectos
significativos del problema en el comportamiento del sistema.
b) reunir los datos necesarios que proporcionen parmetros correctos para el
modelo
El cuarto paso, la construccin de un programa, es una tarea relativamente bien
definida y no necesariamente fcil. El modelo establecer las especificaciones de lo
que se debe programar.
En algunas ocasiones, las etapas 3 y 4 pueden realizarse en paralelo.
Se puede contar con lenguajes especficos de simulacin que brindan al usuario no
solamente el lenguaje en s, sino tambin un conjunto de conceptos de modelado que
se utilizan para describir el sistema, con herramientas de especificacin del mismo,
facilitando la conversin del modelo a programa de computadora, e incluso en
algunos casos liberando al usuario de mucho detalle de programacin, brindando
facilidades de generacin de cdigo a travs de esqueletos estndar.
Simulacin Continua: 1130/CSMP, 360 CSMP y DYNAMO.
Simulacin a Eventos Discretos: GPSS, SIMSCRIPT, SDL/SIM.
Para ambos: SIMULA, lenguaje nrdico orientado a objetos, que a pesar de su edad,
continua siendo el ms elegante creado para simular, que engloba varios conceptos de
sistemas y modelado, entidad, atributos, actitudes...
Por supuesto que se puede programar simuladores en C++, ADA, PROLOG,
MODULA, FORTRAN , PASCAL, etc.
El quinto paso: validacin del modelo, requiere una gran cuota de juicio y criterio
comn, ya que las hiptesis hechas al establecer el modelo deben comprobarse
observando si el modelo se comporta como se esper.
En realidad se debera validar el modelo matemtico antes de iniciar la programacin,
pero generalmente la razn de la simulacin es que el modelo no es manejable,
entonces por regla general la validacin se desarrolla examinando la versin
programada del modelo (a la vez que se pueden observar errores de programacin).
El sexto paso es el diseo de un conjunto de experimentos de acuerdo a las objetivos
del estudio. Una falla comn es la obtencin de una masa abrumadora de resultados
150
que se recaban sin plan determinado. Se debe tener en cuenta tambin el significado
Por
ltimodeellos
sptimo
pasoante
es ejecutar
las de eventos
corridasaleatorios
planificadas
estudiar o
estadstico
resultados
la presencia
en la ysimulacin.
interpretar los resultados.
Si el estudio ha sido bien planificado se habr planteado un conjunto bien definido de
preguntas y el anlisis tratar de responderlas. Por supuesto, estas etapas no son del
todo secuenciales sino que muchas veces debe volverse atrs y afinar incluso los
objetivos e hiptesis planteadas.
Si no
<Quitar el tiempo
primerodedeespera:
la cola>
<Calcular
Reloj-barco.t(lleg)>
<Sortear tiempo de ocupacin del muelle>
<Ocupar el muelle libre>
<Colocar el barco llegado como ltimo en la cola>
Fin si
<Sortear T(prx. lleg)>
Reloj := Reloj + T(prx. lleg)
Fin mientras
<Procesar los resultados (estadsticos) de la corrida>
Fin
152
153
+1
CONTADOR
0
Cuenta
nro. aleatorio
Como la mquina hace ms de 1 milln de operaciones por segundo existe una gran
disparidad entre el toque de tecla por intermedio del operador el programa y la
velocidad con que se ejecuta el loop, por lo que no se podr gobernar el ritmo, ya que
si as fuera el operador podra "manejar" los resultados.
156
nPs
con
k-1 grados de
Se desprende que el n debe ser grande para que el test sea vlido y adems se debe
cumplir que nPs > 5 para todo s.
Para aplicar el mtodo se calcula el valor de V y se analiza el mismo utilizando la
tabla de (ver por ejemplo el Apndice 5 del Hillier-Lieberman).
Dado un nivel de significacin (por ejemplo 0,05 o 95 %) nos fijamos en la tabla el
valor correspondiente a ese nivel y a los k-1 grados de libertad. Si V es mayor que el
valor crtico fijado en la tabla se rechaza la hiptesis de que la V.A. tenga la
distribucin en cuestin y sino se acepta.
Para probar que los nmeros estn uniformemente distribuidos planteamos la
hiptesis de que tienen distribucin uniforme, por lo tanto dividimos el intervalo en K
categoras con la probabilidad de caer en cada una igual a 1/K.
Ejemplo: tomo 10 categoras, 95 % de significacin, me fijo en la tabla de y el
valor crtico es 16,9.
Calculo V, con los Yi obtenidos contando los 1000 Xi generados con el programa ( n
= 1000 ) y con Ps = 1/10 para todo s.
Si para un caso concreto V result ser 3,76 ( o sea menor que 16,9 ) se dice que "se
pasa" la prueba y se puede concluir que el programa genera nmeros aleatorios
uniformemente distribuidos.
Test Serial
Este test sirve para probar
seria de la secuencia
de nmeros observados.
n1
1 la correlacin
2
Se agrupa la muestra en pares de valores los cuales deben estar distribuidos
uniformemente y en forma independiente. La muestra es de 2n valores.
Cada pareja tiene probabilidad P(X2j, X2j+1 ) = 1/K, y tendremos K categoras (que
son la cantidad de combinaciones posibles de las parejas de valores ).
Se aplicalas
el test
de con
grados
Considero
n parejas
X2jK-1
, X2j+1
con de
0jlibertad
n: con el mismo criterio que definimos
anteriormente.
X 0 , X 1 X 2 , X 3
X 2n2, X 2n1
Consideramos la v.a X, cuyos valores posibles son x1, x2,,...,xn con probabilidad
0
p1
p1+p2
p1+p2 +p3
...
1-pn
1 y
de tal modo que al intervalo i le corresponden aquellos valores xi que cumplen:
i1
p j xi
p ji
j1
j1
entonces cada vez que realicemos un experimento para sortear X, tomamos un valor u
de distribucin U(0,1) y construimos el punto y=u. Si este punto aparece en el
intervalo correspondiente al nmero i aceptamos que X=xi en este sorteo.
La validez de este mtodo se debe a que al estar u uniformemente distribuida en [0,1]
la probabilidad de que u pertenezca a uno de los intervalos es igual a la longitud del
mismo.
P0 u p1 p1
Pp1 u p1 p2 p2
0
P1 pn1 u 1 pn
rojo
azul
blanco
Ejemplo: Una V.A. X puede tomar los valores : rojo con prob. 1/6, azul con prob. 1/3
y blanco con prob. 1/2.
0 Armo
1/6 el esquema:
1/2
1
Sorteo u =
0,1212
blanco
X = rojo
0,9432
0,6111
blanco
blanco
158
0,4343
azul
x
8.7.2 Generacin de variables aleatorias continuas
vemos
que PX xInversa
P FX 1U x PU FXx FXx, es decir
ElCalculando,
Mtodo de la
Transformacin
que la v.a. X generada de esta manera posee la distribucin deseada.
Se utiliza para generar v.a. continuas.
En resumen el mtodo consiste en igualar la funcin de distribucin a una V.A. U
uniforme (0,1) y poder despejar X en funcin de U, como ya sabemos como generar
U V.A.
FXxU(0,1),
X teniendo
FX 1Ulas mismas generamos las X deseadas.
las
El problema se reduce a encontrar una expresin analtica de la funcin inversa a la de
distribucin. Esto no necesariamente es una tarea sencilla, aunque siempre existe
solucin dado que la derivada de FX es fX , que es siempre 0 y montona creciente.
Otro problema con el enfoque es el hecho de que aun cuando se encuentre la
expresin analtica de la inversa de la distribucin, su clculo puede insumir
demasiados recursos.
Interpretacin Geomtrica :
FX(x)
u
1
a
x (1/a)lnu
Tomamos u 1eax
eax 1u
ax ln1u
ya que tomar la V.A. 1-u es lo mismo que u ( porque u es U(0,1)).
Entonces x (1/ a)lnu es una v.a. exponencial de parmetro
U(0,1) que se genera con uno de los mtodos vistos en la seccin 2.
a con u
1
2
ex
v.a..
/2
x1 v1
Si no tomo
x v
2
2lns / 2
, que son v.a. N(0,1).
2lns / 2
160
El mtodo genera 2 v.a. por vez y se llama Polar porque es equivalente a hacer:
Generar R U(0,1) , U(0,2) y tomar
x1
2Rln R2 cos
eya
/ 2
, tomando y x a es N(a,).
2
Teniendo unaenv.a.
que sea N(0,1)
pasa directamente
a una para
Y que
es N(a,)
Resumiendo,
una X
simulacin
se tomansemuestras
de distribuciones
proveer
a
las actividades de tiempos reales, y establecer criterios realistas de decisin.
Puede usarse muchas distribuciones diferentes; muchas veces es necesario hacer
hiptesis sobre a qu distribucin corresponden los eventos que se estudian, esto debe
ser realizado con especial cuidado, basando la eleccin de las distribuciones y los
valores de sus parmetros en informacin recogida o brindada por las personas que
trabajan con el sistema real a simular.
y hacemos que alguien con los ojos vendados tire dardos a la tabla.
Los dardos van a perforar la tabla en N puntos aleatorios. Cmo podemos estimar el
rea del cuadrado S a partir de esos puntos?
Nos fijamos cuntos puntos estn dentro de S (sean N'); supongamos que N'=5, siendo
N=40. Entonces la estimacin del rea de S est dada por N'/N=5/40=1/8=0,125,
siendo el valor exacto en este dibujo 0,3*0,3=0,09.
Ntese que el rea buscada cumple la relacin N'/N (independiente de la forma del
rea incgnita) y que cuanto mayor sea N ms nos vamos a acercar a la relacin S/1.
Para que este mtodo de calcular el rea tenga validez, los puntos aleatorios deben
estar distribuidos en forma uniforme en la superficie total, y deben ser obtenidos en
forma independiente.
Clculo de
Veremos, a modo de ejemplo, como calcular una aproximacin del valor , mediante
el mtodo MonteCarlo (este problema tiene soluciones eficientes en forma analtica o
numrica).
1) Tomamos un crculo de radio 1 centrado en el origen, sabemos que el rea del
cuarto de crculo inscrito en el ortante positivo es /4.
2) Sorteamos puntos en el ortante positivo de lado 1 y lo hacemos obteniendo dos
valores, uno para x (abscisa) y otro para y (ordenada) cada vez, obteniendo un
punto (x,y).
3) Contamos cuantos puntos de los sorteados caen dentro del rea del cuarto de
Sea X una v.a. con esperanza E(X) = m y varianza Var(X) = . Tomo una
crculode(In)
y cuntos
fuera (Out), sabiendo
quedistribucin
si x2+y2>1 el
punto est
sucesin
n v.a.
Xi independientes
y con igual
, siendo
E(Xifuera,
) = m yy si
Var(X
i) = .
no dentro.
4) El valor estimado del rea que queremos hallar es In/(In+Out), y ese valor ser
Poraproximadamente
el teorema CentraleldeldeLmite
la v.a.
= X1 +ser
X2 +aproximadamente
X3 + .... + Xn se aproxima
/4, por
lo Zque
igual a (y
4*es
asintticamente igual) a una v.a. con distribucin normal N(nm, n).
In/(In+Out) (en este caso, N=In+Out).
Esta forma de calcular es relativamente lenta y poco precisa, pero muestra la forma
163
de utilizar MonteCarlo, que en el caso de otras constantes es el nico mtodo
disponible.
Aplicando la "regla de las 3", tenemos que para una v.a. Y de distribucin N(a, ):
a3
siendo
fY(t)
la
funcin
de densidad
de
la
v.a.
Y,
por
lo
que
Pa 3 Y a 3 0,997.
a3
N Z /N m 3 / N 0,997
P3 / N Z / N m 3 / N 0,997
PZ / N m 3 / N 0,997
X / N m 3 / N 0,997
P
P m 3 /
sabiendo que con probabilidad muy cercana a 1, el error de este promedio est
acotado por la cifra 3/N. Esto sugiere que para que el mtodo tenga un buen
resultado N debe ser grande y pequea, por lo que es importante saber cual es el
valor de la varianza obtenida, con ello sabemos cul es la dispersin de las muestras
obtenidas.
X j 1
La varianza 2 se estimaVar(X)
con elsiguiente
clculo:
1
N
N 1 j1
N
Xj
j1
Se debe tener especial cuidado en que todas las N corridas sean independientes entre
s, para asegurar que los valores Xi son muestras de v.a. independientes y que por lo
tanto estamos dentro de las hiptesis del teorema central del lmite.
Esta independencia se asegura utilizando distintas semillas en el sorteo de las v.a. Xi ,
de acuerdo a lo visto en las secciones anteriores.
164