Sei sulla pagina 1di 27

European Journal of Operational Research 112 (1999) 54 ± 80

Teoría y Metodología

Formular y resolver problemas de planificación de la producción

Larry J. LeBlanc una,*, Avraham Shtub segundo, G. Anandalingam do


una Owen Graduate School of Management de la Universidad de Vanderbilt, Nashville, TN 37203-2404, EE.UU.
segundo Departamento de Ingeniería Industrial, Facultad de Ingeniería de la Universidad de Tel Aviv, Ramat Aviv 69978, Israel
do Departamento de Ingeniería de Sistemas, Universidad de Pensilvania, Filadelfia, PA 19104-6315, EE.UU.

Recibido el 1 de octubre de 1995; aceptados 1 de septiembre de de 1997

Resumen

problemas de planificación de la producción con frecuencia implican la asignación de puestos de trabajo u operaciones a las máquinas. El modelo más simple de este
problema es el bien conocido problema de asignación (AP). Sin embargo, debido a las suposiciones de simplificación este modelo no proporciona soluciones aplicables
para muchos problemas reales de planificación de la producción. Extensiones del modelo de asignación simple conocido como el problema generalizado de asignación
(GAP) y el multi-recursos problema de asignación generalizada (MRGAP) se han desarrollado para superar esta di ?? cultad. Este artículo presenta una extensión de la
(MRGAP) para permitir la división de lotes individuales a través de múltiples máquinas, teniendo en cuenta la dirección ?? ect de los tiempos de preparación y costes de
instalación. La extensión es importante para muchos problemas de planificación de producción real, incluyendo los de la industria de moldeo por inyección y en la industria
de corte de metal. Formulamos modelos que son extensiones lógicas de los modelos anteriores que, al ignorar la división por lotes para el problema al que nos dirigimos. A
continuación, damos di ?? formulaciones Erent y sugerimos adaptaciones de un algoritmo genético (GA) y de recocido simulado (SA). Una evaluación sistemática de estos
algoritmos, así como un enfoque de relajación de Lagrange (LR), se presenta. Ó 1999 Elsevier Science BV Todos los derechos reservados.

palabras clave: Producción; El recocido simulado; Algoritmos genéticos; la relajación de Lagrange

1. Introducción y el coste total se reduce al mínimo (Hillier y Lieberman, 1980). Una


extensión de este problema conocido como el problema de
los problema de asignación ( AP) es un modelo de investigación asignación generalizada
de operaciones clásico. Dado un conjunto de tareas que se asignará a (GAP) permite la asignación de tareas múltiples para cada agente
un grupo de agentes y el coste de llevar a cabo cada tarea por cada sujeto a la disponibilidad de un único tipo de recurso que se
agente, el modelo asigna tareas a los agentes de manera que cada consume por los agentes al realizar estas tareas (Ross y Soland,
tarea se asigna a un agente, cada agente realiza una tarea 1975). El modelo de asignación también se ha ampliado para el
caso en que los agentes consumen múltiples tipos de recursos al
realizar sus tareas, y la disponibilidad de cada tipo de recurso es
limitado (Pirkul, 1986; Gavish y Pirkul, 1991). Este problema es
*
Autor correspondiente. Fax: + 1-615 343 7177; e-mail:
larry.leblanc@owen.vanderbilt.edu

0377-2217 / 99 / $ ± ver los preliminares Ó 1999 Elsevier Science BV Todos los derechos reservados.

PII S 0 3 7 7 - 2 2 1 7 (9 7) 0 0 3 9 4 - 9
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80 55

conocido como el múltiples recursos problema de asignación generalizada ( MRGAP).técnicas de búsqueda en que las soluciones posteriores se aceptan
con una cierta probabilidad, incluso si son peores que las
Las extensiones anteriores se supone que cada agente se le puede anteriores. Esto se ha demostrado empíricamente para reducir la
asignar múltiples tareas, pero que cada tarea se le asigna a un solo posibilidad de terminar con un óptimo local. En GA, soluciones
agente. Sin embargo, en muchas industrias en las que la producción posteriores se generan usando conceptos de la biología de la
está previsto en lotes y cada lote se considera una tarea, la división por genética, es decir, mutación y de cruce. El uso de poblaciones de
lotes es común, es decir, una tarea a menudo se asigna a dos o más soluciones en cada iteración, a diferencia de las soluciones
agentes. Este es un enfoque de planificación de producción común en el individuales, GA ayuda a examinar el espacio de la población, y por
corte de metales y en las industrias de moldeo por inyección de plástico. lo tanto evitar las trampas óptimos locales. Ambos métodos tienen
La decisión de si se debe dividir una tarea depende en gran medida del una razonablemente buena posibilidad de obtener soluciones
tiempo de instalación y el coste de asignar la tarea a cada agente. En óptimas globales.
un entorno justo a tiempo (JIT), donde el tiempo de instalación y el coste
son pequeñas, tarea o división por lotes pueden ser muy rentable e ??
caz. Hay una extensa literatura sobre el uso de ambos SA y GA
para resolver problemas de optimización. El libro de Aarts y Korst
(1989) tiene dos capítulos sobre el uso de SA para la optimización
En las siguientes secciones extendemos MRGAP a un nuevo combinatoria. Goldberg (1989) también tiene un capítulo sobre la
problema ± al MRGAP con configuraciones (MRGAPS). aplicación de GA a problemas de optimización. Johnson et al.
Presentamos extensiones lógicas de los modelos anteriores que, al (1989) proporciona un análisis exhaustivo empírica de SA con
ignorar la división por lotes para el problema que nos dirigimos. A particular referencia a la optimización combinatoria. Ellos
continuación, dar formulaciones di ?? Erent con menos proporcionan algunas pautas sobre la base de sus propios cálculos
restricciones, pero variables adicionales. En las Secciones 4 ± 7, se sobre la mejor manera de adaptarse SA a problemas particulares.
discute acerca solución a este problema. Se presenta una Para grafos aleatorios dispersos, el método SA de Johnson et al.
evaluación sistemática de las técnicas basadas en la relajación de (1989) funciona mejor que el conocido algoritmo de Kernighan ±
Lagrange (LR), un algoritmo genético (GA), y el recocido simulado Lin. Friesz et al. (1993) adaptado SA para resolver un problema de
(SA). Todos estos algoritmos heurísticos son en el sentido literal, diseño de red de transporte con restricciones de desigualdad
porque ninguno de ellos puede garantizar una solución óptima. variacional, y obtiene la mejor solución conocida a la conocida red
Nuestra aplicación tanto de SA y GA utiliza un enfoque pena para arco Sioux Falls 76.
permitir la inviabilidad en las interacciones intermedias; nuestra
función de penalización implica las mismas restricciones que se
relajaban en nuestro algoritmo LR. También damos a formulaciones
más susceptibles a `` crossover '' en nuestra adaptación del GA.
experiencia computacional se presenta en la Sección 8, y da
cuenta de nuestras conclusiones en la Sección 9.

Ha habido algo de éxito en la aplicación de SA a problemas de


fabricación. Algunos ejemplos recientes incluyen los siguientes: Smith
et al. (1996) utilizaron SA para resolver un problema de secuenciación
en la fabricación de automóviles. Ben-Daya y Al-Fawzan (1996)
utilizaron SA para resolver un problema sola máquina significa la
2. Literatura relacionada tardanza programación. Zegordi et al. (1995), combinado con el
conocimiento SA secuenciación para minimizar makespan para la
SA y GA se basan en el paradigma de búsqueda heurística tienda de OW programación. Schmidt y Jackman (1995) evaluaron la
(Pearl, 1984) de la informática. En ambas de estas técnicas, en secuenciación conjunto usando SA. Gangadharan y Chandrasekharan
cada iteración soluciones posteriores son producidos por métodos (1994) usan una heurística SA para analizar un problema bi-criterios
pseudo-aleatorios. SA, que se basa en la dinámica estadísticos, en la programación ¯owshop. SA también ha sido
ERS di ?? de las operaciones tradicionales de re-
56 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

utilizado en una serie de otras aplicaciones, incluyendo la 3. Modelos para la asignación de tareas a los agentes con múltiples recursos
programación de los horarios escolares (Abramson, 1991), la
asignación de espacio de memoria del ordenador (Romero y
Sánchez-Flores, 1990), y el AP cuadrática (Connolly, 1990; Wilhelm Para formular la (MRGAP), se utiliza la siguiente notación:
y Ward, 1987).
El gas también se han utilizado en problemas de fabricación.
yo conjunto de índices de tareas (lotes) yo 2 yo
Murata et al. (1996) usaron gas para examinar ¯owshop problemas de
J conjunto de índices de agentes j 2 J
agenda. Reeves (1995) utilizó gas para producir secuencias ¯owshop
K conjunto de índices de los recursos k 2 K utilizado por los agentes para
óptimos. Kumar y Srinivasan (1996) utilizaron gas en una verdadera
realizar tareas
situación mundial y la mejora de la makespan en más de un 30% en
do ij coste de la asignación de tareas (por lotes) yo a agente j
comparación con la implementación actual. Aytug et al. (1994)
8> <>:
utilizaron un algoritmo genético para establecer un esquema iterativo 1 si la tarea ?? lote ?? yo se asigna al agente
X ij
para aprender la programación dinámica óptima. Mathieu et al. (1994)
j ?? una variable de decisión ??
adaptado GA para resolver el problema de programación lineal de dos
0 en otro caso
niveles. Hadj-Alouane y Bean (1993), Hadj-Alouane et al. (1993) y Coit
et al. (1994), todas conseguido buenos resultados utilizando un
una ijk cantidad de recursos k utilizado por agente j para llevar a cabo la tarea
enfoque de función de penalización dentro de un GA para la resolución
(por lotes) yo
de los programas de optimización discreta.
segundo jk cantidad de recursos k a disposición de agente j

La formulación es:
El GA también se ha utilizado en este tipo de problemas de
optimización como taller de trabajo de programación (Davis, 1985;
Biegel y DAVERN, 1990), el tamaño de las redes de comunicaciones problema MRGAP

(Davis y Coombs, 1987), la planificación de procesos (Vancza y X


min X do ij X ij ?? 1 ??
Markus, 1991), flexibles el diseño del sistema de fabricación (Hou y Li,
yo 2 yo j2J
1991), la programación multi-procesador de tareas (Sieglemann y
Frieder, 1991), y un problema de colocación de componentes
S t: X X ij ?? 1 para cada tarea ?? lote ?? yo 2 NORTE;
modelado como un AP cuadrática (Cohoon et al., 1991).
j2J

?? 2 ??

También ha habido un trabajo que combina SA con gas. A


X para cada recurso k 2 K
continuación se da una Avor de este trabajo: Kim y Kim (1996) utilizaron
una ijk X ij 6 segundo jk ?? 3 ??
SA y GA para un problema de programación de la producción a corto para cada agente j 2 J;
yo 2 yo

plazo. Ray et al. (1995) utilizaron SA y GA para un problema de


programación en el diseño de buques. Kim et al. (1994) utilizaron GA en
X ij ?? 0; 1 para todos yo 2 YO; j 2 J: ?? 4 ??
combinación con SA para resolver un problema de programación de
mantenimiento. Problema MRGAP ha sido estudiado por Pirkul (1986), Murphy
(1986) y Gavish y Pirkul (1982, 1986, 1991). Este problema se
Los problemas de producción que estudiamos están relacionados extiende el GAP estudiado por Ross y Soland (1975), Nauss
con el problema del transporte de carga ®xed (Barr et al., 1981). En ese (1976), Martello y Toth (1977), Klastorin (1979) y Balas y Zemel
problema, los clientes se pueden asignar a las fábricas, con una ®xed (1980).
coste costes incurridos y la unidad para cada asignación. Un di clave ??
rencia es que en nuestro problema de producción configuraciones En los tres problemas AP, GAP, y MRGAP, limitaciones obligan a

también se incurre en las limitaciones de recursos, lo cual no es el caso cada tarea (por lotes) para ser asignado a uno y sólo un agente. Por

en el problema del transporte de carga ®xed. lo tanto, no división por lotes entre los agentes se considera en estos
modelos. Sin embargo, en la práctica, la división por lotes entre SeV
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80 57

agentes erales es deseable que las limitaciones de recursos impiden la tiempo para configuraciones, y (2) el tiempo de máquina para configuraciones y la

asignación de todas las unidades de un lote a la mejor relación costo e ?? producción.

agente caz. Esto es especialmente cierto en los entornos de fabricación En estos problemas, el operador puede configurar diferentes máquinas
repetitivas donde los lotes de unidades idénticas a menudo son para producir unidades del mismo lote para la producción simultánea durante
procesados ​por di máquinas Erent ?? para reducir el tiempo de la noche. Como se señaló anteriormente, dichas soluciones de proceso por
procesamiento o para satisfacer restricciones de capacidad. Tal división lotes de reparto no son considerados por el MRGAP.
lote provoca costo de instalación adicional y el tiempo, que no se
considera en problemas AP, GAP, o MRGAP. 3. Este ejemplo es la operación multi-proceso de ``
sistema '' tomado de Ohno (1988). En este ejemplo, un trabajador opera un
Ejemplos de problemas donde MRGAP (o AP o GAP) no torno, una máquina fresadora y una máquina de perforación. El operador,
producirían soluciones aplicables se presentan a continuación. En que trabaja 8 horas / día, sólo se requiere para configuraciones. Como en el
el resto de este documento, se utilizan los términos `` agentes '' y `` ejemplo anterior, un recurso es el tiempo de máquina requerido para
máquinas '' indistintamente, y nos referimos a un `` tarea '' como `` configuraciones y producción, que está limitada a 8 h / día, y un segundo
batch '' o `` orden ''. recurso es el tiempo del operador requerido sólo para configuración de la
máquina. Sin embargo, en este caso, el operador está disponible para 8 h
1. Un taller de trabajo debe programar la producción de dos para las tres máquinas combinadas; Además, el tiempo de configuración
órdenes, cada uno, debido al día siguiente. Dos máquinas similares están disponibles para cada una de las tres máquinas es una decisión variable.
disponibles durante 10 h / día cada uno para la producción de estos lotes.
Datos del problema son:
Restricciones requieren que la suma de los tiempos de preparación durante
Número de Número de El tiempo de El tiempo de el período de planificación de 20 días para las tres máquinas se limita al 20 una
lote unidades preparación / lotes procesamiento por unidad 8 ?? 160 h durante el periodo de planificación. Tres restricciones adicionales

1 12 1.0 1.0 limitan el tiempo de cada máquina para la producción y configuraciones a 20 una

2 8 2.0 0.5 8 ?? 160 h. Como en el ejemplo 2, la división por lotes puede ser más costo e
?? reflexivo que las soluciones obtenidas de la MRGAP.

El tiempo requerido para los lotes 1 y 2 en cualquiera de las máquinas


son 1 + 1 una 12 ?? 13 horas y Al igual que en los ejemplos anteriores, se supone que el costo y el
2,0 + 0,5 una 8 ?? 6 horas, respectivamente. Puesto que cada máquina tiempo de configuración siempre se incurre cuando una tarea se asigna a
está disponible por sólo 10 h / día, no es posible asignar lote 1 cualquier máquina y que las cantidades de instalación no son dependientes de
enteramente a una máquina. Sin embargo, desde 20 horas de la máquina la secuencia. por formular
están disponibles, su capacidad ?? ciente existe para producir ambos
lotes si se permite que la división por lotes. UNA ijk el consumo de recursos k por unidad de lotes yo
producido en la máquina j
2. Una fabricación instalación pro- automatizado S ijk el consumo de recursos k durante preparar para
duce artículos 24 h / día. En esta instalación, hay un trabajador / máquina, pero lote yo en la máquina j
los trabajadores están presentes para el mantenimiento y configuraciones que re yo número de unidades en lotes yo se requiere durante el horizonte de
realizan por sólo 8 h / día. Durante los restantes 16 h, el equipo es controlado planificación
por un equipo esquelético pero no puede ser de configuración. El segundo jk cantidad de recursos k disponible 1 a máquina j
mantenimiento preventivo tarda aproximadamente 2 h cada día, dejando un segundo cantidad
k de recursos k disponible para todas las máquinas
máximo previsto de 6 h / día para las configuraciones y 6 + 16 ?? 22 h / día para
las configuraciones y los ejecuta. Así, durante un período de planificación de do ij costo de procesamiento de una unidad de lote yo en la máquina j
20 días, el tiempo de preparación se limita a 20 una 6 ?? 120 h para cada
máquina. Una restricción adicional limita el tiempo de preparación más el sol ij costo de instalación para el lote yo en la máquina j
tiempo de ejecución para cada máquina a 20 una 22 ?? 440 h. Por lo tanto, cada
máquina tiene dos recursos escasos: (1) trabajador
1 En algunos problemas, el b son variables de decisión; en otros son constantes.
58 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

segundo un número grande Si la cantidad de recursos k disponible para cada máquina j es un decisión

X ij número de unidades de lote yo asignado a variable, a continuación, las limitaciones de capacidad son:

máquina j ( una variable de decisión)


8> <>: X
1 si la máquina j es la configuración de las unidades de proceso por lotes ?? UNA ijk X ij ?? S ijk Y ij ?? 6 segundo jk
Y ij
yo 2 yo
yo ?? una variable de decisión ??; (
para cada máquina j 2 J
0 en otro caso
?? 10 a ??
para cada recurso k 2 K;

de finales de un modelo para estos problemas con las configuraciones, se utiliza la X


para
segundo jk 6 segundo k cada recurso k 2 K: ?? 10b ??
siguiente notación:
j2J

La formulación para el MRGAPS depende de si el segundo jk son Restricciones (10a) y (10b) se puede simpli®ed a
constantes o variables de decisión. Si son constantes, la X X
?? UNA ijk X ij ?? S ijk Y ij ?? 6 segundo k para cada k 2 K;
formulación más simple es:
j2J yo 2 yo

?? 10c ??
MRGAPS-1 Problema
X eliminando así la segundo jk variables. Estas restricciones limitan el
min X ?? do ij X ij ?? sol ij Y ij ??
consumo de recursos k a un total de segundo k, la cantidad
yo 2 yo j2J ?? 5 ??
disponible. El modelo resultante es:
S t:

para cada máquina j 2 MRGAPS-2 Problema


X J X
?? UNA ijk X ij ?? S ijk Y ij ?? 6 segundo jk ?? 6 ?? min X ?? do ij X ij ?? sol ij Y ij ?? ?? 11 ??
para cada recurso k 2
yo 2 yo yo 2 yo j2J

K;
X
X S t: X ?? UNA ijk X ij ?? S ijk Y ij ?? 6 segundo k

X ij ?? re yo para cada lote yo 2 YO; ?? 7 ?? j2J yo 2 yo

j2J
para cada k 2 K; ?? 12 ??

para cada lote yo 2 yo X


X ij 6 segundo Y ij ?? 8 ?? X ij ?? re yo para cada lote yo 2 YO; ?? 13 ??
para cada máquina j 2 J; j2J

X ij ?? 0; 1; 2; . . . ; re yo para cada lote yo 2 yo


para todos yo 2 YO; j 2 J: ?? 9 ?? X ij 6 segundo Y ij ?? 14 ??
Y ij ?? 0; 1 para cada máquina j 2 J;

La función objetivo (5) es la suma de los costos de procesamiento y los


costes de instalación. Las limitaciones de capacidad para cada máquina ± X ij ?? 0; 1; 2; . . . ; re yo
para todos yo 2 YO; j 2 J: ?? 15 ??
combinación de recursos se speci®ed en conjunto de restricciones (6). Y ij ?? 0; 1
Restricciones (7) requieren que todas las unidades en lotes yo ser asignado a
una o más máquinas, y conjunto de restricciones (8) garantiza que la máquina j Se Problema MRGAPS-1 es típica en entornos de
ha configurado para el tipo yo unidades de si al menos una de tales unidades se máquina-herramienta clásica donde cada máquina está disponible
asigna para el procesamiento en esa máquina. El número de unidades de lote yo para un número dado de horas en cada periodo, y un operador se
que se asignan a la máquina j es un número entero entre 0 y re yo speci®ed le asigna durante sus operaciones. Problema MRGAPS-2 es típico
como por las limitaciones establecido (9). en entornos automatizados de máquina-herramienta donde los
trabajadores pueden asistir a varias máquinas y en Flexible
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80 59

Sistemas de Fabricación (FMS) donde el tiempo de los trabajadores dónde


está a disposición de todo el sistema y se asigna según sea
necesario. Mediante el uso de restricciones (6) para máquinas do ij ?? do ij ?? X k jk UNA ijk;

convencionales y las limitaciones (12) para las células Flexible de k2K

Fabricación (FMC), se puede modelar la situación capacidad mixta


que se produce normalmente en una implementación por fases de sol ij ?? sol ij ?? X k jk S ijk:
FMS. Durante la implementación por fases, las máquinas k2K

convencionales y FMC se utilizan simultáneamente, y los lotes deben Para MRGAPS-2, el problema es de Lagrange
ser asignados a las máquinas más apropiados (véase Chakravarty y X
Shtub, 1990). ?? L2 ?? min X ?? do ij X ij ?? sol ij Y ij ??
yo 2 yo j2J
" #
X X
?? X kk ?? UNA ijk X ij ?? S ijk Y ij ?? ÿ segundo k ;
k2K j2J
4. relajación de Lagrange para resolver MRGAPS-1 y -2
yo 2 yo

que de nuevo tiene la forma (aunque do ij y sol ij se de®ned di ??


erently)
El algoritmo LR conocido consiste en extraer algunas X
limitaciones, con un peso con un multiplicador de Lagrange, k, y min X ?? do ij X ij ?? sol ij Y ij ??
j2J
colocarlos en la función objetivo. La '' problema relajado resultante yo 2 yo

S t:
`` se resuelve a optimalidad, se obtienen nuevos valores de los X
multiplicadores, y se itera el procedimiento. X ij ?? re yo para cada lote yo 2 YO; ?? 21 ??
j2J

para cada lote yo 2 yo


Para ambos MRGAPS-1 y -2, relajante las limitaciones de X ij 6 segundo Y ij ?? 22 ??
para cada máquina j 2 J;
recursos (6) o (12), respectivamente, resulta en una particularmente
simple problema de Lagrange. Para MRGAPS-1, el problema de
X ij ?? 0; 1; 2; . . . ; re yo
Lagrange resultante es
para todos yo 2 YO; j 2 J: ?? 23 ??
X Y ij ?? 0; 1

?? L1 ?? min X ?? do ij X ij ?? sol ij Y ij ??
Estos problemas pueden ser resueltos de Lagrange como
yo 2 yo j2J
" # sigue: Para cada lote yo y cada máquina j,
X X
calcular el coste `` '' de producir el lote completo en la máquina utilizando
?? X k jk ?? UNA ijk X ij ?? S ijk Y ij ?? ÿ segundo jk ?? dieciséis ??
los costes de instalación sol ij y los costos de procesamiento unidad do ij. dejar
j2J k2K yo 2 yo

que la máquina Ji) denotar la máquina más barata para lotes yo, la solución
óptima para la función de Lagrange es:
S t: X X ij ?? re yo para cada lote yo 2 YO; ?? 17 ??
j2J

Y i; j ?? yo ?? ?? 1; X i; j ?? yo ?? ?? re yo ?? configuración de la máquina j ?? yo ?? para


para cada lote yo 2 yo
X ij 6 segundo Y ij ?? 18 ?? lote yo y procesar todo el lote ??;
para cada máquina j 2 J;

Y ij ?? 0; X ij ?? 0; j 6 ?? j ?? yo ??:
X ij ?? 0; 1; 2; . . . ; re yo
para todos yo 2 YO; j 2 J: ?? 19 ??
Como se ha señalado en la sección 5, la Y ij las variables pueden ser omitidos por
Y ij ?? 0; 1
considerarlos de manera implícita.

Después de recoger términos, (16) tiene la forma (a excepción de una En las iteraciones posteriores de Lagrange, esta solución es a
constante) menudo factible en MRGAPS-1 o 2, proporcionando así un límite
X superior en el valor de la función objetivo óptimo del problema a
min X ?? do ij X ij ?? sol ij Y ij ??; ?? 20 ?? resolver. Sin embargo, estas soluciones de Lagrange no in-
yo 2 yo j2J
60 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

Volve la división de un lote a través de dos o más máquinas. Por lo las restricciones relacionales son eliminados, y (iii) funciones de
tanto, si la solución óptima implica múltiples máquinas para algunos penalización en lugar de las limitaciones de recursos (para permitir la
lotes, habrá un hueco dualidad para estos problemas, y el violación de estas restricciones en iteraciones intermedios de los
procedimiento de Lagrange no se ®nd la solución óptima. algoritmos).
La manera obvia de eliminar la Y ij variables y las restricciones
relacionales (8) o (14) es simplemente para de®ne la función objetivo
Una clara ventaja del procedimiento de Lagrange es que el para igualar los costos de procesamiento y de configuración cada vez
valor óptimo de la función de Lagrange es siempre una límite que una máquina produce unidades de cualquier lote. Del mismo modo,
inferior en el valor de la función objetivo óptimo del programa que las funciones de restricción se de®ned para incluir el tratamiento y la
está siendo resuelto. Esta cota se puede utilizar para probar la configuración de los consumos de recursos.
desviación de la optimalidad de la solución ®nal obtenido. Además,
el algoritmo se basa en una teoría que asegura la convergencia de continuo Para simplificar la explicación de cómo se pueden omitir las restricciones
de demanda (7) o (13), que ®rst de renumeración de las unidades de todos los
lotes de forma consecutiva como
programas. Para los programas discretos MRGAPS-1 y -2, sin 1, 2, 3,. . . , NORTE, dónde norte ?? PAG
yo 2 yo re yo es el total
embargo, una brecha de dualidad puede impedir la convergencia. Sin número de unidades. Entonces, en lugar de las variables
embargo, una gran cantidad de experiencia reportada es compatible
X ij ?? número de unidades de proceso por lotes yo asignado a
con el e ?? cacia de LR (Gavish y Pirkul, 1991).
máquina j
usamos:

Z yo ?? la máquina elegido para la fabricación de la unidad yo


5. un algoritmo genético para MRGAPS
Por ejemplo, supongamos que hay tres máquinas y cuatro lotes
El GA clásica (Goldberg, 1989) es una heurística iterativo basado con tamaños de lote re 1 ?? 2; re 2 ?? 1;
en la biología de la selección natural y la supervivencia de la ®ttest. re 3 ?? 2 y re 4 ?? 3. Supongamos que la máquina ®rst produce todas
En lugar de un solo punto, una GA utiliza un conjunto o `` población '' las unidades en lotes 1 y 2, la segunda máquina produce una unidad
de las soluciones. En cada iteración, los pares de soluciones a partir de lote 3, y la tercera máquina produce el resto del lote 3 y todos los
de la población se seleccionan para reproducir ?? dos o primavera. La lotes 4. A continuación, norte ?? 8 y Z 1 ?? 1; Z 2 ?? 1; Z 3 ?? 1;
selección es pseudoaleatoria, pero es tal que las mejores soluciones
(más baratos) se seleccionan con más frecuencia que otros. Cada par Z 4 ?? 2; Z 5 ?? 3; Z 6 ?? 3; Z 7 ?? 3; y Z 8 ?? 3. Estas variables de decisión

de soluciones reproduce dos nuevas soluciones utilizando un 'proceso garantizan que todas las unidades de cada lote será producida por una

de `` crossover' y luego muere. Por ejemplo, si una posición de cruce do máquina, de manera que las limitaciones de la demanda ya no son

?? 3 se selecciona para la solución 1 (el padre: 010 | 001) y una necesarios.

solución de 2 (la madre: 101 | 111), a continuación, la nueva solución Para resumir la reformulación de los modelos, de®ne
1 es 010 | 111 ( `` estructura genética de su padre '' hasta la posición
3, seguido por la estructura genética de su madre). De forma análoga,
Z vector con componentes Z yo
la nueva solución es 2 101 | 001.
f (Z) de configuración y de procesamiento total de los costes cuando las
asignaciones de máquina para cada unidad de cada lote se speci®ed
por Z g ij ( Z) el consumo total de recursos k por la máquina

Soluciones resultantes del procedimiento de cruce pueden


j durante la configuración y el procesamiento cuando las
violar las restricciones de demanda (7) o (13), las limitaciones de
asignaciones de máquina para cada unidad de cada lote se
recursos (6) o (12), y las limitaciones relacionales (8) o (14). Para
speci®ed por Z h k ( Z) el consumo total de recursos k Por todos
evitar problemas con inviabilidad y para obtener mejores
soluciones, se utilizó (i) un di ?? adaptación Erent de GA, (II) di ??
máquinas durante la configuración y el procesamiento cuando las
formulaciones Erent de MRGAPS-1 y -2 de manera que la Y ij las
asignaciones de máquina para cada unidad de cada lote se
variables, las limitaciones de la demanda, y
speci®ed por Z
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80 61

Por lo tanto, MRGAPS-1 podría ser cambiado a Nuestro procedimiento de cruce se realiza directamente en el Z variables.
Por de®nition de estas variables, incluso después de cruce, cada unidad
min F ?? Z ??
de cada lote está todavía asignado a uno de la máquina. Por lo tanto, este
?? 24 ??
S t: procedimiento preserva la viabilidad de las limitaciones de la demanda.
Las nuevas soluciones generadas por el proceso de cruce también
para cada máquina j 2 J experimentan ocasionalmente mutación. En nuestro procedimiento de
sol jk ?? Z ?? 6 segundo jk ?? 25 ??
para cada recurso k 2 K; mutación, seleccionamos al azar una unidad y cambie a otra máquina de
azar. Por lo tanto, si

Z yo ?? 1; 2; . . . ; metro para cada unidad yo; ?? 26 ??


yo se genera la unidad de azar y j es una máquina de azar, la
dónde metro es el número de máquinas disponibles. ProgramMRGAPS-2 solución experimenta mutación Z yo j
se pueden cambiar en consecuencia, el uso de h k ( Z) en lugar de sol jk ( Z). ( Z yo se sustituye por j). Esta mutación se asegura de que la solución resultante
satis®es todas las restricciones (excepto los límites de recursos, que son
Obviamente, la reformulación (24) ± (26) tiene menos sustituidos por los términos de penalización).
limitaciones que la forma original de MRGAPS-1. Sin embargo, el
número de variables de decisión es normalmente mayor que el
número de X ij
variables en el modelo original. El número de X ij 6. algoritmo A Simulated Annealing para MRGAPS
variables es metro una n (n es el número de lotes), y el número de Z yo variables
es PAG
yo 2 yo re yo, es decir, uno para En SA para los modelos de optimización (Metropolis et al,
cada unidad. esto equivale 1953;.. Kirkpatrick et al, 1983) se mueve iterativos se hacen de una
solución a una solución barrio en busca de optimalidad. Si la
metro X re i = metro; y, normalmente, n < X re i = metro:
función objetivo mejora como resultado de este movimiento, se
yo 2 yo yo 2 yo
acepta la nueva solución, y el proceso se repite. Unlikemost
Puesto que las soluciones todavía pueden violar las restricciones de algoritmos, sin embargo, el SAalgorithm veces acepta una solución
recursos (25) después de una operación de cruce, utilizamos funciones de que sea peor que el actual. Para describir el algoritmo SA, y mucho
penalización en lugar de estas restricciones para permitir la violación en
iteraciones intermedios de GA. Después de reemplazar las limitaciones de
recursos con funciones de penalización, la forma ®nal de MRGAPS-1 cuando
se utiliza GA se convierte en MRGAPS-1A X yo solución para MRGAPS-1 o -2 en la iteración yo

X F yo F ?? X yo ??, el valor de la función objetivo en la iteración yo


min F ?? Z ?? ?? segundo X máx ?? 0; sol jk ?? Z ?? ÿ segundo jk ?? una ?? 27 ??
j2J k2K
T 1 T 2; . . . secuencia de números positivos (llamado
`` Temperaturas '' o una `` horario de refrigeración '') que
S t: Z yo ?? 1; 2; . . . ; metro para cada unidad yo: ?? 28 ??
converge a 0 desde arriba: T 1 PAG T 2; . . . ;
Aquí el exponente una típicamente es igual a 1 o 2. Problema y lim T j ?? 0
MRGAPS-2 cambios de forma análoga a MRGAPS-2A. PAG yo min F 1; exp ???? F yo ÿ F yo ?? 1 ?? = T yo ??sol, La probabilidad de la
solución aceptar i + 1.
Tenga en cuenta que MRGAPS-1A y 2A tienen funciones objetivo y
restricciones de forma no cerrada, por lo que el software de la solución La decisión de aceptar o no la solución i + 1 se realiza mediante la

estándar no se puede utilizar. Sin embargo, debido a que las soluciones generación de un número aleatorio r 2 ?? 0; 1 ??. Si

recién generados siempre satisfacen los requisitos de la demanda, el r 6 PAG yo, la solución se acepta; de lo contrario, se rechaza.
modelo resultante puede ser más susceptible de solución por GA que la
forma convencional (5) ± (9) o (11) ± (15). Tenga en cuenta también la Tenga en cuenta que si la nueva solución es peor que la actual, a

similitud entre el objetivo de penalti (27) y la función de Lagrange (16) continuación, F yo ?? 1> F yo y ?? F yo ÿ F yo ?? 1 ?? = T i < 0. No obstante, PAG i> 0; por lo que

cuando una ?? 1. las soluciones más pobres a veces son aceptadas, especialmente en las
primeras iteraciones
62 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

(cuando T yo es largo). Si la nueva solución tiene menor costo que la 7. El intercambio pairwise post-procesador
solución yo, PAG yo ?? 1 y la nueva solución siempre es aceptado.
los solución ®nal ( no las soluciones intermedias) obtenidos a
Generamos soluciones vecinales para MRGAPS de la siguiente partir de cada uno de los tres procedimientos GA, SA, y LR se
manera: relacionó con un post-procesador que reduce iterativamente el
1. generar un par aleatoria de máquinas, número de unidades de lote yo asignado a la máquina j por 1 y se
2. generar un número aleatorio de unidades de un lote al azar que incrementa en 1 el número de unidades de este lote asignados a
se realiza por la máquina ®rst, otra máquina j . Esto se hace para todos yo, j, j

3. eliminar estas unidades de la máquina ®rst y asignarlos a la combinaciones para las cuales j 6 ?? j y X ij PAG 1. De esta manera, se
segunda máquina. Con estos movimientos vecinales, incluso intenta reducir al mínimo los costos generales por las unidades de
cuando el re-asignación de modo que los costes de instalación y / o costos de
X ij variables en la formulación original (5) ± (9) o (11) ± (15) se utilizan, se procesamiento se reducen cada vez que se produce un intercambio. El
mantiene la viabilidad demanda restricción. Sin embargo, las soluciones costo de la mejor solución obtenida después de probar todas las permutas
resultantes de estos movimientos pueden violar las restricciones de se compara con la solución de más bajo costo generado previamente (el
recursos. Por lo tanto, reemplazamos las limitaciones de recursos con titular). Si la primera solución tiene un costo menor que el costo de la
funciones de penalización, al igual que en la Sección 5. empresa establecida, la primera solución sustituye al titular, e inicia una
nueva iteración. De lo contrario, la heurística postprocesador termina.
Para resumir las reformulaciones utilizados en la resolución del
problema SA, de®ne

X vector con componentes X ij


F (X) de configuración y de procesamiento total de los costes cuando 8. El experimento
las asignaciones de máquina para cada unidad de cada lote se
speci®ed por XG jk ( X) el consumo total de recursos k por ma- Problema MRGAPS-1 tiene una limitación de capacidad para
cada combinación de máquina-recursos, mientras MRGAPS-2 tiene
sierra j durante la configuración y el procesamiento cuando las tales limitaciones sólo para cada tipo de recurso. Desde MRGAPS-1
tareas de la máquina para cada unidad de cada lote se speci®ed tiene muchas más restricciones, y por lo tanto términos de
por XH k ( X) el consumo total de recursos k Por todos penalización o multiplicadores de Lagrange, que dedicado nuestras
pruebas computacional para MRGAPS-1. Podemos utilizar cualquier
máquinas durante la configuración y el procesamiento cuando exponente entero positivo en la ecuación. (27) o la ec. (29) para
las asignaciones de máquina para cada unidad de cada lote obtener soluciones a MRGAPS-1A (o 2A) por GA o SA.
se speci®ed por X Hadj-Alouane y Bean (1993) mostraron que en los casos
degenerados la función de penalización cuadrática tiene claras
ventajas sobre el caso lineal por sus opción múltiple problemas de
programación entera. Ellos mostraron que en presencia de la
Por lo tanto, MRGAPS-1 podría ser cambiado a MRGAPS-1B
degeneración, la función de penalización lineal no dió soluciones
óptimas. Desde degeneración es poco común, sin embargo, o bien
X
min F ?? X ?? ?? segundo X máx ?? 0; sol jk ?? X ?? ÿ segundo jk ?? una
un una función de penalización cuadrática lineal o pueden trabajar
j2J k2K bien en la práctica. Es fácil mostrar que en los casos de no

S t: X X ij ?? re yo para cada lote yo 2 YO; degeneración, la función de penalización lineal también da


j2J soluciones óptimas para el programa de elección múltiplo entero
estudiado por Hadj-Alouane y Bean. Existe la teoría sustancial a
?? 29 ??
con®rm que la pena lineal debería funcionar bien (ver Bazarra y
Shetty, 1979, pp. 336 ± 340). Promover-
X ij ?? 0; 1; 2; . . . ; re yo para todos yo 2 YO; J 2 J: ?? 30 ??

Problema MRGAPS-2 cambios de forma análoga a MRGAPS-2B.


LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80 63

más, Coit et al. (1994) concluyeron que no había signi®cant di ?? máquinas produce la mitad de las unidades individuales de cada lote yo,
rencia entre los resultados obtenidos a partir de la función de entonces el recurso k requerimientos de estas dos máquinas son (ver
penalización lineal vs. una cuadrática para los problemas limitaciones (6))
combinatorios que probaron. X
S ijk ?? UNA ijk re re i = 2 mi ?? 33 ??
yo 2 yo
Se optó por utilizar funciones de penalización lineales ( una ?? 1)

en nuestra aplicación, ya que el objetivo principal de nuestro trabajo (La notación Delaware indica redondeo arriba al entero más próximo).
es comparar los algoritmos que con los métodos tradicionales de Durante los últimos dos máquinas, que de®ned segundo jk para igualar la
LR. La función de penalización lineal da una mejor comparación, cantidad en la ecuación. (33) multiplicada por un `` FACTOR '', que se
porque el método de Lagrange inherentemente utiliza una función de varió para de®ne tres di ?? tipos Erent de problemas:
penalización lineal. La función de penalización lineal tiene otra
ventaja que ligeras violaciónes restricción no dan una pena tan
A. Problemas con fuertes limitaciones: FACTOR ?? 2.
grande como la función de penalización cuadrática hace. Esto es
B. Problemas moderadamente restringidas: FACTOR
importante, porque es demasiado grande para una sanción leve
?? 3.
inviabilidad puede llevar al rechazo de las buenas soluciones de GA
C. problemas sin apretar restringidos: FACTOR
o SA.
?? 12.

Hemos resuelto 105 casos de MRGAPS-1 para comparar el Para todas las otras máquinas, segundo jk fue de®ned a ser la mitad de la
rendimiento de los procedimientos de solución descritos en las cantidad disponible para los últimos dos máquinas. El costo de cada unidad
secciones anteriores. Los problemas utilizados en el experimento de cada recurso, RESCOST ( k),
tenían las características dadas en la Tabla 1. se generó de manera uniforme entre 30 y 70.
El costo de instalación por lote, sol ij, y el coste de procesamiento por
El consumo de cada recurso k durante la configuración de lotes yo unidad, do ij, se calcularon utilizando las necesidades de recursos y los costes
en la máquina j, S ijk, y por unidad de lote yo producido en la máquina j, unitarios de la siguiente manera:
A ijk, se calculó como: " #

sol ij ?? j X RESCOST ?? k ?? S ijk ; ?? 34 ??

S ijk ?? 300 r 1; ?? 31 ?? k2K

" #
UNA ijk ?? ?? 0:75 ???? r 2 ???? S ijk ??; ?? 32 ??
sol ij ?? j X RESCOST ?? k ?? UNA ijk : ?? 35 ??

dónde r 1 y r 2 son números aleatorios uniformes entre 0 y 1. El k2K

número de unidades en cada lote,


Por lo tanto, las máquinas son progresivamente más caro para cada
re yo, se fijó igual a un número aleatorio entre 6 y 15.
lote.
Todos los algoritmos se codificaron en FORTRAN. En GA, se
La cantidad de cada recurso k disponible para cada máquina j se
utilizó una población de 100 soluciones con una mutación en cada
generó para asegurar que una solución factible a cada problema
existía. Se utilizó el siguiente procedimiento. Si cada uno de los dos población. En SA, el horario de enfriamiento fue de T j ?? 800.000 / j
(T j es el
últimos
`` Temperatura '' utilizado en la iteración j). La elección del horario
de refrigeración se basa en la experiencia previa de los autores en
tabla 1 el uso de SA para la resolución de los modelos de optimización
Características de los problemas resueltos tamaño del combinatoria. Speci®cally, Fetterolf y Anandalingam (1991) han
problema Máquinas Lotes Recursos hecho la experimentación signi®cant con siete horarios de

Pequeña 3 5 2
refrigeración a partir de la literatura (Aarts y Korst, 1989; Hajek,
Medio 5 10 3 1988; Huang et al, 1986; Kirkpatrick et al., 1983;. Lundy y Mees,
Grande 10 15 5 1986; Otten y Van Ginnekan, 1984; Vernekar y Anandalingam,
Muy grande 10 99 5 1990), y tienen
Extremadamente largo 15 150 10
64 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

Encontramos los más simples para trabajar mejor en términos de tiempo post-procesador que trabaja en la solución de GA ®nal. Las tres
de cálculo. columnas bajo `` GA SEED SOLO RESUMEN '' mostrar el medio,
En LR, se obtuvieron valores de multiplicador actualizado utilizando mínimo y máximo valor de la función objetivo obtenido para las
el mismo procedimiento descrito en Gavish y Pirkul (1991) (una semillas Erent comenzando tres di ?? utilizados para resolver cada
búsqueda subgradiente de la función objetivo dual). Speci®cally, si una problema. información análoga se da para el algoritmo de recocido
solución factible se ha encontrado en alguna iteración, a continuación, simulado ( `` SA SOLO '', `` SA / PP '', y `` SA SEED SOLO
los multiplicadores se de®ned en términos del valor de la función RESUMEN '').
objetivo factible más conocido, z, y el valor más grande conocida de la
función de Lagrange, z :
Las dos columnas en la demostración de la derecha la relación
k jk ?? k jk ?? SG PASO jk de los costes de las soluciones obtenidas por SA y GA ( `` SA / GA
alone '') y de los costes de las soluciones obtenidas por el
donde SG es la subgradiente y STEP se de®ned como
post-procesador en el SA y GA ® soluciones NAL ( `` SA / GA PP
''). Ratios de menos de 1 indican que SA encontró una solución
mejor que GA; relaciones mayores que 1 indican que GA encontró
PASO ?? re ?? z ÿ z ?? = k SG k 2: ?? 36 ??
una solución mejor. Un asterisco indica que uno (o ambos) relación
En la Ec. (36), re es un parámetro inicializado a 15 y reducido a la mitad cada es mayor que 1.
vez 20 iteraciones sucesivas fallan para disminuir el valor de la función de
Lagrange. Si no hay solución factible se ha encontrado en cualquier iteración Las tablas 2 ± 12 muestran claramente que si hay post-procesador
anterior, la ecuación. (36) no se pueden utilizar. En este caso, nos dedicado estaban disponibles, SA produciría soluciones de menor costo
propusimos PASO ?? 25. en GA en la gran mayoría de los casos. La segunda a última columna
muestra relaciones de menos de 1 por casi todos los problemas; una
GA, SA y LR fueron cada pueden ejecutar siempre que excepción es para los (pequeños) problemas fáciles donde cada
generan soluciones mejoradas. Algoritmos se terminaron cuando algoritmo fue igualmente e ?? reflexivo. Por ningún tipo de problema fue
ninguna mejora resultó en 120 segundos de la CPU (240 s para GA consistentemente mejor que SA. Para todos excepto tamaños
extremadamente grandes problemas). Las tablas 2 ± 12 resumen pequeños y medianos de problemas, SA solo típicamente (pero no
los resultados computacionales para 105 di ?? problemas Erent: siempre) ®nds soluciones con 70 ± 80% del costo de la solución de GA.
Sin embargo, el post-procesador es muy potente, lo que reduce el di ??
· 10 versiones di ?? Erent de cada uno de los tipos de nueve di ?? Erent erences entre los algoritmos.
de problemas (pequeño, mediano, y grandes problemas, cada
libremente, moderadamente o fuertemente restringido),

SA es también mucho más rápido que el GA para estos


· 10 di ?? versiones Erent de problemas muy grandes apretados, y problemas. Sin embargo, cuando se compara el GA vs. valores de la
función objetivo SA obtenidos y la CPU se requiere, recuerdan que
· Cinco di ?? versiones de Erent extremadamente grandes problemas apretados. trabaja en el GA modi®ed
formulación de MRGAPS-1 (con la Z variables) discutió en la
Este tipo de problemas se indican mediante SL0 (pequeño, suelto, la Sección 5. Esta formulación tiene menos restricciones, pero
versión 0), LT0 (grandes, apretados, la versión 0), etc. Las dos muchas variables adicionales.
columnas a la izquierda muestran la semilla utilizada para iniciar el El resumen '' columnas `` semilla para GA y SA muestran la
generador de números aleatorios de cada algoritmo y el tipo de sensibilidad de estos algoritmos para di ?? semillas Erent de partida.
problema resuelto. Las siguientes tres columnas en `` GA SOLO '' En la parte inferior de cada tabla, el MD (desviación media, es decir,
Muestra el $ (valor de la función objetivo), el tiempo de CPU (segundos valor de la función objetivo máximo obtenido menos valor de la
de Vax modelo 6000/600), y el número de iteraciones necesarias para función objetivo mínimo de media sobre los 10 tipos de problema)
el algoritmo GA. El tiempo de CPU es el momento de la segunda más se muestra para GA y SA. También se muestra la relación de GA
cercana; un valor de 0 significa menos de 1 s. Las tres columnas bajo `` MD a SA MD. Esto demuestra la sensibilidad media semilla para
GA / PP '' Muestra el $, el tiempo de CPU extra y iteraciones para el todos los problemas de esa tabla, lo que indica claramente que GA
es mucho más
Table 2
Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 SL0 2629 0 20 2629 0 1 2629 1 9144 2629 0 1 1.00 1.00


1654 SL0 2629 0 1 2629 0 1 2629 2629 2629 2629 1 7188 2629 0 1 2629 2629 2629 1.00 1.00
15,670 SL0 2629 0 9 2629 0 1 2629 1 7312 2629 0 1 1.00 1.00
23 SL1 3412 0 2 3412 0 1 3435 1 9362 3412 0 2 1.01 1.00
1654 SL1 3435 0 1 3412 0 2 3420 3412 3435 3412 1 9461 3412 0 1 3420 3412 3435 0.99 1.00
15670 SL1 3412 0 4 3412 0 1 3412 1 8751 3412 0 1 1,00 1,00
23 SL2 5026 0 2 4883 0 2 4883 1 8690 4883 0 1 0,97 1,00
1654 SL2 5003 0 6 4883 0 2 4971 4883 5026 4883 1 8955 4883 0 1 4883 4883 4883 0,98 1,00
15670 SL2 4883 0 1 4883 0 1 4883 1 7689 4883 0 1 1,00 1,00
23 SL3 2443 0 7 2443 0 1 2443 1 8561 2443 0 1 1,00 1,00
1654 SL3 2443 0 1 2443 0 1 2443 2443 2443 2443 1 9926 2443 0 1 2443 2443 2443 1,00 1,00
15,670 SL3 2443 0 2 2443 0 1 2443 0 12084 2443 0 1 1,00 1,00
23 SL4 2904 0 5 2904 0 1 2904 0 3986 2904 0 1 1,00 1,00
1654 SL4 2904 0 1 2904 0 1 2904 2904 2904 2904 1 6616 2904 0 1 2904 2904 2904 1,00 1,00
15,670 SL4 2904 0 4 2904 0 1 2904 1 6849 2904 0 1 1,00 1,00
23 SL5 1478 0 5 1478 0 1 1478 1 9983 1478 0 1 1,00 1,00
1654 SL5 1478 0 6 1478 0 1 1478 1478 1478 1478 1 8127 1478 0 1 1478 1478 1478 1,00 1,00
15,670 SL5 1478 0 3 1478 0 1 1478 1 8472 1478 0 1 1,00 1,00
23 SL6 3438 0 6 3438 0 1 3438 1 6034 3438 0 1 1,00 1,00
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

1654 SL6 3438 0 4 3438 0 1 3438 3438 3438 3438 0 3763 3438 0 1 3438 3438 3438 1,00 1,00
15,670 SL6 3438 0 9 3438 0 1 3438 1 7393 3438 0 1 1,00 1,00
23 SL7 3608 0 2 3571 0 2 3571 1 8387 3571 0 1 0.99 1.00
1654 SL7 3571 0 3 3571 0 1 3583 3571 3608 3571 1 9097 3571 0 1 3571 3571 3571 1,00 1,00
15,670 SL7 3571 0 2 3571 0 1 3571 1 8387 3571 0 1 1,00 1,00
23 SL8 4238 0 3 4238 0 1 4238 1 5280 4238 0 1 1,00 1,00
1654 SL8 4238 0 1 4238 0 1 4238 4238 4238 4238 1 5509 4238 0 1 4238 4238 4238 1,00 1,00
15,670 SL8 4238 0 14 4238 0 1 4238 1 5227 4238 0 1 1,00 1,00
23 SL9 2873 0 3 2873 0 1 2873 1 5365 2873 0 1 1,00 1,00
1654 SL9 2873 0 1 2873 0 1 2873 2873 2873 2873 1 8803 2873 0 1 2873 2873 2873 1.00 1.00
15,670 SL9 2873 0 1 2873 0 1 2873 1 6821 2873 0 1 1.00 1.00

MD: GA SA Ga MD/SA MD
20 2 8.8
sesenta y cinco
Table 3 66

Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 SM0 2629 0 5 2629 0 1 2629 1 7730 2629 0 1 1.00 1.00


1654 SM0 2629 0 1 2629 0 1 2629 2629 2629 2629 1 7178 2629 0 1 2629 2629 2629 1.00 1.00
15,670 SM0 2629 0 6 2629 0 1 2629 1 8497 2629 0 1 1.00 1.00
23 SM1 3412 0 7 3412 0 1 3412 1 7284 3412 0 1 1.00 1.00
1654 SM1 3435 0 1 3412 0 2 3427 3412 3435 3412 1 8433 3412 0 1 3412 3412 3412 0.99 1.00
15,670 SM1 3435 0 3 3412 0 2 3412 1 6000 3412 0 1 0.99 1.00
23 SM2 5146 0 1 4883 0 3 4883 1 8595 4883 0 1 0.95 1.00
1654 SM2 5146 0 1 4883 0 3 5058 4883 5146 4883 1 8950 4883 0 1 4883 4883 4883 0.95 1.00
15,670 SM2 4883 0 1 4883 0 1 4883 1 7932 4883 0 1 1.00 1.00
23 SM3 2517 0 1 2517 0 1 2517 2 11,196 2517 0 1 1.00 1.00
1654 SM3 2517 0 2 2517 0 1 2517 2517 2517 2517 1 7484 2517 0 1 2517 2517 2517 1.00 1.00
15,670 SM3 2517 0 9 2517 0 1 2517 1 7917 2517 0 1 1.00 1.00
23 SM4 3069 0 8 3069 0 1 3069 0 4238 3069 0 1 1.00 1.00
1654 SM4 3069 0 9 3069 0 1 3069 3069 3069 3069 0 3650 3069 0 1 3069 3069 3069 1.00 1.00
15,670 SM4 3069 0 4 3069 0 1 3069 0 3987 3069 0 1 1.00 1.00
23 SM5 1478 0 6 1478 0 1 1478 2 9967 1478 0 1 1.00 1.00
1654 SM5 1478 0 6 1478 0 1 1478 1478 1478 1478 1 8127 1478 0 1 1478 1478 1478 1.00 1.00
15,670 SM5 1478 0 2 1478 0 1 1478 1 8472 1478 0 1 1.00 1.00
23 SM6 3763 0 4 3499 0 2 3499 0 3827 3499 0 1 0.93 1.00
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

1654 SM6 3499 0 3 3499 0 1 3587 3499 3763 3499 1 6235 3499 0 1 3499 3499 3499 1.00 1.00
15,670 SM6 3499 0 24 3499 0 1 3499 0 4770 3499 0 1 1.00 1.00
23 SM7 3842 0 3 3842 0 1 3842 1 7396 3842 0 1 1.00 1.00
1654 SM7 3847 0 6 3847 0 1 3844 3842 3847 3847 1 7920 3847 0 1 3844 3842 3847 1.00 1.00
15,670 SM7 3842 0 1 3842 0 1 3842 1 7596 3842 0 1 1.00 1.00
23 SM8 4238 0 11 4238 0 1 4238 0 4476 4238 0 1 1.00 1.00
1654 SM8 4238 0 1 4238 0 1 4238 4238 4238 4238 1 6129 4238 0 1 4238 4238 4238 1.00 1.00
15,670 SM8 4238 9 384 4238 0 1 4238 1 5473 4238 0 1 1.00 1.00
23 SM9 2873 0 7 2873 0 1 2873 1 6724 2873 0 1 1.00 1.00
1654 SM9 2873 0 1 2873 0 1 2873 2873 2873 2873 1 7347 2873 0 1 2873 2873 2873 1.00 1.00
15,670 SM9 2873 0 1 2873 0 1 2873 1 4936 2873 0 1 1.00 1.00

MD: GA SA GA MD/SA MD
56 1 111.0
Table 4
Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 ST0 2884 0 13 2884 0 1 2884 1 5271 2884 0 1 1.00 1.00


1654 ST0 2884 0 37 2884 0 1 2884 2884 2884 2884 1 6029 2884 0 1 2884 2884 2884 1.00 1.00
15,670 ST0 2884 0 3 2884 0 1 2884 1 5383 2884 0 1 1.00 1.00
23 ST1 3412 0 2 3412 0 1 3412 1 5597 3412 0 1 1.00 1.00
1654 ST1 3450 0 3 3412 0 3 3571 3412 3852 3412 1 5287 3412 0 1 3412 3412 3412 0.99 1.00
15,670 ST1 3852 0 2 3412 0 2 3412 1 8875 3412 0 1 0.89 1.00
23 ST2 5146 0 1 5003 0 2 5003 1 6136 5003 0 1 0.97 1.00
1654 ST2 5146 0 1 5003 0 2 5098 5003 5146 5003 1 10,139 5003 0 1 5003 5003 5003 0.97 1.00
15,670 ST2 5003 0 1 5003 0 1 5003 1 6371 5003 0 1 1.00 1.00
23 ST3 2705 2 83 2705 0 1 2705 1 6398 2705 0 1 1.00 1.00
1654 ST3 2705 0 3 2705 0 1 2745 2705 2824 2705 1 7128 2705 0 1 2705 2705 2705 1.00 1.00
15,670 ST3 2824 0 9 2705 0 2 2705 1 6714 2705 0 1 0.96 1.00
23 ST4 4337 0 4 4337 0 1 4337 0 4393 4337 0 1 1.00 1.00
1654 ST4 4337 0 3 4337 0 1 4337 4337 4337 4337 0 3291 4337 0 1 4403 4337 4535 1.00 1.00
15,670 ST4 4337 0 5 4337 0 1 4535 0 4526 4535 0 1 1.05 1.05
23 ST5 1489 0 2 1478 0 2 1478 2 9972 1478 0 1 0.99 1.00
1654 ST5 1478 0 3 1478 0 1 1482 1478 1489 1478 1 8070 1478 0 1 1478 1478 1478 1.00 1.00
15,670 ST5 1478 0 2 1478 0 1 1478 1 8408 1478 0 1 1.00 1.00
23 ST6 3499 0 11 3499 0 1 3499 0 3774 3499 0 1 1.00 1.00
1654 ST6 3499 0 4 3499 0 1 3499 3499 3499 3499 0 4540 3499 0 1 3499 3499 3499 1.00 1.00
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

15,670 ST6 3499 0 3 3499 0 1 3499 0 4121 3499 0 1 1.00 1.00


23 ST7 4118 0 3 4118 0 1 4118 1 6881 4118 0 1 1.00 1.00
1654 ST7 4118 0 18 4118 0 1 4118 4118 4118 4118 1 5609 4118 0 1 4118 4118 4118 1.00 1.00
15,670 ST7 4118 0 3 4118 0 1 4118 1 6168 4118 0 1 1.00 1.00
23 ST8 4544 0 14 4238 0 2 4238 0 3600 4238 0 1 0.93 1.00
1654 ST8 4238 0 1 4238 0 1 4340 4238 4544 4238 1 5750 4238 0 1 4238 4238 4238 1.00 1.00
15,670 ST8 4238 0 7 4238 0 1 4238 1 4921 4238 0 1 1.00 1.00
23 ST9 3299 0 2 3299 0 1 3299 1 7004 3299 0 1 1.00 1.00
1654 ST9 3299 0 2 3299 0 1 3437 3299 3713 3299 1 6059 3299 0 1 3299 3299 3299 1.00 1.00
15,670 ST9 3713 0 2 3707 0 2 3299 1 7676 3299 0 1 0.89 0.89

MD: GA SA GA MD/SA MD

143 20 7.2
67
Table 5 68

Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 ML0 8863 48 770 7379 0 3 7379 3 7989 7379 0 1 0.83 1.00


1654 ML0 8734 52 900 7379 0 3 8325 7379 8863 7379 2 5549 7379 0 1 7379 7379 7379 0.84 1.00
15,670 ML0 7379 4 77 7379 0 1 7379 3 7429 7379 0 1 1.00 1.00
23 ML1 10,715 4 65 10,317 0 2 10,317 3 7759 10,317 0 1 0.96 1.00
1654 ML1 11,624 2 45 10,317 0 3 11,009 10,688 11,624 10,317 2 6756 10,317 0 1 10,317 10,317 10,317 0.89 1.00
15,670 ML1 10,688 1 20 10,317 0 2 10,317 2 6623 10,317 0 1 0.97 1.00
23 ML2 12,770 2 46 11,828 0 3 11,985 4 10,805 11,828 0 2 0.94 1.00
1654 ML2 12,220 2 44 11,828 0 2 12,507 12,220 12,770 12,008 2 6441 11,828 0 2 11,940 11,828 12,008 0.98 1.00
15,670 ML2 12,530 247 4634 11,828 0 3 11,828 3 8001 11,828 0 1 0.94 1.00
23 ML3 9899 1 28 9218 0 2 9218 2 5324 9218 0 1 0.93 1.00
1654 ML3 10,191 5 96 9218 0 5 9977 9841 10,191 9218 4 10,765 9218 0 1 9218 9218 9218 0.90 1.00
15,670 ML3 9841 74 1391 9218 0 5 9218 3 7469 9218 0 1 0.94 1.00
23 ML4 8857 1 24 8857 0 1 8857 4 11,004 8857 0 1 1.00 1.00
1654 ML4 10,530 0 4 8857 0 5 9575 8857 10,530 8899 4 9556 8857 0 2 8871 8857 8899 0.85 1.00
15,670 ML4 9337 62 1125 8857 0 2 8857 2 6450 8857 0 1 0.95 1.00
23 ML5 10,912 31 517 9974 0 2 9974 3 8810 9974 0 1 0.91 1.00
1654 ML5 10,230 54 935 9974 0 2 10,372 9974 10,912 9974 2 6630 9974 0 1 9974 9974 9974 0.97 1.00
15,670 ML5 9974 42 782 9974 0 1 9974 3 8648 9974 0 1 1.00 1.00
23 ML6 9839 5 97 9224 0 2 9224 5 13,875 9224 0 1 0.94 1.00
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

1654 ML6 9534 1 26 9224 0 2 9703 9534 9839 9476 4 8813 9224 0 2 9308 9224 9476 0.99 1.00
15,670 ML6 9737 20 394 9224 0 2 9224 3 6922 9224 0 1 0.95 1.00
23 ML7 12,102 32 513 11,793 0 2 11,793 2 6488 11,793 0 1 0.97 1.00
1654 ML7 12,256 2 37 11,793 0 2 12,136 12,051 12,256 11,793 2 5939 11,793 0 1 11,793 11,793 11,793 0.96 1.00
15,670 ML7 12,051 3 63 11 793 0 2 11,793 2 5807 11,793 0 1 0.98 1.00
23 ML8 16,276 153 2431 14,295 0 3 14,353 2 5244 14,295 0 2 0.88 1.00
1654 ML8 14,757 3 56 14,295 0 2 15,292 14,757 16,276 14,295 2 5572 14,295 0 1 14,314 14,295 14,353 0.97 1.00
15,670 ML8 14,844 69 1286 14,295 0 3 14,295 3 6870 14,295 0 1 0.96 1.00
23 ML9 11,274 138 2232 10,282 0 4 10,282 3 8121 10,282 0 1 0.91 1.00
1654 ML9 11,513 2 33 10,282 0 4 11,109 10,540 11,513 10,282 3 8192 10,282 0 1 10,282 10,282 10,282 0.89 1.00
15,670 ML9 10,540 4 79 10,282 0 2 10,282 3 8637 10,282 0 1 0.98 1.00

MD: GA SA GA MD/SA MD
893 53 16.8
Table 6
Comparison of GA and SA with and without post-processor Seed Type GA alone

GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 MM0 9971 5 76 9492 0 3 8863 3 7800 8863 0 1 0.89 0.93


1654 MM0 8884 56 902 8884 0 1 9311 8884 9971 8830 2 7079 8830 0 1 8768 8611 8863 0.99 0.99
15,670 MM0 9077 4 87 9077 0 1 8611 3 7350 8611 0 1 0.95 0.95
23 MM1 11,016 38 646 10,317 0 4 10,317 3 7759 10,317 0 1 0.94 1.00
1654 MM1 12,027 1 32 10,317 0 6 11,244 10,688 12,027 10,317 2 6756 10,317 0 1 10,317 10,317 10,317 0.86 1.00
15,670 MM1 10,688 13 232 10,317 0 2 10,317 2 6623 10,317 0 1 0.97 1.00
23 MM2 15,226 0 12 12,392 0 4 12,326 5 13,221 12,146 0 2 0.81 0.98
1654 MM2 12,502 276 4796 12,146 0 2 13,299 12,169 15,226 12,146 3 9029 12,146 0 1 12,296 12,146 12,415 0.97 1.00
15,670 MM2 12,169 27 520 12,146 0 2 12,415 6 13,817 12,392 0 2 1.02 1.02
23 MM3 9218 3 52 9218 0 1 9218 2 5324 9218 0 1 1.00 1.00
1654 MM3 9334 3 56 9218 0 2 9482 9218 9894 9218 4 10,765 9218 0 1 9218 9218 9218 0.99 1.00
15,670 MM3 9894 22 408 9218 0 2 9218 3 7469 9218 0 1 0.93 1.00
23 MM4 8899 2 25 8857 0 2 8857 4 9600 8857 0 1 1.00 1.00
1654 MM4 9612 50 852 8857 0 4 9956 8899 11,358 8899 4 9680 8857 0 2 8871 8857 8899 0.93 1.00
15,670 MM4 11,358 1 26 8857 0 4 8857 4 9280 8857 0 1 0.78 1.00
23 MM5 11,992 8 125 11,280 0 2 10,441 4 9331 10,441 0 1 0.87 0.93
1654 MM5 10,973 54 955 10,441 0 2 11,135 10,441 11,992 10,441 3 7215 10,441 0 1 10,441 10,441 10,441 0.95 1.00
15,670 MM5 10,441 17 312 10,441 0 1 10,441 4 10,372 10,441 0 1 1.00 1.00
23 MM6 10,383 2 36 9224 0 3 9224 3 8092 9224 0 1 0.89 1.00
1654 MM6 9273 28 539 9224 0 2 10,355 9273 11,408 9224 2 5750 9224 0 1 9224 9224 9224 0.99 1.00
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

15,670 MM6 11,408 24 476 9224 0 5 9224 2 6957 9224 0 1 0.81 1.00
23 MM7 13,791 2 41 13,227 0 2 12,639 2 6678 12,639 0 1 0.92 0.96
1654 MM7 14,507 18 342 12,639 0 3 13,849 13,248 14,507 12,640 4 9445 12,640 0 1 12,692 12,639 12,797 0.87 1.00
15,670 MM7 13,248 1 19 12,640 0 3 12,797 2 4763 12,797 0 1 0.97 1.01
23 MM8 17,169 5 86 15,650 0 3 15,650 4 9483 15,650 0 1 0.91 1.00
1654 MM8 15,650 194 3419 15,650 0 1 16,690 15,650 17,251 16,018 3 7998 16,018 0 1 15,982 15,650 16,277 1.02 1.02
15,670 MM8 17,251 5 98 16,877 0 3 16,277 2 6580 16,277 0 1 0.94 0.96
23 MM9 11,408 26 416 10,864 0 3 10,864 3 9126 10,864 0 1 0.95 1.00
1654 MM9 11,649 4 79 10,864 0 3 11,465 11,338 11,649 10,793 4 9565 10,793 0 1 10,817 10,793 10,864 0.93 0.99
15,670 MM9 11,338 151 2745 10,864 0 3 10,793 4 11,863 10,793 0 1 0.95 0.99

MD: GA SA GA MD/SA MD
1548 142 10.9
69
70
Table 7
Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 MT0 10,729 3 55 10,690 0 2 9945 3 8729 9945 0 1 0.93 0.93


1654 MT0 11,344 4 61 11,069 0 2 10,673 9945 11,344 9808 4 9338 9808 0 1 9922 9808 10,012 0.86 0.89
15,670 MT0 9945 249 4335 9945 0 1 10,012 3 6807 10,012 0 1 1.01 1.01
23 MT1 12,028 61 1153 10,497 0 4 10,688 2 5789 10,497 0 2 0.89 1.00
1654 MT1 11,924 71 1186 10,817 0 3 11,711 11,180 12,028 10,497 3 6751 10,497 0 1 10,561 10,497 10,688 0.88 0.97
15,670 MT1 11,180 0 7 10,497 0 4 10,497 2 6357 10,497 0 1 0.94 1.00
23 MT2 12,515 251 4639 12,515 0 1 12,620 4 10,398 12,620 0 1 1.01 1.01
1654 MT2 13,079 2 48 12,867 0 2 12,770 12,515 13,079 12,922 3 7521 12,922 0 1 12,821 12,620 12,922 0.99 1.00
15,670 MT2 12,715 17 308 12,515 0 2 12,922 4 9213 12,922 0 1 1.02 1.03
23 MT3 13,336 2 40 10,783 0 2 9657 5 12,937 9657 0 1 0.72 0.90
1654 MT3 10,482 8 141 9657 0 3 11,231 9875 13,336 9773 3 6970 9657 0 2 9696 9657 9773 0.93 1.00
15,670 MT3 9875 2 44 9657 0 3 9657 3 8861 9657 0 1 0.98 1.00
23 MT4 11,815 1 20 9481 0 3 9212 3 8810 9212 0 1 0.78 0.97
1654 MT4 10,908 116 1898 9481 0 3 11,236 10,908 11,815 9254 3 7603 9212 0 2 9226 9212 9254 0.85 0.97
15,670 MT4 10,985 125 1953 9481 0 3 9212 3 7680 9212 0 1 0.84 0.97
23 MT5 11,379 135 2322 10,697 0 2 10,697 4 9030 10,697 0 1 0.94 1.00
1654 MT5 12,514 90 1475 11,490 0 2 11,530 10,697 12,514 10,697 3 6738 10,697 0 1 10,697 10,697 10,697 0.85 0.93
15,670 MT5 10,697 167 2921 10,697 0 1 10,697 3 6855 10,697 0 1 1.00 1.00
23 MT6 11,241 144 2677 9224 0 3 9224 3 6735 9224 0 1 0.82 1.00
1654 MT6 11,858 0 9 9224 0 3 11,752 11,241 12,156 9474 2 4598 9224 0 2 9307 9224 9474 0.80 1.00
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

15,670 MT6 12,156 7 143 9224 0 3 9224 2 6510 9224 0 1 0.76 1.00
23 MT7 15,201 72 1138 14,755 0 4 14,126 3 7985 14,126 0 1 0.93 0.96
1654 MT7 14,709 112 1857 14,201 0 4 14,971 14,709 15,201 14,126 3 8125 14,126 0 1 14,336 14,126 14,755 0.96 0.99
15,670 MT7 15,002 4 87 14,126 0 2 14,755 2 5468 14,755 0 1 0.98 1.04
23 MT8 18,515 102 1576 17,703 0 3 17,703 3 8054 17,703 0 1 0.96 1.00
1654 MT8 18,625 4 70 18,197 0 3 18,387 18,022 18,625 17,170 3 7576 17,170 0 1 17,458 17,170 17,703 0.92 0.94
15,670 MT8 18,022 0 11 17,047 0 3 17,500 4 10,234 17,401 0 2 0.97 1.02
23 MT9 11,338 127 1971 10,793 0 2 10,793 3 7565 10,793 0 1 0.95 1.00
1654 MT9 11,306 133 2170 10,793 0 2 11,572 11,306 12,073 10,793 3 7968 10,793 0 1 10,793 10,793 10,793 0.95 1.00
15,670 MT9 12,073 286 5032 10,793 0 3 10,793 3 8524 10,793 0 1 0.89 1.00

MD: GA SA GA MD/SA MD
1177 227 5.2
Table 8
Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 LL0 37,424 9 57 21,709 5 4 22,141 7 5272 21,709 2 2 0.59 1.00


1654 LL0 31,406 328 2018 21,709 5 4 32,668 29,174 37,424 22,141 12 9339 21,709 2 2 22,042 21,843 22,141 0.70 1.00
15,670 LL0 29,174 531 3597 21,709 5 4 21,843 12 9277 21,709 3 2 0.75 1.00
23 LL1 45,930 125 735 28,068 6 4 28,115 12 8560 28,068 3 2 0.61 1.00
1654 LL1 33,396 907 5511 28,068 5 3 41,299 33,396 45,930 28,115 12 8685 28,068 3 2 28,290 28,115 28,640 0.84 1.00
15,670 LL1 44,572 797 5306 28,068 6 4 28,640 14 10,316 28,068 3 2 0.64 1.00
23 LL2 26,872 174 1074 22,716 7 5 22,716 16 11,482 22,716 1 1 0.85 1.00
1654 LL2 31,778 15 92 22,716 3 3 28,365 26,446 31,778 22,716 18 13,866 22,716 1 1 22,938 22,716 23,381 0.71 1.00
15,670 LL2 26,446 241 1654 22,716 5 4 23,381 25 18,502 22,716 2 2 0.88 1.00
23 LL3 35,410 450 2690 25,546 5 4 25,748 8 5604 25,546 2 2 0.73 1.00
1654 LL3 37,385 521 3348 25,546 4 3 35,520 33,765 37,385 25,745 13 9110 25,546 2 2 25,732 25,702 25,748 0.69 1.00
15,670 LL3 33,765 24 167 25,546 4 3 25,702 7 5008 25,546 2 2 0.76 1.00
23 LL4 24,685 717 4431 19,684 4 3 19,684 11 8118 19,684 1 1 0.80 1.00
1654 LL4 22,355 314 1960 19,684 6 4 27,164 22,355 34,453 19,684 8 6038 19,684 1 1 19,684 19,684 19,684 0.88 1.00
15,670 LL4 34,453 117 792 19,684 5 4 19,684 7 5802 19,684 1 1 0.57 1.00
23 LL5 34,820 84 498 26,800 5 3 26,800 13 9380 26,800 1 1 0.77 1.00
1654 LL5 35,926 622 3724 26,800 4 3 34,543 32,884 35,926 26,800 9 6839 26,800 1 1 26,831 26,800 26,892 0.75 1.00
15,670 LL5 32,884 730 4750 26,800 5 3 26,892 10 7418 26,800 3 2 0.82 1.00
23 LL6 40,559 322 1927 32,045 4 3 32,168 17 12,626 32,045 3 2 0.79 1.00
1654 LL6 44,548 409 2511 32,045 5 4 43,142 40,559 44,548 32,045 14 10,051 32,045 1 1 32,086 32,045 32,168 0.72 1.00
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

15,670 LL6 44,320 24 161 32,045 5 4 32,045 10 6493 32,045 1 1 0.72 1.00
23 LL7 30,233 233 1430 22,753 6 5 22,753 10 7286 22,753 1 1 0.75 1.00
1654 LL7 28,535 273 1698 22,753 5 4 28,541 26,855 30,233 22,753 9 6634 22,753 1 1 22,753 22,753 22,753 0.80 1.00
15,670 LL7 26,855 117 810 22,753 6 5 22,753 12 8814 22,753 1 1 0.85 1.00
23 LL8 29,143 585 3508 21,422 6 4 21,491 22 15,556 21,422 3 2 0.74 1.00
1654 LL8 31,739 26 158 21,422 6 4 30,634 29,143 31,739 21,836 16 12,310 21,422 3 2 21,698 21,491 21,836 0.69 1.00
15,670 LL8 31,021 360 2381 21,422 7 5 21,767 13 9334 21,422 3 2 0.70 1.00
23 LL9 42,330 39 234 26,361 4 3 26,361 7 5026 26,361 1 1 0.62 1.00
1654 LL9 36,114 226 1376 26,361 6 5 37,279 33,394 42,330 26,361 11 8028 26,361 1 1 26,361 26,361 26,361 0.73 1.00
15,670 LL9 33,394 511 3443 26,361 7 5 26,361 14 9950 26,361 1 1 0.79 1.00

MD: GA SA GA MD/SA MD
6378 209 30.5
71
72
Table 9
Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 LM0 37,424 10 57 24,852 4 3 22,912 21 14,954 22,912 1 1 0.61 0.92


1654 LM0 31,406 318 2018 23,820 4 3 33,270 30,979 37,424 22,841 16 12,282 22,841 1 1 23,048 22,841 23,392 0.73 0.96
15,670 LM0 30,979 216 1455 23,959 5 4 23,392 12 8771 23,392 1 1 0.76 0.98
23 LM1 45,930 127 735 29,131 6 4 28,640 36 25,955 28,640 1 1 0.62 0.98
1654 LM1 38,559 134 819 34,468 4 3 45,083 38,559 50,760 28,640 9 6920 28,640 1 1 28,640 28,640 28,640 0.74 0.83
15,670 LM1 50,760 508 3257 36,823 6 4 28,640 13 10,270 28,640 1 1 0.56 0.78
23 LM2 26,949 351 2150 23,311 2 2 23,437 14 10,194 23,437 1 1 0.87 1.01
1654 LM2 28,275 207 1334 23,311 4 3 28,523 26,949 30,344 23,629 16 11,580 23,568 2 2 23,545 23,437 23,629 0.84 1.01
15,670 LM2 30,344 179 1197 25,656 3 3 23,568 16 12,099 23,568 1 1 0.78 0.92
23 LM3 35,410 442 2690 26,536 3 3 25,748 8 5623 25,651 3 2 0.73 0.97
1654 LM3 37,385 538 3348 25,675 4 3 35,520 33,765 37,385 25,675 14 10,195 25,675 1 1 25,699 25,675 25,748 0.69 1.00
15,670 LM3 33,765 24 167 26,536 5 4 25,675 11 8097 25,675 1 1 0.76 0.97
23 LM4 24,245 933 5597 20,546 6 4 21,286 14 9675 20,953 3 2 0.88 1.02
1654 LM4 23,666 440 2790 23,058 3 2 27,126 23,666 33,468 21,004 13 9882 20,953 3 2 21,697 21,004 22,801 0.89 0.91
15,670 LM4 33,468 109 744 26,396 8 6 22,801 7 5312 22,801 1 1 0.68 0.86
23 LM5 34,820 86 498 26,800 4 3 26,800 13 9380 26,800 1 1 0.77 1.00
1654 LM5 35,926 610 3724 26,800 4 3 34,543 32,884 35,926 26,800 9 6839 26,800 1 1 26,831 26,800 26,892 0.75 1.00
15,670 LM5 32,884 721 4750 26,800 5 3 26,892 10 7418 26,800 3 2 0.82 1.00
23 LM6 40,429 186 1112 37,525 2 2 37,683 12 8598 36,600 3 2 0.93 0.98
1654 LM6 44,548 402 2511 37,437 4 3 44,188 40,429 47,587 36,687 13 9707 35,879 3 2 37,081 36,687 37,683 0.82 0.96
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

15,670 LM6 47,587 25 169 41,431 4 3 36,872 12 9143 36,712 3 2 0.77 0.89
23 LM7 37,631 16 103 32,478 4 3 27,250 16 11,191 25,314 5 4 0.72 0.78
1654 LM7 35,751 253 1628 33,313 8 6 34,050 28,769 37,631 25,314 14 10,792 25,314 1 1 26,099 25,314 27,250 0.71 0.76
15,670 LM7 28,769 570 3893 25,737 6 5 25,733 11 8533 25,733 1 1 0.89 1.00
23 LM8 29,143 593 3508 21,435 6 4 21,836 10 7584 21,435 3 2 0.75 1.00
1654 LM8 31,739 24 158 21,435 6 4 30,634 29,143 31,739 21,836 17 12,322 21,435 3 2 21,813 21,767 21,836 0.69 1.00
15,670 LM8 31,021 356 2381 21,435 7 5 21,767 12 9396 21,435 3 2 0.70 1.00
23 LM9 38,957 48 285 31,697 7 5 30,953 14 9575 30,953 1 1 0.79 0.98
1654 LM9 41,144 94 595 29,745 4 3 38,306 34,818 41,144 30,359 18 13,255 30,359 1 1 30,408 29,912 30,953 0.74 1.02
15,670 LM9 34,818 202 1379 31,293 4 3 29,912 11 8015 29,842 3 2 0.86 0.95

MD: GA SA GA MD/SA MD
6345 675 9.4
Table 10
Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 LT0 38,222 500 3148 25,207 7 5 26,764 16 11,386 26,764 1 1 0.70 1.06
1654 LT0 35,584 519 3232 29,121 6 4 36,181 34,737 38,222 25,661 23 16,904 25,524 4 3 25,904 25,286 26,764 0.72 0.88
15,670 LT0 34,737 72 474 29,777 3 2 25,286 14 9989 25,286 1 1 0.73 0.85
23 LT1 49,532 103 639 39,370 8 5 32,969 25 17,111 32,969 1 1 0.67 0.84
1654 LT1 42,310 672 4083 40,086 3 2 50,503 42,310 59,666 33,582 20 14,930 33,582 1 1 33,499 32,969 33,945 0.79 0.84
15,670 LT1 59,666 594 3880 38,367 4 3 33,945 26 18,826 33,889 3 2 0.57 0.88
23 LT2 29,481 1362 8414 27,516 2 2 25,425 16 11,607 25,425 1 1 0.86 0.92
1654 LT2 31,391 38 239 25,465 6 5 31,312 29,481 33,064 26,147 18 13,689 25,425 4 3 25,698 25,425 26,147 0.83 1.00
15,670 LT2 33,064 407 2751 28,326 5 4 25,522 28 20,436 25,161 2 2 0.77 0.89
23 LT3 36,770 25 160 27,585 5 4 28,975 15 10,406 28,517 4 3 0.79 1.03
1654 LT3 37,972 512 3186 32,605 4 3 39,617 36,770 44,108 28,533 11 7705 27,497 2 2 28,993 28,533 29,470 0.75 0.84
15,670 LT3 44,108 163 1089 33,961 4 3 29,470 10 7778 27,364 2 2 0.67 0.81
23 LT4 26,411 522 3220 23,702 4 3 25,070 14 9961 25,070 1 1 0.95 1.06
1654 LT4 32,108 84 523 26,634 7 5 33,376 26,411 41,608 27,296 8 5945 26,621 3 2 26,803 25,070 28,043 0.85 1.00
15,670 LT4 41,608 17 115 31,768 7 5 28,043 11 8200 27,691 3 2 0.67 0.87
23 LT5 40,165 495 2889 35,102 5 3 27,815 10 6855 27,815 1 1 0.69 0.79
1654 LT5 39,488 193 1157 27,815 8 5 38,417 35,598 40,165 30,395 9 6674 30,395 1 1 28,675 27,815 30,395 0.77 1.09
15,670 LT5 35,598 155 1005 31,072 6 4 27,815 11 7951 27,815 1 1 0.78 0.90
23 LT6 48,817 482 2912 42,428 2 2 40,959 12 8508 38,963 2 2 0.84 0.92
1654 LT6 53,795 280 1714 45,685 4 3 51,488 48,817 53,795 43,203 9 6954 42,936 3 2 41,127 39,220 43,203 0.80 0.94
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

15,670 LT6 51,851 30 196 46,875 4 3 39,220 8 5841 39,014 4 3 0.76 0.83
23 LT7 39,698 523 3271 34,805 5 4 29,500 14 9351 29,142 2 2 0.74 0.84
1654 LT7 41,363 267 1700 32,852 6 5 39,754 38,201 41,363 29,621 10 7486 29,053 2 2 29,957 29,500 30,751 0.72 0.88
15,670 LT7 38,201 82 547 31,790 6 5 30,751 10 7246 30,370 2 2 0.80 0.96
23 LT8 26,492 151 914 24,717 3 2 23,087 11 8146 22,755 3 2 0.87 0.92
1654 LT8 34,806 331 2056 23,810 7 5 28,872 25,317 34,806 22,755 12 8766 22,755 1 1 22,866 22,755 23,087 0.65 0.96
15,670 LT8 25,317 684 4516 22,755 3 2 22,755 76 56,289 22,755 1 1 0.90 1.00
23 LT9 44,083 327 2016 39,093 6 4 32,955 9 6708 32,795 3 2 0.75 0.84
1654 LT9 42,420 44 275 34,288 7 5 43,772 42,420 44,813 31,961 9 6497 31,951 3 2 32,036 31,191 32,955 0.75 0.93
15,670 LT9 44,813 745 4844 33,827 7 5 31,191 9 7262 31,191 1 1 0.70 0.92

MD: GA SA GA MD/SA MD
7155 1700 4.2
73
Table 11 74

Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 VT0 379,921 1038 1029 258,822 371 6 306,349 484 63,155 265,041 318 5 0.81 1.02
1654 VT0 386,262 888 823 261,377 505 8 377,451 366,171 386,262 302,467 303 39,174 280,423 257 4 306,758 302,467 311,459 0.78 1.07
15670 VT0 366,171 1131 1054 273,025 310 5 311,459 236 30,672 279,033 320 5 0.85 1.02
23 VT1 398,946 927 917 286,833 378 6 308,886 527 68,379 252,643 458 7 0.77 0.88
1654 VT1 380,644 880 826 251,653 380 6 379,616 359,258 398,946 274,755 505 66,325 261,951 260 4 291,628 274,755 308,886 0.72 1.04
15670 VT1 359,258 1262 1164 261,655 317 5 291,244 346 44,814 272,705 194 3 0.81 1.04
23 VT2 465,190 1086 1024 320,868 371 6 301,392 446 57,227 289,845 257 4 0.65 0.90
1654 VT2 464,348 1592 1478 313,718 368 6 462,907 459,183 465,190 324,736 573 74,322 303,856 251 4 324,032 301,392 345,967 0.70 0.97
15670 VT2 459,183 978 967 298,561 426 7 345,967 389 50,804 308,759 376 6 0.75 1.03
23 VT3 549,915 744 704 365,728 448 7 391,837 305 39,456 356,379 270 4 0.71 0.97
1654 VT3 529,221 1464 1340 359,632 589 9 530,694 512,945 549,915 398,681 366 46,775 362,204 268 4 395,659 391,837 398,681 0.75 1.01
15670 VT3 512,945 1356 1323 365,750 384 6 396,460 396 51,596 355,547 266 4 0.77 0.97
23 VT4 461,443 1168 1165 301,050 352 6 346,096 293 37,485 300,506 242 4 0.75 1.00
1654 VT4 477,378 1251 1173 329,916 299 5 465,009 456,207 477,378 311,474 251 32,296 290,779 368 6 320,856 304,999 346,096 0.65 0.88
15670 VT4 456,207 1470 1502 308,683 348 6 304,999 381 50,170 291,837 242 4 0.67 0.95
23 VT5 549,066 1450 1387 323,521 578 9 321,457 278 35,907 299,759 323 5 0.59 0.93
1654 VT5 542,321 1270 1168 359,232 386 6 532,869 507,221 549,066 339,759 439 57,492 323,305 195 3 335,916 321,457 346,532 0.63 0.90
15670 VT5 507,221 779 792 337,148 502 8 346,532 445 58,367 304,598 390 6 0.68 0.90
23 VT6 325,907 752 708 215,922 454 7 233,477 375 49,014 220,503 399 6 0.72 1.02
1654 VT6 327,594 1221 1112 225,703 252 4 327,859 325,907 330,075 211,216 336 43,870 192,102 400 6 228,851 211,216 241,861 0.64 0.85
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

15670 VT6 330,075 1211 1217 212,628 377 6 241,861 348 45,570 204,799 461 7 0.73 0.96
23 VT7 465,531 1139 1047 276,163 373 6 273,214 314 40,805 255,068 257 4 0.59 0.92
1654 VT7 421,220 1231 1115 261,740 512 8 435,038 418,364 465,531 278,987 385 50,452 262,204 321 5 275,746 273,214 278,987 0.66 1.00
15670 VT7 418,364 954 955 254,021 366 6 275,037 400 52,554 261,917 254 4 0.66 1.03
23 VT8 374,941 1196 1142 257,195 416 7 282,164 436 56,466 251,557 425 7 0.75 0.98
1654 VT8 376,410 1087 1008 251,813 477 8 373,221 368,313 376,410 264,979 430 56,456 248,979 247 4 273,064 264,979 282,164 0.70 0.99
15670 VT8 368,313 1149 1201 246,255 346 6 272,048 515 66,916 257,751 185 3 0.74 1.05
23 VT9 456,200 655 612 328,717 366 6 304,122 373 48,617 295,743 185 3 0.67 0.90
1654 VT9 472,409 1034 950 326,411 423 7 460,059 451,568 472,409 381,610 326 42,825 346,325 245 4 353,227 304,122 381,610 0.81 1.06
15670 VT9 451,568 1222 1271 348,839 354 6 373,948 368 48,856 347,802 242 4 0.83 1.00

MD: GA SA GA MD/SA MD
24,605 29,181 0.8
Table 12
Comparison of GA and SA with and without post-processor

Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA

$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP

23 ET0 2,020,942 1885 538 1,297,607 4218 7 1,631,576 3156 99,036 1,350,830 5723 9 0.81 1.04

1654 ET0 1,978,530 4115 1216 1,257,914 4848 8 1,988,536 1,966,137 2,020,942 1,630,750 2497 81,788 1,295,525 3615 6 1,607,624 1,560,547 1,631,576 0.82 1.03

15,670 ET0 1,966,137 3251 979 1,289,989 4181 7 1,560,547 3029 94,566 1,420,096 3224 5 0.79 1.10

23 ET1 2,386,790 3481 1033 1,430,683 4897 8 1,945,537 2289 72,564 1,380,269 8343 13 0.82 0.96

1654 ET1 2,306,537 3341 987 1,459,942 6839 11 2,283,600 2,157,473 2,386,790 1,929,290 2413 79,260 1,565,344 3746 6 1,892,706 1,803,292 1,945,537 0.84 1.07

15670 ET1 2,157,473 4958 1482 1,360,838 6174 10 1,803,292 3573 112,425 1,491,261 3837 6 0.84 1.10

23 ET2 2,054,344 3435 1006 1,366,174 6135 10 1,769,090 3998 128,001 1,494,054 3091 5 0.86 1.09

1654 ET2 2,352,249 1813 541 1,422,893 2914 5 2,218,761 2,054,344 2,352,249 1,861,232 2911 95,816 1,467,005 3659 6 1,842,073 1,769,090 1,895,896 0.79 1.03

15,670 ET2 2,249,689 2908 865 1,393,678 3506 6 1,895,896 2882 90,847 1,445,538 6820 11 0.84 1.04

23 ET3 2,023,379 3333 987 1,325,892 5535 9 1,633,581 3392 109,539 1,359,744 3769 6 0.81 1.03

1654 ET3 2,137,007 1369 411 1,238,295 4181 7 2,015,746 1,886,853 2,137,007 1,904,870 2718 88,043 1,495,521 5778 9 1,751,237 1,633,581 1,904,870 0.89 1.21

15,670 ET3 1,886,853 3630 1077 1,267,254 4907 8 1,715,261 2028 66,099 1,308,137 6314 10 0.91 1.03
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

23 ET4 1,864,642 5585 1659 1,294,855 4322 7 1,622,850 3414 112,199 1,347,749 3762 6 0.87 1.04

1654 ET4 2,044,520 2398 720 1,229,376 4204 7 1,919,343 1,848,867 2,044,520 1,567,012 3043 95,709 1,371,919 3862 6 1,605,771 1,567,012 1,627,450 0.77 1.12

15,670 ET4 1,848,867 2968 885 1,296,824 3617 6 1,627,450 3476 113,374 1,389,260 3775 6 0.88 1.07

MD: GA SA GA MD/SA MD

205,567 134,361 1.5


75
76 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

Tabla 13
solución LR con y sin Tipo post-procesador

LM solos LM / PP

Lagrange PS UPC ESO PS UPC ESO

(L obligado) (U obligado) (U obligado)

ST0 2650 3080 0 4 3035 0 3


ST1 3412 3412 0 1 3412 0 1
ST2 4901 5003 0 2 5003 0 1
ST3 2536 2705 0 44 2705 0 1
ST4 4137 4535 0 33 4535 0 1
ST5 1478 1478 0 1 1478 0 1
ST6 3495 3499 0 32 3499 0 1
ST7 3957 4118 0 9 4118 0 1
ST8 4238 4238 0 1 4238 0 1
ST9 3023 3299 0 4 3299 0 1
SM0 2629 2629 0 1 2629 0 1
SM1 3412 3412 0 1 3412 0 1
SM2 4883 4883 0 1 4883 0 1
SM3 2445 2517 0 2 2517 0 1
SM4 3040 3069 0 43 3069 0 1
SM5 1478 1478 0 1 1478 0 1
SM6 3473 3499 0 7 3499 0 1
SM7 3732 3847 0 165 3847 0 1
SM8 4238 4238 0 1 4238 0 1
SM9 2873 2873 0 1 2873 0 1
SL0 2629 2629 0 1 2629 0 1
SL1 3412 3412 0 1 3412 0 1
SL2 4883 4883 0 1 4883 0 1
SL3 2443 2443 0 1 2443 0 1
SL4 2904 2904 0 1 2904 0 1
SL5 1478 1478 0 1 1478 0 1
SL6 3438 3438 0 1 3438 0 1
SL7 3571 3571 0 1 3571 0 1
SL8 4238 4238 0 1 4238 0 1
SL9 2873 2873 0 1 2873 0 1
MT0 9539 10608 0 51 9945 0 3
MT1 10445 10497 0 8 10497 0 1
MT2 12.325 12642 0 113 12620 0 3
MT3 9400 9773 0 6 9657 0 2
MT4 9037 9212 0 6 9212 0 1
MT5 10600 10697 0 4 10697 0 1
MT6 9224 9224 0 1 9224 0 1
MT7 13699 14400 0 26 14201 0 4
MT8 16523 17.940 0 30 17784 0 3
MT9 10640 10793 0 27 10793 0 1
MM0 8248 9526 0 24 8863 0 3
MM1 10317 10317 0 1 10317 0 1
MM2 12025 12303 0 4 12146 0 2
MM3 9218 9218 0 1 9218 0 1
MM4 8857 8857 0 1 8857 0 1
MM5 10146 10441 0 8 10441 0 1
MM6 9224 9224 0 1 9224 0 1
MM7 12154 13203 0 7 12639 0 3
MM8 15506 15650 0 6 15650 0 1
MM9 10356 10793 0 3 10793 0 1
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80 77

Tabla 14
soluciones LR con y sin Tipo post-procesador

LM alone LM/PP

Lagrangian $ CPU IT $ CPU IT


(L bound) (U bound) (U bound)

ML0 7379 7379 0 1 7379 0 1


ML1 10,317 10,317 0 1 10,317 0 1
ML2 11,828 11,828 0 1 11,828 0 1
ML3 9218 9218 0 1 9218 0 1
ML4 8857 8857 0 1 8857 0 1
ML5 9974 9974 0 1 9974 0 1
ML6 9224 9224 0 1 9224 0 1
ML7 11,793 11,793 0 1 11,793 0 1
ML8 14,295 14,295 0 1 14,295 0 1
ML9 10,282 10,282 0 1 10,282 0 1
LT0 21,709 NFS 0 0 33,456 8 5
LT1 28,068 NFS 0 0 44,786 10 6
LT2 24,499 25,158 0 47 25,158 1 1
LT3 25,546 NFS 0 0 35,392 7 5
LT4 19,684 NFS 0 0 31,292 10 7
LT5 26,800 NFS 0 0 33,251 7 4
LT6 32,045 NFS 0 0 45,028 4 3
LT7 28,418 31,208 0 74 30,442 4 3
LT8 21,422 NFS 0 0 27,472 6 4
LT9 26,911 NFS 0 0 32,476 12 8
LM0 22,220 22,759 0 10 22,759 1 1
LM1 28,257 28,640 0 3 28,640 1 1
LM2 23,161 23,609 0 9 23,311 2 2
LM3 25,548 25,651 0 2 25,651 1 1
LM4 20,399 20,953 0 6 20,953 1 1
LM5 26,800 26,800 0 1 26,800 1 1
LM6 32,045 NFS 0 0 42,882 4 3
LM7 24,642 25,697 0 29 25,627 4 3
LM8 21,427 21,435 0 15 21,435 1 1
LM9 27,570 28,411 0 27 28,345 3 2
LL0 21,709 21,709 0 1 21,709 1 1
LL1 28,068 28,068 0 1 28,068 1 1
LL2 22,716 22,716 0 1 22,716 1 1
LL3 25,546 25,546 0 1 25,546 1 1
LL4 19,684 19,684 0 1 19,684 1 1
LL5 26,800 26,800 0 1 26,800 1 1
LL6 32,045 32,045 0 1 32,045 1 1
LL7 22,753 22,753 0 1 22,753 1 1
LL8 21,422 21,422 0 1 21,422 1 1
LL9 26,361 26,361 0 1 26,361 1 1
VT0 172,383 NFS 0 0 284,172 436 7
VT1 153,262 NFS 0 0 298,659 332 5
VT2 197,173 NFS 0 0 323,155 312 5
VT3 226,203 NFS 0 0 361,568 463 7
VT4 235,920 238,532 3 200 237,726 240 4
VT5 263,695 267,142 3 186 266,766 131 2
VT6 145,821 NFS 0 0 228,978 461 7
VT7 183,387 NFS 0 0 303,633 507 8
VT8 156486 NFS 0 0 254477 482 8
VT9 251891 261683 2 116 259892 182 3
78 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80

Tabla 15
soluciones LR con y sin Tipo post-procesador

LM solos LM / PP

Lagrange PS UPC ESO PS UPC ESO

(L obligado) (U obligado) (U obligado)

ET0 559571 NFS 0 0 1327991 4396 7


ET1 617744 NFS 0 0 1568024 3881 6
ET2 555925 NFS 0 0 1562365 3170 5
ET3 540811 NFS 0 0 1371161 3791 6
ET4 528204 NFS 0 0 1343248 4489 7

sensible a la semilla de partida de SA para la mayoría de problemas. tions. Furthermore, the lower bound is so loose for most of these
problems, that it is virtually useless.
Las Tablas 13 ± 15 muestran los resultados del algoritmo LR
para estos mismos problemas. Desde LR no tiene aspecto
probabilístico, el `` semilla '' no es aplicable. La columna etiquetada
`` LAGRANGIANO '' es el valor máximo del problema de Lagrange 9. Summary and conclusions
obtenido, que es un límite inferior en el valor óptimo de MRGAPS-1.
La columna $ de la izquierda es la MRGAPS-1 más bajos coste de tiempos y costos de instalación reducidos son comúnmente

todas las soluciones a los problemas de Lagrange que son factibles in aceptados como una ventaja competitiva en entornos de

MRGAPS-1. (``NFS'' indicates that no feasible solution was fabricación de hoy en día. Los modelos estudiados en este trabajo

obtained.) This is obviously an upper bound on the optimal value of mejoran la investigación anterior, proporcionando los gerentes de

MRGAPS-1. ``CPU'' and ``IT'' are the seconds and iterations to ®nd producción / operaciones con herramientas de programación que

the best solution toMRGAPS-1. Note that the CPU seconds is less se aprovechan de los costes de instalación reducidos. Nuestros

than 1 in most cases. modelos permiten la división por lotes o por el comercio ?? el costo
de configuraciones adicionales con costes de procesamiento
reducidos. Entre los tres procedimientos de solución estudiados,
SA ha obtenido mejores resultados cuando las disponibilidades de

The right-most columns of Table 3 show the ®nal cost, extra recursos fueron bien o moderadamente restringidas, superando GA

CPU seconds, and iterations for the post-processor working on the y el procedimiento tradicional de LR. Sin embargo, el

best feasible solution found for MRGAPS-1. (If a feasible solution post-procesador menudo difumina la di ?? erences entre los

was never found by LR, the solution that maximized the Lagrangian algoritmos. LR se obtienen mejores resultados cuando las

was used to start the post-processor.) limitaciones de capacidad estaban sueltos; esto es consistente con
Gavish y Pirkul (1991) quienes encontraron que la LR se comportó
bien para una versión del problema donde no se permite la división

The LR algorithm is very fast for small and medium size por lotes.

problems and for loosely and moderately constrained problems. It


appears fast (CPU time • 0) for other problems, but note that a value
of 0 is shown if no feasible solution was found in 120 s (240 s for
extremely large problems). It is intuitive that LR is e•ective for
loosely constrained problems, since most multipliers are
referencias

0. However, for large tight, very large tight, and extremely large tight Aarts, E., Korst, J., 1989. Simulated Annealing y Boltzmann
Máquinas, Wiley, Chichester, Reino Unido. Abramson, D., 1991. Los horarios
problems LR alone often does not produce useful solutions,
escolares Construir utilizando
although with the post-processor it can produce excellent solu- recocido simulado: secuencial y algoritmos paralelos. Management Science 37
(1), 98 ± 113.
L.J. LeBlanc et al. / European Journal of Operational Research 112 (1999) 54±80 79

Aytug, H., Koehler, G., Snowdon, J., 1994. genética de aprendizaje Gavish, B., Pirkul, H., 1986. informática y base de datos de ubicación
programación dinámica dentro de un entorno de simulación. Las computadoras y en los sistemas informáticos distribuidos. IEEE Transactions on Computers 35 (7),
la investigación de operaciones 21 (8), 909 ± 925. Balas, E., Zemel, E., 1980. Un 583 ± 590.
algoritmo para gran cero ± una Gavish, B., Pirkul, H., 1991. Algoritmos para la multi-recursos
knapsack problems. Operations Research 28 (5), 1130± problema de asignación generalizada. Gestión de la Ciencia 36 (6), 695 ± 713.
1154.
Barr, R.S., Glover, F., Klingman, D., 1981. A new optimization Goldberg, DE, 1989. Los algoritmos genéticos en la búsqueda. optimización
method for large scale ®xed charge transportation problems. Operations ción y aprendizaje automático. Adison-Wesley, Reading, 2ª ed.
Research 29 (3), 448±463.
Bazarra, M., Shetty, C.M., 1979. Nonlinear Programming: Hadj-Alouane, AB, Bean, JC, 1993. Un algoritmo genético para
Theory and Algorithms, Wiley, New York. el programa entero de opción múltiple. Departamento de Ingeniería Industrial y de
Ben-Daya, M., Al-Fawzan, M., 1996. A simulated annealing Operaciones, de la Universidad de Michigan, Ann Arbor, MI 48109-2117, Informe
approach for the one machine mean tardiness scheduling problem. European Técnico 92-50.
Journal of Operational Research 93 (1), 61±67.
Hadj-Alouane, AB, Bean, JC, Murty, K., 1993. Un híbrido
Biegel, J.E., Davern, J.J., 1990. Genetic algorithms and job Genetic/Optimization Algorithm for the Task Allocation Problem, Department of
shop scheduling. Computers and Industrial Engineering 19 (1±4), 81±91. Industrial and Operations Engineering, The University of Michigan, Ann Arbor, MI
48109-2117, Technical Report 93-30. Hajek, B., 1988. Cooling schedules for
Chakravarty, A., Shtub, A., 1990. Production scheduling optimal annealing.
during phased implementation of ¯exible manufacturing cells. IIE Transactions 22
(4), 292±299. Mathematics of Operations Research 3, 311±329. Hillier, F.S., Lieberman, G.J.,
Cohoon, J.P., Hegde, S.U., Martin, W.N., Richards, D.S., 1980. Operations Research, 3rd
1991. Distribuido algoritmos genéticos para el problema de diseño ¯oorplan. IEEE ed., Holden-Day, San Francisco. Hou, E.S.H., Li, H.Y., 1991. Task Scheduling for
Transactions on Computer-Aided Design 10 (3), 483 ± 492. Flexible
Manufacturing Systems Based on Genetic Algorithms. Proceedings of the 1991
Coit, D., Smith, A., Tate, D., 1994. restringida genética IEEE International Conference on Systems, Man, and Cybernetics, pp. 397±402.
Optimización mediante una función de penalización adaptativa, presentado en Huang, M., Romeo, F., Sangiovanni-Vincentelli, A.L., 1986.
Detroit ORSA / TIMS (WA26.2).
Connolly, D., 1990. Un mejoró esquema de recocido para la An E•cient Cooling Schedule for Simulated Annealing. Proceedings of
PGC. European Journal of Operational Research 46 (1), 93 ± 100. International Conference on Computer Aided Design, Santa-Clara, CA, pp.
381±384. Johnson, D.S., Aragon, C.A., McGeoch, L.A., Schevon, C.,
Davis, L., tienda de 1985. Trabajo programación con algoritmos genéticos.
Actas de una conferencia internacional sobre algoritmos genéticos y sus 1989. Optimization by simulated annealing: An experimental evaluation, Part 1.
aplicaciones, pp. 136 ± 140. Davis, L., Coombs, S., 1987. Los algoritmos genéticos y Graph Partitioning, Operations Research 37 (6), 865±892.
comu-
caciones enlazan velocidad de diseño. Actas de la Segunda Conferencia Kim, H., Nara, K., Gen, M., 1994. A method for maintenance
Internacional sobre algoritmos genéticos y sus aplicaciones, pp. 252 ± 256. scheduling using GA combined with SA. Computers and Industrial Engineering 27
(1±4), 477±480. Kim, J., Kim, Y., 1996. Simulated annealing and genetic
Fetterolf, P., Anandalingam, G., 1991. Optimización de interco-
nection of local area networks: A simulated annealing approach. ORSA Journal on algorithms for scheduling products with multi-level product structure. Computers
Computing 3, 275±287. Fetterolf, P., Anandalingam, G., 1992. Optimal design of and Operations Research 23 (9), 857±
868.
LAN±WAN internetworks. Annals of Operations Research Kirkpatrick, S., Gelatt, C., Vecchi, M., 1983. Optimization by
36, 275±298. simulated annealing. Science 220, 671±680. Klastorin, T.D., 1979. An e•ective
Friesz, T.L., Cho, H.J., Mehta, N.J., Tobin, R.L., Anandalin- subgradient algorithm for
gam, G., 1993. A simulated annealing approach to the network design problem the generalized assignment problem. Computers and Operations Research 6,
with variational inequality constraints. Transportation Science 2 (6), 18±26. 155±163.
Gangadharan, R., Chandrasekharan, R., 1994. A simulated Kumar, N., Srinivasan, G., 1996. A genetic algorithm for job
shop scheduling: A case study. Computers in Industry 31 (2), 155±160.
annealing heuristic for scheduling in a ¯owshop with bicriteria. Computers and
Industrial Engineering 27 (1), 473±476. Lundy, M., Mees, A., 1986. Convergence of an annealing
algorithm. Mathematical Programming 34, 14±124. Martello, S., Toth, P., 1977. An
Gavish, B., Pirkul, H., 1982. Allocation of databases and upper bound for the zero±
processors in a distributed computing system. In: Akoka, J. (Ed.), Management of one knapsack problem and a branch and bound algorithm. European Journal of
Distributed Data Processing. North Holland, Amsterdam. Operational Research 1 (3), 168±175.
80 L.J. LeBlanc et al. / European Journal of Operational Research 112 (1999) 54±80

Mathieu, R., Pittard, L., Anandalingam, G., 1994. Genetic Ross, G.T., Soland, R.M., 1975. A branch and bound
algorithm based approach to bilevel linear programming. RAIRO-Recherche algorithm for the generalized assignment problem. Mathematical Programming 8,
Operationelle 28 (1), 1±21. Metropolis, N., Rosenbluth, A., Rosenbluth, M., Teller, A., 91±103. Schmidt, L., Jackman, J., 1995. Evaluating assembly sequences

Teller, E., 1953. La ecuación de estado de cálculo de máquinas de computación for automobile assembly systems. IIE Transactions 27 (1), 23±31.
rápidas. Diario de la Química Física 21, 1087 ±
1091. Sieglemann, H.T., Frieder, O., 1991. The allocation of docu-
Murata, T., Ishibuchi, H., Tanaka, H., 1996. algo- Genetic ments in multiprocessor information retrieval systems: An application of genetic
ritmos para problemas de programación tienda OW. Computadoras e Ingeniería algorithms. Proceedings of the 1991 IEEE International Conference on Systems,
Industrial 30 (4), 1061 ± 1071. Man, and Cybernetics, pp. 645±650.
Murphy, RA, 1986. Un modelo flota privada con Multi-Stop
Backhaul, Documento de trabajo 103, Sistemas de decisión óptima, Green Bay, Smith, K., Palaniswami, M., Krishnamoorthy, M., 1996.
WI 54306. Tactical heuristic versus Hop®eld neural network approaches to a car sequencing
Nauss, RM, 1976. Un e ?? algoritmo ciente para la mochila 0 ± 1 problem. European Journal of Operational Research 93 (2), 300±316.
problema. Gestión de la Ciencia 23 (1), 27 ± 31. Ohno, T., 1988. Sistema de So®anopoulos, S., 1992. Simulated annealing applied to the
Producción Toyota, allá en gran
Producción escala. Productivity Press, Cambridge. Otten, R., Van Ginnekan, L., processor allocation problem. European Journal of Operational Research 60 (3),
1984. Diseño Plano de Uso 327±334. Vancza, J., Markus, A., 1991. Genetic algorithms in process
SA. Actas del IEEE Conferencia sobre diseño asistido por ordenador, Santa Clara,
CA, 96 ± 98. planning. Computers In Industry 17 (2±3), 181±194. Vernekar, A., Anandalingam,
Pearl, J., 1984. La heurística: inteligentes estrategias de búsqueda para G., Dorny, C.N., 1990. Optimi-
Computer Problem Solving. Addison-Wesley, Reading. Pirkul, H., 1986. An integer zation of resource location in hierarchical computer networks. Computers and
programming model for the Operations Research 17 (4), 375±
allocation of databases in a distributed computer system. European Journal of 388.
Operational Research 26 (3), 401±411. Ray, T., Gokarn, R., Sha, O., 1995. A global Wilhelm, M.R., Ward, T.L., 1987. Solving quadratic assign-
optimization ment problems by simulated annealing. IIE Transactions 9 (1), 107±119.
model for ship design. Computers in Industry 26 (2), 175±
192. Zegordi, S., Itoh, K., Enkawa, T., 1995. Minimizing makespan
Reeves, C., 1995. A genetic algorithm for ¯owshop sequencing. for ¯owshop scheduling by combining simulated annealing with sequencing
Computers and Operations Research 22 (1), 5±13. Romero, D., Sanchez-Flores, knowledge. European Journal of Operational Research 85 (3), 515±531.
A., 1990. Methods for the one-
dimensional space allocation problem. Computers and Operations Research 17
(5), 465±473.

Potrebbero piacerti anche