Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Teoría y Metodología
Resumen
problemas de planificación de la producción con frecuencia implican la asignación de puestos de trabajo u operaciones a las máquinas. El modelo más simple de este
problema es el bien conocido problema de asignación (AP). Sin embargo, debido a las suposiciones de simplificación este modelo no proporciona soluciones aplicables
para muchos problemas reales de planificación de la producción. Extensiones del modelo de asignación simple conocido como el problema generalizado de asignación
(GAP) y el multi-recursos problema de asignación generalizada (MRGAP) se han desarrollado para superar esta di ?? cultad. Este artículo presenta una extensión de la
(MRGAP) para permitir la división de lotes individuales a través de múltiples máquinas, teniendo en cuenta la dirección ?? ect de los tiempos de preparación y costes de
instalación. La extensión es importante para muchos problemas de planificación de producción real, incluyendo los de la industria de moldeo por inyección y en la industria
de corte de metal. Formulamos modelos que son extensiones lógicas de los modelos anteriores que, al ignorar la división por lotes para el problema al que nos dirigimos. A
continuación, damos di ?? formulaciones Erent y sugerimos adaptaciones de un algoritmo genético (GA) y de recocido simulado (SA). Una evaluación sistemática de estos
algoritmos, así como un enfoque de relajación de Lagrange (LR), se presenta. Ó 1999 Elsevier Science BV Todos los derechos reservados.
0377-2217 / 99 / $ ± ver los preliminares Ó 1999 Elsevier Science BV Todos los derechos reservados.
PII S 0 3 7 7 - 2 2 1 7 (9 7) 0 0 3 9 4 - 9
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80 55
conocido como el múltiples recursos problema de asignación generalizada ( MRGAP).técnicas de búsqueda en que las soluciones posteriores se aceptan
con una cierta probabilidad, incluso si son peores que las
Las extensiones anteriores se supone que cada agente se le puede anteriores. Esto se ha demostrado empíricamente para reducir la
asignar múltiples tareas, pero que cada tarea se le asigna a un solo posibilidad de terminar con un óptimo local. En GA, soluciones
agente. Sin embargo, en muchas industrias en las que la producción posteriores se generan usando conceptos de la biología de la
está previsto en lotes y cada lote se considera una tarea, la división por genética, es decir, mutación y de cruce. El uso de poblaciones de
lotes es común, es decir, una tarea a menudo se asigna a dos o más soluciones en cada iteración, a diferencia de las soluciones
agentes. Este es un enfoque de planificación de producción común en el individuales, GA ayuda a examinar el espacio de la población, y por
corte de metales y en las industrias de moldeo por inyección de plástico. lo tanto evitar las trampas óptimos locales. Ambos métodos tienen
La decisión de si se debe dividir una tarea depende en gran medida del una razonablemente buena posibilidad de obtener soluciones
tiempo de instalación y el coste de asignar la tarea a cada agente. En óptimas globales.
un entorno justo a tiempo (JIT), donde el tiempo de instalación y el coste
son pequeñas, tarea o división por lotes pueden ser muy rentable e ??
caz. Hay una extensa literatura sobre el uso de ambos SA y GA
para resolver problemas de optimización. El libro de Aarts y Korst
(1989) tiene dos capítulos sobre el uso de SA para la optimización
En las siguientes secciones extendemos MRGAP a un nuevo combinatoria. Goldberg (1989) también tiene un capítulo sobre la
problema ± al MRGAP con configuraciones (MRGAPS). aplicación de GA a problemas de optimización. Johnson et al.
Presentamos extensiones lógicas de los modelos anteriores que, al (1989) proporciona un análisis exhaustivo empírica de SA con
ignorar la división por lotes para el problema que nos dirigimos. A particular referencia a la optimización combinatoria. Ellos
continuación, dar formulaciones di ?? Erent con menos proporcionan algunas pautas sobre la base de sus propios cálculos
restricciones, pero variables adicionales. En las Secciones 4 ± 7, se sobre la mejor manera de adaptarse SA a problemas particulares.
discute acerca solución a este problema. Se presenta una Para grafos aleatorios dispersos, el método SA de Johnson et al.
evaluación sistemática de las técnicas basadas en la relajación de (1989) funciona mejor que el conocido algoritmo de Kernighan ±
Lagrange (LR), un algoritmo genético (GA), y el recocido simulado Lin. Friesz et al. (1993) adaptado SA para resolver un problema de
(SA). Todos estos algoritmos heurísticos son en el sentido literal, diseño de red de transporte con restricciones de desigualdad
porque ninguno de ellos puede garantizar una solución óptima. variacional, y obtiene la mejor solución conocida a la conocida red
Nuestra aplicación tanto de SA y GA utiliza un enfoque pena para arco Sioux Falls 76.
permitir la inviabilidad en las interacciones intermedias; nuestra
función de penalización implica las mismas restricciones que se
relajaban en nuestro algoritmo LR. También damos a formulaciones
más susceptibles a `` crossover '' en nuestra adaptación del GA.
experiencia computacional se presenta en la Sección 8, y da
cuenta de nuestras conclusiones en la Sección 9.
utilizado en una serie de otras aplicaciones, incluyendo la 3. Modelos para la asignación de tareas a los agentes con múltiples recursos
programación de los horarios escolares (Abramson, 1991), la
asignación de espacio de memoria del ordenador (Romero y
Sánchez-Flores, 1990), y el AP cuadrática (Connolly, 1990; Wilhelm Para formular la (MRGAP), se utiliza la siguiente notación:
y Ward, 1987).
El gas también se han utilizado en problemas de fabricación.
yo conjunto de índices de tareas (lotes) yo 2 yo
Murata et al. (1996) usaron gas para examinar ¯owshop problemas de
J conjunto de índices de agentes j 2 J
agenda. Reeves (1995) utilizó gas para producir secuencias ¯owshop
K conjunto de índices de los recursos k 2 K utilizado por los agentes para
óptimos. Kumar y Srinivasan (1996) utilizaron gas en una verdadera
realizar tareas
situación mundial y la mejora de la makespan en más de un 30% en
do ij coste de la asignación de tareas (por lotes) yo a agente j
comparación con la implementación actual. Aytug et al. (1994)
8> <>:
utilizaron un algoritmo genético para establecer un esquema iterativo 1 si la tarea ?? lote ?? yo se asigna al agente
X ij
para aprender la programación dinámica óptima. Mathieu et al. (1994)
j ?? una variable de decisión ??
adaptado GA para resolver el problema de programación lineal de dos
0 en otro caso
niveles. Hadj-Alouane y Bean (1993), Hadj-Alouane et al. (1993) y Coit
et al. (1994), todas conseguido buenos resultados utilizando un
una ijk cantidad de recursos k utilizado por agente j para llevar a cabo la tarea
enfoque de función de penalización dentro de un GA para la resolución
(por lotes) yo
de los programas de optimización discreta.
segundo jk cantidad de recursos k a disposición de agente j
La formulación es:
El GA también se ha utilizado en este tipo de problemas de
optimización como taller de trabajo de programación (Davis, 1985;
Biegel y DAVERN, 1990), el tamaño de las redes de comunicaciones problema MRGAP
?? 2 ??
también se incurre en las limitaciones de recursos, lo cual no es el caso cada tarea (por lotes) para ser asignado a uno y sólo un agente. Por
en el problema del transporte de carga ®xed. lo tanto, no división por lotes entre los agentes se considera en estos
modelos. Sin embargo, en la práctica, la división por lotes entre SeV
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80 57
agentes erales es deseable que las limitaciones de recursos impiden la tiempo para configuraciones, y (2) el tiempo de máquina para configuraciones y la
agente caz. Esto es especialmente cierto en los entornos de fabricación En estos problemas, el operador puede configurar diferentes máquinas
repetitivas donde los lotes de unidades idénticas a menudo son para producir unidades del mismo lote para la producción simultánea durante
procesados por di máquinas Erent ?? para reducir el tiempo de la noche. Como se señaló anteriormente, dichas soluciones de proceso por
procesamiento o para satisfacer restricciones de capacidad. Tal división lotes de reparto no son considerados por el MRGAP.
lote provoca costo de instalación adicional y el tiempo, que no se
considera en problemas AP, GAP, o MRGAP. 3. Este ejemplo es la operación multi-proceso de ``
sistema '' tomado de Ohno (1988). En este ejemplo, un trabajador opera un
Ejemplos de problemas donde MRGAP (o AP o GAP) no torno, una máquina fresadora y una máquina de perforación. El operador,
producirían soluciones aplicables se presentan a continuación. En que trabaja 8 horas / día, sólo se requiere para configuraciones. Como en el
el resto de este documento, se utilizan los términos `` agentes '' y `` ejemplo anterior, un recurso es el tiempo de máquina requerido para
máquinas '' indistintamente, y nos referimos a un `` tarea '' como `` configuraciones y producción, que está limitada a 8 h / día, y un segundo
batch '' o `` orden ''. recurso es el tiempo del operador requerido sólo para configuración de la
máquina. Sin embargo, en este caso, el operador está disponible para 8 h
1. Un taller de trabajo debe programar la producción de dos para las tres máquinas combinadas; Además, el tiempo de configuración
órdenes, cada uno, debido al día siguiente. Dos máquinas similares están disponibles para cada una de las tres máquinas es una decisión variable.
disponibles durante 10 h / día cada uno para la producción de estos lotes.
Datos del problema son:
Restricciones requieren que la suma de los tiempos de preparación durante
Número de Número de El tiempo de El tiempo de el período de planificación de 20 días para las tres máquinas se limita al 20 una
lote unidades preparación / lotes procesamiento por unidad 8 ?? 160 h durante el periodo de planificación. Tres restricciones adicionales
1 12 1.0 1.0 limitan el tiempo de cada máquina para la producción y configuraciones a 20 una
2 8 2.0 0.5 8 ?? 160 h. Como en el ejemplo 2, la división por lotes puede ser más costo e
?? reflexivo que las soluciones obtenidas de la MRGAP.
segundo un número grande Si la cantidad de recursos k disponible para cada máquina j es un decisión
X ij número de unidades de lote yo asignado a variable, a continuación, las limitaciones de capacidad son:
La formulación para el MRGAPS depende de si el segundo jk son Restricciones (10a) y (10b) se puede simpli®ed a
constantes o variables de decisión. Si son constantes, la X X
?? UNA ijk X ij ?? S ijk Y ij ?? 6 segundo k para cada k 2 K;
formulación más simple es:
j2J yo 2 yo
?? 10c ??
MRGAPS-1 Problema
X eliminando así la segundo jk variables. Estas restricciones limitan el
min X ?? do ij X ij ?? sol ij Y ij ??
consumo de recursos k a un total de segundo k, la cantidad
yo 2 yo j2J ?? 5 ??
disponible. El modelo resultante es:
S t:
K;
X
X S t: X ?? UNA ijk X ij ?? S ijk Y ij ?? 6 segundo k
j2J
para cada k 2 K; ?? 12 ??
convencionales y FMC se utilizan simultáneamente, y los lotes deben Para MRGAPS-2, el problema es de Lagrange
ser asignados a las máquinas más apropiados (véase Chakravarty y X
Shtub, 1990). ?? L2 ?? min X ?? do ij X ij ?? sol ij Y ij ??
yo 2 yo j2J
" #
X X
?? X kk ?? UNA ijk X ij ?? S ijk Y ij ?? ÿ segundo k ;
k2K j2J
4. relajación de Lagrange para resolver MRGAPS-1 y -2
yo 2 yo
S t:
`` se resuelve a optimalidad, se obtienen nuevos valores de los X
multiplicadores, y se itera el procedimiento. X ij ?? re yo para cada lote yo 2 YO; ?? 21 ??
j2J
?? L1 ?? min X ?? do ij X ij ?? sol ij Y ij ??
Estos problemas pueden ser resueltos de Lagrange como
yo 2 yo j2J
" # sigue: Para cada lote yo y cada máquina j,
X X
calcular el coste `` '' de producir el lote completo en la máquina utilizando
?? X k jk ?? UNA ijk X ij ?? S ijk Y ij ?? ÿ segundo jk ?? dieciséis ??
los costes de instalación sol ij y los costos de procesamiento unidad do ij. dejar
j2J k2K yo 2 yo
que la máquina Ji) denotar la máquina más barata para lotes yo, la solución
óptima para la función de Lagrange es:
S t: X X ij ?? re yo para cada lote yo 2 YO; ?? 17 ??
j2J
Y ij ?? 0; X ij ?? 0; j 6 ?? j ?? yo ??:
X ij ?? 0; 1; 2; . . . ; re yo
para todos yo 2 YO; j 2 J: ?? 19 ??
Como se ha señalado en la sección 5, la Y ij las variables pueden ser omitidos por
Y ij ?? 0; 1
considerarlos de manera implícita.
Después de recoger términos, (16) tiene la forma (a excepción de una En las iteraciones posteriores de Lagrange, esta solución es a
constante) menudo factible en MRGAPS-1 o 2, proporcionando así un límite
X superior en el valor de la función objetivo óptimo del problema a
min X ?? do ij X ij ?? sol ij Y ij ??; ?? 20 ?? resolver. Sin embargo, estas soluciones de Lagrange no in-
yo 2 yo j2J
60 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80
Volve la división de un lote a través de dos o más máquinas. Por lo las restricciones relacionales son eliminados, y (iii) funciones de
tanto, si la solución óptima implica múltiples máquinas para algunos penalización en lugar de las limitaciones de recursos (para permitir la
lotes, habrá un hueco dualidad para estos problemas, y el violación de estas restricciones en iteraciones intermedios de los
procedimiento de Lagrange no se ®nd la solución óptima. algoritmos).
La manera obvia de eliminar la Y ij variables y las restricciones
relacionales (8) o (14) es simplemente para de®ne la función objetivo
Una clara ventaja del procedimiento de Lagrange es que el para igualar los costos de procesamiento y de configuración cada vez
valor óptimo de la función de Lagrange es siempre una límite que una máquina produce unidades de cualquier lote. Del mismo modo,
inferior en el valor de la función objetivo óptimo del programa que las funciones de restricción se de®ned para incluir el tratamiento y la
está siendo resuelto. Esta cota se puede utilizar para probar la configuración de los consumos de recursos.
desviación de la optimalidad de la solución ®nal obtenido. Además,
el algoritmo se basa en una teoría que asegura la convergencia de continuo Para simplificar la explicación de cómo se pueden omitir las restricciones
de demanda (7) o (13), que ®rst de renumeración de las unidades de todos los
lotes de forma consecutiva como
programas. Para los programas discretos MRGAPS-1 y -2, sin 1, 2, 3,. . . , NORTE, dónde norte ?? PAG
yo 2 yo re yo es el total
embargo, una brecha de dualidad puede impedir la convergencia. Sin número de unidades. Entonces, en lugar de las variables
embargo, una gran cantidad de experiencia reportada es compatible
X ij ?? número de unidades de proceso por lotes yo asignado a
con el e ?? cacia de LR (Gavish y Pirkul, 1991).
máquina j
usamos:
de soluciones reproduce dos nuevas soluciones utilizando un 'proceso garantizan que todas las unidades de cada lote será producida por una
de `` crossover' y luego muere. Por ejemplo, si una posición de cruce do máquina, de manera que las limitaciones de la demanda ya no son
solución de 2 (la madre: 101 | 111), a continuación, la nueva solución Para resumir la reformulación de los modelos, de®ne
1 es 010 | 111 ( `` estructura genética de su padre '' hasta la posición
3, seguido por la estructura genética de su madre). De forma análoga,
Z vector con componentes Z yo
la nueva solución es 2 101 | 001.
f (Z) de configuración y de procesamiento total de los costes cuando las
asignaciones de máquina para cada unidad de cada lote se speci®ed
por Z g ij ( Z) el consumo total de recursos k por la máquina
Por lo tanto, MRGAPS-1 podría ser cambiado a Nuestro procedimiento de cruce se realiza directamente en el Z variables.
Por de®nition de estas variables, incluso después de cruce, cada unidad
min F ?? Z ??
de cada lote está todavía asignado a uno de la máquina. Por lo tanto, este
?? 24 ??
S t: procedimiento preserva la viabilidad de las limitaciones de la demanda.
Las nuevas soluciones generadas por el proceso de cruce también
para cada máquina j 2 J experimentan ocasionalmente mutación. En nuestro procedimiento de
sol jk ?? Z ?? 6 segundo jk ?? 25 ??
para cada recurso k 2 K; mutación, seleccionamos al azar una unidad y cambie a otra máquina de
azar. Por lo tanto, si
estándar no se puede utilizar. Sin embargo, debido a que las soluciones generación de un número aleatorio r 2 ?? 0; 1 ??. Si
recién generados siempre satisfacen los requisitos de la demanda, el r 6 PAG yo, la solución se acepta; de lo contrario, se rechaza.
modelo resultante puede ser más susceptible de solución por GA que la
forma convencional (5) ± (9) o (11) ± (15). Tenga en cuenta también la Tenga en cuenta que si la nueva solución es peor que la actual, a
similitud entre el objetivo de penalti (27) y la función de Lagrange (16) continuación, F yo ?? 1> F yo y ?? F yo ÿ F yo ?? 1 ?? = T i < 0. No obstante, PAG i> 0; por lo que
cuando una ?? 1. las soluciones más pobres a veces son aceptadas, especialmente en las
primeras iteraciones
62 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80
(cuando T yo es largo). Si la nueva solución tiene menor costo que la 7. El intercambio pairwise post-procesador
solución yo, PAG yo ?? 1 y la nueva solución siempre es aceptado.
los solución ®nal ( no las soluciones intermedias) obtenidos a
Generamos soluciones vecinales para MRGAPS de la siguiente partir de cada uno de los tres procedimientos GA, SA, y LR se
manera: relacionó con un post-procesador que reduce iterativamente el
1. generar un par aleatoria de máquinas, número de unidades de lote yo asignado a la máquina j por 1 y se
2. generar un número aleatorio de unidades de un lote al azar que incrementa en 1 el número de unidades de este lote asignados a
se realiza por la máquina ®rst, otra máquina j . Esto se hace para todos yo, j, j
3. eliminar estas unidades de la máquina ®rst y asignarlos a la combinaciones para las cuales j 6 ?? j y X ij PAG 1. De esta manera, se
segunda máquina. Con estos movimientos vecinales, incluso intenta reducir al mínimo los costos generales por las unidades de
cuando el re-asignación de modo que los costes de instalación y / o costos de
X ij variables en la formulación original (5) ± (9) o (11) ± (15) se utilizan, se procesamiento se reducen cada vez que se produce un intercambio. El
mantiene la viabilidad demanda restricción. Sin embargo, las soluciones costo de la mejor solución obtenida después de probar todas las permutas
resultantes de estos movimientos pueden violar las restricciones de se compara con la solución de más bajo costo generado previamente (el
recursos. Por lo tanto, reemplazamos las limitaciones de recursos con titular). Si la primera solución tiene un costo menor que el costo de la
funciones de penalización, al igual que en la Sección 5. empresa establecida, la primera solución sustituye al titular, e inicia una
nueva iteración. De lo contrario, la heurística postprocesador termina.
Para resumir las reformulaciones utilizados en la resolución del
problema SA, de®ne
más, Coit et al. (1994) concluyeron que no había signi®cant di ?? máquinas produce la mitad de las unidades individuales de cada lote yo,
rencia entre los resultados obtenidos a partir de la función de entonces el recurso k requerimientos de estas dos máquinas son (ver
penalización lineal vs. una cuadrática para los problemas limitaciones (6))
combinatorios que probaron. X
S ijk ?? UNA ijk re re i = 2 mi ?? 33 ??
yo 2 yo
Se optó por utilizar funciones de penalización lineales ( una ?? 1)
en nuestra aplicación, ya que el objetivo principal de nuestro trabajo (La notación Delaware indica redondeo arriba al entero más próximo).
es comparar los algoritmos que con los métodos tradicionales de Durante los últimos dos máquinas, que de®ned segundo jk para igualar la
LR. La función de penalización lineal da una mejor comparación, cantidad en la ecuación. (33) multiplicada por un `` FACTOR '', que se
porque el método de Lagrange inherentemente utiliza una función de varió para de®ne tres di ?? tipos Erent de problemas:
penalización lineal. La función de penalización lineal tiene otra
ventaja que ligeras violaciónes restricción no dan una pena tan
A. Problemas con fuertes limitaciones: FACTOR ?? 2.
grande como la función de penalización cuadrática hace. Esto es
B. Problemas moderadamente restringidas: FACTOR
importante, porque es demasiado grande para una sanción leve
?? 3.
inviabilidad puede llevar al rechazo de las buenas soluciones de GA
C. problemas sin apretar restringidos: FACTOR
o SA.
?? 12.
Hemos resuelto 105 casos de MRGAPS-1 para comparar el Para todas las otras máquinas, segundo jk fue de®ned a ser la mitad de la
rendimiento de los procedimientos de solución descritos en las cantidad disponible para los últimos dos máquinas. El costo de cada unidad
secciones anteriores. Los problemas utilizados en el experimento de cada recurso, RESCOST ( k),
tenían las características dadas en la Tabla 1. se generó de manera uniforme entre 30 y 70.
El costo de instalación por lote, sol ij, y el coste de procesamiento por
El consumo de cada recurso k durante la configuración de lotes yo unidad, do ij, se calcularon utilizando las necesidades de recursos y los costes
en la máquina j, S ijk, y por unidad de lote yo producido en la máquina j, unitarios de la siguiente manera:
A ijk, se calculó como: " #
" #
UNA ijk ?? ?? 0:75 ???? r 2 ???? S ijk ??; ?? 32 ??
sol ij ?? j X RESCOST ?? k ?? UNA ijk : ?? 35 ??
Pequeña 3 5 2
refrigeración a partir de la literatura (Aarts y Korst, 1989; Hajek,
Medio 5 10 3 1988; Huang et al, 1986; Kirkpatrick et al., 1983;. Lundy y Mees,
Grande 10 15 5 1986; Otten y Van Ginnekan, 1984; Vernekar y Anandalingam,
Muy grande 10 99 5 1990), y tienen
Extremadamente largo 15 150 10
64 LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80
Encontramos los más simples para trabajar mejor en términos de tiempo post-procesador que trabaja en la solución de GA ®nal. Las tres
de cálculo. columnas bajo `` GA SEED SOLO RESUMEN '' mostrar el medio,
En LR, se obtuvieron valores de multiplicador actualizado utilizando mínimo y máximo valor de la función objetivo obtenido para las
el mismo procedimiento descrito en Gavish y Pirkul (1991) (una semillas Erent comenzando tres di ?? utilizados para resolver cada
búsqueda subgradiente de la función objetivo dual). Speci®cally, si una problema. información análoga se da para el algoritmo de recocido
solución factible se ha encontrado en alguna iteración, a continuación, simulado ( `` SA SOLO '', `` SA / PP '', y `` SA SEED SOLO
los multiplicadores se de®ned en términos del valor de la función RESUMEN '').
objetivo factible más conocido, z, y el valor más grande conocida de la
función de Lagrange, z :
Las dos columnas en la demostración de la derecha la relación
k jk ?? k jk ?? SG PASO jk de los costes de las soluciones obtenidas por SA y GA ( `` SA / GA
alone '') y de los costes de las soluciones obtenidas por el
donde SG es la subgradiente y STEP se de®ned como
post-procesador en el SA y GA ® soluciones NAL ( `` SA / GA PP
''). Ratios de menos de 1 indican que SA encontró una solución
mejor que GA; relaciones mayores que 1 indican que GA encontró
PASO ?? re ?? z ÿ z ?? = k SG k 2: ?? 36 ??
una solución mejor. Un asterisco indica que uno (o ambos) relación
En la Ec. (36), re es un parámetro inicializado a 15 y reducido a la mitad cada es mayor que 1.
vez 20 iteraciones sucesivas fallan para disminuir el valor de la función de
Lagrange. Si no hay solución factible se ha encontrado en cualquier iteración Las tablas 2 ± 12 muestran claramente que si hay post-procesador
anterior, la ecuación. (36) no se pueden utilizar. En este caso, nos dedicado estaban disponibles, SA produciría soluciones de menor costo
propusimos PASO ?? 25. en GA en la gran mayoría de los casos. La segunda a última columna
muestra relaciones de menos de 1 por casi todos los problemas; una
GA, SA y LR fueron cada pueden ejecutar siempre que excepción es para los (pequeños) problemas fáciles donde cada
generan soluciones mejoradas. Algoritmos se terminaron cuando algoritmo fue igualmente e ?? reflexivo. Por ningún tipo de problema fue
ninguna mejora resultó en 120 segundos de la CPU (240 s para GA consistentemente mejor que SA. Para todos excepto tamaños
extremadamente grandes problemas). Las tablas 2 ± 12 resumen pequeños y medianos de problemas, SA solo típicamente (pero no
los resultados computacionales para 105 di ?? problemas Erent: siempre) ®nds soluciones con 70 ± 80% del costo de la solución de GA.
Sin embargo, el post-procesador es muy potente, lo que reduce el di ??
· 10 versiones di ?? Erent de cada uno de los tipos de nueve di ?? Erent erences entre los algoritmos.
de problemas (pequeño, mediano, y grandes problemas, cada
libremente, moderadamente o fuertemente restringido),
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
1654 SL6 3438 0 4 3438 0 1 3438 3438 3438 3438 0 3763 3438 0 1 3438 3438 3438 1,00 1,00
15,670 SL6 3438 0 9 3438 0 1 3438 1 7393 3438 0 1 1,00 1,00
23 SL7 3608 0 2 3571 0 2 3571 1 8387 3571 0 1 0.99 1.00
1654 SL7 3571 0 3 3571 0 1 3583 3571 3608 3571 1 9097 3571 0 1 3571 3571 3571 1,00 1,00
15,670 SL7 3571 0 2 3571 0 1 3571 1 8387 3571 0 1 1,00 1,00
23 SL8 4238 0 3 4238 0 1 4238 1 5280 4238 0 1 1,00 1,00
1654 SL8 4238 0 1 4238 0 1 4238 4238 4238 4238 1 5509 4238 0 1 4238 4238 4238 1,00 1,00
15,670 SL8 4238 0 14 4238 0 1 4238 1 5227 4238 0 1 1,00 1,00
23 SL9 2873 0 3 2873 0 1 2873 1 5365 2873 0 1 1,00 1,00
1654 SL9 2873 0 1 2873 0 1 2873 2873 2873 2873 1 8803 2873 0 1 2873 2873 2873 1.00 1.00
15,670 SL9 2873 0 1 2873 0 1 2873 1 6821 2873 0 1 1.00 1.00
MD: GA SA Ga MD/SA MD
20 2 8.8
sesenta y cinco
Table 3 66
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
1654 SM6 3499 0 3 3499 0 1 3587 3499 3763 3499 1 6235 3499 0 1 3499 3499 3499 1.00 1.00
15,670 SM6 3499 0 24 3499 0 1 3499 0 4770 3499 0 1 1.00 1.00
23 SM7 3842 0 3 3842 0 1 3842 1 7396 3842 0 1 1.00 1.00
1654 SM7 3847 0 6 3847 0 1 3844 3842 3847 3847 1 7920 3847 0 1 3844 3842 3847 1.00 1.00
15,670 SM7 3842 0 1 3842 0 1 3842 1 7596 3842 0 1 1.00 1.00
23 SM8 4238 0 11 4238 0 1 4238 0 4476 4238 0 1 1.00 1.00
1654 SM8 4238 0 1 4238 0 1 4238 4238 4238 4238 1 6129 4238 0 1 4238 4238 4238 1.00 1.00
15,670 SM8 4238 9 384 4238 0 1 4238 1 5473 4238 0 1 1.00 1.00
23 SM9 2873 0 7 2873 0 1 2873 1 6724 2873 0 1 1.00 1.00
1654 SM9 2873 0 1 2873 0 1 2873 2873 2873 2873 1 7347 2873 0 1 2873 2873 2873 1.00 1.00
15,670 SM9 2873 0 1 2873 0 1 2873 1 4936 2873 0 1 1.00 1.00
MD: GA SA GA MD/SA MD
56 1 111.0
Table 4
Comparison of GA and SA with and without post-processor
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
MD: GA SA GA MD/SA MD
143 20 7.2
67
Table 5 68
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
1654 ML6 9534 1 26 9224 0 2 9703 9534 9839 9476 4 8813 9224 0 2 9308 9224 9476 0.99 1.00
15,670 ML6 9737 20 394 9224 0 2 9224 3 6922 9224 0 1 0.95 1.00
23 ML7 12,102 32 513 11,793 0 2 11,793 2 6488 11,793 0 1 0.97 1.00
1654 ML7 12,256 2 37 11,793 0 2 12,136 12,051 12,256 11,793 2 5939 11,793 0 1 11,793 11,793 11,793 0.96 1.00
15,670 ML7 12,051 3 63 11 793 0 2 11,793 2 5807 11,793 0 1 0.98 1.00
23 ML8 16,276 153 2431 14,295 0 3 14,353 2 5244 14,295 0 2 0.88 1.00
1654 ML8 14,757 3 56 14,295 0 2 15,292 14,757 16,276 14,295 2 5572 14,295 0 1 14,314 14,295 14,353 0.97 1.00
15,670 ML8 14,844 69 1286 14,295 0 3 14,295 3 6870 14,295 0 1 0.96 1.00
23 ML9 11,274 138 2232 10,282 0 4 10,282 3 8121 10,282 0 1 0.91 1.00
1654 ML9 11,513 2 33 10,282 0 4 11,109 10,540 11,513 10,282 3 8192 10,282 0 1 10,282 10,282 10,282 0.89 1.00
15,670 ML9 10,540 4 79 10,282 0 2 10,282 3 8637 10,282 0 1 0.98 1.00
MD: GA SA GA MD/SA MD
893 53 16.8
Table 6
Comparison of GA and SA with and without post-processor Seed Type GA alone
GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
15,670 MM6 11,408 24 476 9224 0 5 9224 2 6957 9224 0 1 0.81 1.00
23 MM7 13,791 2 41 13,227 0 2 12,639 2 6678 12,639 0 1 0.92 0.96
1654 MM7 14,507 18 342 12,639 0 3 13,849 13,248 14,507 12,640 4 9445 12,640 0 1 12,692 12,639 12,797 0.87 1.00
15,670 MM7 13,248 1 19 12,640 0 3 12,797 2 4763 12,797 0 1 0.97 1.01
23 MM8 17,169 5 86 15,650 0 3 15,650 4 9483 15,650 0 1 0.91 1.00
1654 MM8 15,650 194 3419 15,650 0 1 16,690 15,650 17,251 16,018 3 7998 16,018 0 1 15,982 15,650 16,277 1.02 1.02
15,670 MM8 17,251 5 98 16,877 0 3 16,277 2 6580 16,277 0 1 0.94 0.96
23 MM9 11,408 26 416 10,864 0 3 10,864 3 9126 10,864 0 1 0.95 1.00
1654 MM9 11,649 4 79 10,864 0 3 11,465 11,338 11,649 10,793 4 9565 10,793 0 1 10,817 10,793 10,864 0.93 0.99
15,670 MM9 11,338 151 2745 10,864 0 3 10,793 4 11,863 10,793 0 1 0.95 0.99
MD: GA SA GA MD/SA MD
1548 142 10.9
69
70
Table 7
Comparison of GA and SA with and without post-processor
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
15,670 MT6 12,156 7 143 9224 0 3 9224 2 6510 9224 0 1 0.76 1.00
23 MT7 15,201 72 1138 14,755 0 4 14,126 3 7985 14,126 0 1 0.93 0.96
1654 MT7 14,709 112 1857 14,201 0 4 14,971 14,709 15,201 14,126 3 8125 14,126 0 1 14,336 14,126 14,755 0.96 0.99
15,670 MT7 15,002 4 87 14,126 0 2 14,755 2 5468 14,755 0 1 0.98 1.04
23 MT8 18,515 102 1576 17,703 0 3 17,703 3 8054 17,703 0 1 0.96 1.00
1654 MT8 18,625 4 70 18,197 0 3 18,387 18,022 18,625 17,170 3 7576 17,170 0 1 17,458 17,170 17,703 0.92 0.94
15,670 MT8 18,022 0 11 17,047 0 3 17,500 4 10,234 17,401 0 2 0.97 1.02
23 MT9 11,338 127 1971 10,793 0 2 10,793 3 7565 10,793 0 1 0.95 1.00
1654 MT9 11,306 133 2170 10,793 0 2 11,572 11,306 12,073 10,793 3 7968 10,793 0 1 10,793 10,793 10,793 0.95 1.00
15,670 MT9 12,073 286 5032 10,793 0 3 10,793 3 8524 10,793 0 1 0.89 1.00
MD: GA SA GA MD/SA MD
1177 227 5.2
Table 8
Comparison of GA and SA with and without post-processor
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
15,670 LL6 44,320 24 161 32,045 5 4 32,045 10 6493 32,045 1 1 0.72 1.00
23 LL7 30,233 233 1430 22,753 6 5 22,753 10 7286 22,753 1 1 0.75 1.00
1654 LL7 28,535 273 1698 22,753 5 4 28,541 26,855 30,233 22,753 9 6634 22,753 1 1 22,753 22,753 22,753 0.80 1.00
15,670 LL7 26,855 117 810 22,753 6 5 22,753 12 8814 22,753 1 1 0.85 1.00
23 LL8 29,143 585 3508 21,422 6 4 21,491 22 15,556 21,422 3 2 0.74 1.00
1654 LL8 31,739 26 158 21,422 6 4 30,634 29,143 31,739 21,836 16 12,310 21,422 3 2 21,698 21,491 21,836 0.69 1.00
15,670 LL8 31,021 360 2381 21,422 7 5 21,767 13 9334 21,422 3 2 0.70 1.00
23 LL9 42,330 39 234 26,361 4 3 26,361 7 5026 26,361 1 1 0.62 1.00
1654 LL9 36,114 226 1376 26,361 6 5 37,279 33,394 42,330 26,361 11 8028 26,361 1 1 26,361 26,361 26,361 0.73 1.00
15,670 LL9 33,394 511 3443 26,361 7 5 26,361 14 9950 26,361 1 1 0.79 1.00
MD: GA SA GA MD/SA MD
6378 209 30.5
71
72
Table 9
Comparison of GA and SA with and without post-processor
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
15,670 LM6 47,587 25 169 41,431 4 3 36,872 12 9143 36,712 3 2 0.77 0.89
23 LM7 37,631 16 103 32,478 4 3 27,250 16 11,191 25,314 5 4 0.72 0.78
1654 LM7 35,751 253 1628 33,313 8 6 34,050 28,769 37,631 25,314 14 10,792 25,314 1 1 26,099 25,314 27,250 0.71 0.76
15,670 LM7 28,769 570 3893 25,737 6 5 25,733 11 8533 25,733 1 1 0.89 1.00
23 LM8 29,143 593 3508 21,435 6 4 21,836 10 7584 21,435 3 2 0.75 1.00
1654 LM8 31,739 24 158 21,435 6 4 30,634 29,143 31,739 21,836 17 12,322 21,435 3 2 21,813 21,767 21,836 0.69 1.00
15,670 LM8 31,021 356 2381 21,435 7 5 21,767 12 9396 21,435 3 2 0.70 1.00
23 LM9 38,957 48 285 31,697 7 5 30,953 14 9575 30,953 1 1 0.79 0.98
1654 LM9 41,144 94 595 29,745 4 3 38,306 34,818 41,144 30,359 18 13,255 30,359 1 1 30,408 29,912 30,953 0.74 1.02
15,670 LM9 34,818 202 1379 31,293 4 3 29,912 11 8015 29,842 3 2 0.86 0.95
MD: GA SA GA MD/SA MD
6345 675 9.4
Table 10
Comparison of GA and SA with and without post-processor
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
23 LT0 38,222 500 3148 25,207 7 5 26,764 16 11,386 26,764 1 1 0.70 1.06
1654 LT0 35,584 519 3232 29,121 6 4 36,181 34,737 38,222 25,661 23 16,904 25,524 4 3 25,904 25,286 26,764 0.72 0.88
15,670 LT0 34,737 72 474 29,777 3 2 25,286 14 9989 25,286 1 1 0.73 0.85
23 LT1 49,532 103 639 39,370 8 5 32,969 25 17,111 32,969 1 1 0.67 0.84
1654 LT1 42,310 672 4083 40,086 3 2 50,503 42,310 59,666 33,582 20 14,930 33,582 1 1 33,499 32,969 33,945 0.79 0.84
15,670 LT1 59,666 594 3880 38,367 4 3 33,945 26 18,826 33,889 3 2 0.57 0.88
23 LT2 29,481 1362 8414 27,516 2 2 25,425 16 11,607 25,425 1 1 0.86 0.92
1654 LT2 31,391 38 239 25,465 6 5 31,312 29,481 33,064 26,147 18 13,689 25,425 4 3 25,698 25,425 26,147 0.83 1.00
15,670 LT2 33,064 407 2751 28,326 5 4 25,522 28 20,436 25,161 2 2 0.77 0.89
23 LT3 36,770 25 160 27,585 5 4 28,975 15 10,406 28,517 4 3 0.79 1.03
1654 LT3 37,972 512 3186 32,605 4 3 39,617 36,770 44,108 28,533 11 7705 27,497 2 2 28,993 28,533 29,470 0.75 0.84
15,670 LT3 44,108 163 1089 33,961 4 3 29,470 10 7778 27,364 2 2 0.67 0.81
23 LT4 26,411 522 3220 23,702 4 3 25,070 14 9961 25,070 1 1 0.95 1.06
1654 LT4 32,108 84 523 26,634 7 5 33,376 26,411 41,608 27,296 8 5945 26,621 3 2 26,803 25,070 28,043 0.85 1.00
15,670 LT4 41,608 17 115 31,768 7 5 28,043 11 8200 27,691 3 2 0.67 0.87
23 LT5 40,165 495 2889 35,102 5 3 27,815 10 6855 27,815 1 1 0.69 0.79
1654 LT5 39,488 193 1157 27,815 8 5 38,417 35,598 40,165 30,395 9 6674 30,395 1 1 28,675 27,815 30,395 0.77 1.09
15,670 LT5 35,598 155 1005 31,072 6 4 27,815 11 7951 27,815 1 1 0.78 0.90
23 LT6 48,817 482 2912 42,428 2 2 40,959 12 8508 38,963 2 2 0.84 0.92
1654 LT6 53,795 280 1714 45,685 4 3 51,488 48,817 53,795 43,203 9 6954 42,936 3 2 41,127 39,220 43,203 0.80 0.94
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80
15,670 LT6 51,851 30 196 46,875 4 3 39,220 8 5841 39,014 4 3 0.76 0.83
23 LT7 39,698 523 3271 34,805 5 4 29,500 14 9351 29,142 2 2 0.74 0.84
1654 LT7 41,363 267 1700 32,852 6 5 39,754 38,201 41,363 29,621 10 7486 29,053 2 2 29,957 29,500 30,751 0.72 0.88
15,670 LT7 38,201 82 547 31,790 6 5 30,751 10 7246 30,370 2 2 0.80 0.96
23 LT8 26,492 151 914 24,717 3 2 23,087 11 8146 22,755 3 2 0.87 0.92
1654 LT8 34,806 331 2056 23,810 7 5 28,872 25,317 34,806 22,755 12 8766 22,755 1 1 22,866 22,755 23,087 0.65 0.96
15,670 LT8 25,317 684 4516 22,755 3 2 22,755 76 56,289 22,755 1 1 0.90 1.00
23 LT9 44,083 327 2016 39,093 6 4 32,955 9 6708 32,795 3 2 0.75 0.84
1654 LT9 42,420 44 275 34,288 7 5 43,772 42,420 44,813 31,961 9 6497 31,951 3 2 32,036 31,191 32,955 0.75 0.93
15,670 LT9 44,813 745 4844 33,827 7 5 31,191 9 7262 31,191 1 1 0.70 0.92
MD: GA SA GA MD/SA MD
7155 1700 4.2
73
Table 11 74
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
23 VT0 379,921 1038 1029 258,822 371 6 306,349 484 63,155 265,041 318 5 0.81 1.02
1654 VT0 386,262 888 823 261,377 505 8 377,451 366,171 386,262 302,467 303 39,174 280,423 257 4 306,758 302,467 311,459 0.78 1.07
15670 VT0 366,171 1131 1054 273,025 310 5 311,459 236 30,672 279,033 320 5 0.85 1.02
23 VT1 398,946 927 917 286,833 378 6 308,886 527 68,379 252,643 458 7 0.77 0.88
1654 VT1 380,644 880 826 251,653 380 6 379,616 359,258 398,946 274,755 505 66,325 261,951 260 4 291,628 274,755 308,886 0.72 1.04
15670 VT1 359,258 1262 1164 261,655 317 5 291,244 346 44,814 272,705 194 3 0.81 1.04
23 VT2 465,190 1086 1024 320,868 371 6 301,392 446 57,227 289,845 257 4 0.65 0.90
1654 VT2 464,348 1592 1478 313,718 368 6 462,907 459,183 465,190 324,736 573 74,322 303,856 251 4 324,032 301,392 345,967 0.70 0.97
15670 VT2 459,183 978 967 298,561 426 7 345,967 389 50,804 308,759 376 6 0.75 1.03
23 VT3 549,915 744 704 365,728 448 7 391,837 305 39,456 356,379 270 4 0.71 0.97
1654 VT3 529,221 1464 1340 359,632 589 9 530,694 512,945 549,915 398,681 366 46,775 362,204 268 4 395,659 391,837 398,681 0.75 1.01
15670 VT3 512,945 1356 1323 365,750 384 6 396,460 396 51,596 355,547 266 4 0.77 0.97
23 VT4 461,443 1168 1165 301,050 352 6 346,096 293 37,485 300,506 242 4 0.75 1.00
1654 VT4 477,378 1251 1173 329,916 299 5 465,009 456,207 477,378 311,474 251 32,296 290,779 368 6 320,856 304,999 346,096 0.65 0.88
15670 VT4 456,207 1470 1502 308,683 348 6 304,999 381 50,170 291,837 242 4 0.67 0.95
23 VT5 549,066 1450 1387 323,521 578 9 321,457 278 35,907 299,759 323 5 0.59 0.93
1654 VT5 542,321 1270 1168 359,232 386 6 532,869 507,221 549,066 339,759 439 57,492 323,305 195 3 335,916 321,457 346,532 0.63 0.90
15670 VT5 507,221 779 792 337,148 502 8 346,532 445 58,367 304,598 390 6 0.68 0.90
23 VT6 325,907 752 708 215,922 454 7 233,477 375 49,014 220,503 399 6 0.72 1.02
1654 VT6 327,594 1221 1112 225,703 252 4 327,859 325,907 330,075 211,216 336 43,870 192,102 400 6 228,851 211,216 241,861 0.64 0.85
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80
15670 VT6 330,075 1211 1217 212,628 377 6 241,861 348 45,570 204,799 461 7 0.73 0.96
23 VT7 465,531 1139 1047 276,163 373 6 273,214 314 40,805 255,068 257 4 0.59 0.92
1654 VT7 421,220 1231 1115 261,740 512 8 435,038 418,364 465,531 278,987 385 50,452 262,204 321 5 275,746 273,214 278,987 0.66 1.00
15670 VT7 418,364 954 955 254,021 366 6 275,037 400 52,554 261,917 254 4 0.66 1.03
23 VT8 374,941 1196 1142 257,195 416 7 282,164 436 56,466 251,557 425 7 0.75 0.98
1654 VT8 376,410 1087 1008 251,813 477 8 373,221 368,313 376,410 264,979 430 56,456 248,979 247 4 273,064 264,979 282,164 0.70 0.99
15670 VT8 368,313 1149 1201 246,255 346 6 272,048 515 66,916 257,751 185 3 0.74 1.05
23 VT9 456,200 655 612 328,717 366 6 304,122 373 48,617 295,743 185 3 0.67 0.90
1654 VT9 472,409 1034 950 326,411 423 7 460,059 451,568 472,409 381,610 326 42,825 346,325 245 4 353,227 304,122 381,610 0.81 1.06
15670 VT9 451,568 1222 1271 348,839 354 6 373,948 368 48,856 347,802 242 4 0.83 1.00
MD: GA SA GA MD/SA MD
24,605 29,181 0.8
Table 12
Comparison of GA and SA with and without post-processor
Seed Type GA alone GA/PP GA alone seed summary SA alone SA/PP SA alone seed summary SA/GA
$ CPU IT $ CPU IT Avg Min Max $ CPU IT PP$ CPU IT Avg Min Max Alone PP
23 ET0 2,020,942 1885 538 1,297,607 4218 7 1,631,576 3156 99,036 1,350,830 5723 9 0.81 1.04
1654 ET0 1,978,530 4115 1216 1,257,914 4848 8 1,988,536 1,966,137 2,020,942 1,630,750 2497 81,788 1,295,525 3615 6 1,607,624 1,560,547 1,631,576 0.82 1.03
15,670 ET0 1,966,137 3251 979 1,289,989 4181 7 1,560,547 3029 94,566 1,420,096 3224 5 0.79 1.10
23 ET1 2,386,790 3481 1033 1,430,683 4897 8 1,945,537 2289 72,564 1,380,269 8343 13 0.82 0.96
1654 ET1 2,306,537 3341 987 1,459,942 6839 11 2,283,600 2,157,473 2,386,790 1,929,290 2413 79,260 1,565,344 3746 6 1,892,706 1,803,292 1,945,537 0.84 1.07
15670 ET1 2,157,473 4958 1482 1,360,838 6174 10 1,803,292 3573 112,425 1,491,261 3837 6 0.84 1.10
23 ET2 2,054,344 3435 1006 1,366,174 6135 10 1,769,090 3998 128,001 1,494,054 3091 5 0.86 1.09
1654 ET2 2,352,249 1813 541 1,422,893 2914 5 2,218,761 2,054,344 2,352,249 1,861,232 2911 95,816 1,467,005 3659 6 1,842,073 1,769,090 1,895,896 0.79 1.03
15,670 ET2 2,249,689 2908 865 1,393,678 3506 6 1,895,896 2882 90,847 1,445,538 6820 11 0.84 1.04
23 ET3 2,023,379 3333 987 1,325,892 5535 9 1,633,581 3392 109,539 1,359,744 3769 6 0.81 1.03
1654 ET3 2,137,007 1369 411 1,238,295 4181 7 2,015,746 1,886,853 2,137,007 1,904,870 2718 88,043 1,495,521 5778 9 1,751,237 1,633,581 1,904,870 0.89 1.21
15,670 ET3 1,886,853 3630 1077 1,267,254 4907 8 1,715,261 2028 66,099 1,308,137 6314 10 0.91 1.03
LJ LeBlanc et al. / European Journal of Operational Research 112 (1999) 54 ± 80
23 ET4 1,864,642 5585 1659 1,294,855 4322 7 1,622,850 3414 112,199 1,347,749 3762 6 0.87 1.04
1654 ET4 2,044,520 2398 720 1,229,376 4204 7 1,919,343 1,848,867 2,044,520 1,567,012 3043 95,709 1,371,919 3862 6 1,605,771 1,567,012 1,627,450 0.77 1.12
15,670 ET4 1,848,867 2968 885 1,296,824 3617 6 1,627,450 3476 113,374 1,389,260 3775 6 0.88 1.07
MD: GA SA GA MD/SA MD
Tabla 13
solución LR con y sin Tipo post-procesador
LM solos LM / PP
Tabla 14
soluciones LR con y sin Tipo post-procesador
LM alone LM/PP
Tabla 15
soluciones LR con y sin Tipo post-procesador
LM solos LM / PP
sensible a la semilla de partida de SA para la mayoría de problemas. tions. Furthermore, the lower bound is so loose for most of these
problems, that it is virtually useless.
Las Tablas 13 ± 15 muestran los resultados del algoritmo LR
para estos mismos problemas. Desde LR no tiene aspecto
probabilístico, el `` semilla '' no es aplicable. La columna etiquetada
`` LAGRANGIANO '' es el valor máximo del problema de Lagrange 9. Summary and conclusions
obtenido, que es un límite inferior en el valor óptimo de MRGAPS-1.
La columna $ de la izquierda es la MRGAPS-1 más bajos coste de tiempos y costos de instalación reducidos son comúnmente
todas las soluciones a los problemas de Lagrange que son factibles in aceptados como una ventaja competitiva en entornos de
MRGAPS-1. (``NFS'' indicates that no feasible solution was fabricación de hoy en día. Los modelos estudiados en este trabajo
obtained.) This is obviously an upper bound on the optimal value of mejoran la investigación anterior, proporcionando los gerentes de
MRGAPS-1. ``CPU'' and ``IT'' are the seconds and iterations to ®nd producción / operaciones con herramientas de programación que
the best solution toMRGAPS-1. Note that the CPU seconds is less se aprovechan de los costes de instalación reducidos. Nuestros
than 1 in most cases. modelos permiten la división por lotes o por el comercio ?? el costo
de configuraciones adicionales con costes de procesamiento
reducidos. Entre los tres procedimientos de solución estudiados,
SA ha obtenido mejores resultados cuando las disponibilidades de
The right-most columns of Table 3 show the ®nal cost, extra recursos fueron bien o moderadamente restringidas, superando GA
CPU seconds, and iterations for the post-processor working on the y el procedimiento tradicional de LR. Sin embargo, el
best feasible solution found for MRGAPS-1. (If a feasible solution post-procesador menudo difumina la di ?? erences entre los
was never found by LR, the solution that maximized the Lagrangian algoritmos. LR se obtienen mejores resultados cuando las
was used to start the post-processor.) limitaciones de capacidad estaban sueltos; esto es consistente con
Gavish y Pirkul (1991) quienes encontraron que la LR se comportó
bien para una versión del problema donde no se permite la división
The LR algorithm is very fast for small and medium size por lotes.
0. However, for large tight, very large tight, and extremely large tight Aarts, E., Korst, J., 1989. Simulated Annealing y Boltzmann
Máquinas, Wiley, Chichester, Reino Unido. Abramson, D., 1991. Los horarios
problems LR alone often does not produce useful solutions,
escolares Construir utilizando
although with the post-processor it can produce excellent solu- recocido simulado: secuencial y algoritmos paralelos. Management Science 37
(1), 98 ± 113.
L.J. LeBlanc et al. / European Journal of Operational Research 112 (1999) 54±80 79
Aytug, H., Koehler, G., Snowdon, J., 1994. genética de aprendizaje Gavish, B., Pirkul, H., 1986. informática y base de datos de ubicación
programación dinámica dentro de un entorno de simulación. Las computadoras y en los sistemas informáticos distribuidos. IEEE Transactions on Computers 35 (7),
la investigación de operaciones 21 (8), 909 ± 925. Balas, E., Zemel, E., 1980. Un 583 ± 590.
algoritmo para gran cero ± una Gavish, B., Pirkul, H., 1991. Algoritmos para la multi-recursos
knapsack problems. Operations Research 28 (5), 1130± problema de asignación generalizada. Gestión de la Ciencia 36 (6), 695 ± 713.
1154.
Barr, R.S., Glover, F., Klingman, D., 1981. A new optimization Goldberg, DE, 1989. Los algoritmos genéticos en la búsqueda. optimización
method for large scale ®xed charge transportation problems. Operations ción y aprendizaje automático. Adison-Wesley, Reading, 2ª ed.
Research 29 (3), 448±463.
Bazarra, M., Shetty, C.M., 1979. Nonlinear Programming: Hadj-Alouane, AB, Bean, JC, 1993. Un algoritmo genético para
Theory and Algorithms, Wiley, New York. el programa entero de opción múltiple. Departamento de Ingeniería Industrial y de
Ben-Daya, M., Al-Fawzan, M., 1996. A simulated annealing Operaciones, de la Universidad de Michigan, Ann Arbor, MI 48109-2117, Informe
approach for the one machine mean tardiness scheduling problem. European Técnico 92-50.
Journal of Operational Research 93 (1), 61±67.
Hadj-Alouane, AB, Bean, JC, Murty, K., 1993. Un híbrido
Biegel, J.E., Davern, J.J., 1990. Genetic algorithms and job Genetic/Optimization Algorithm for the Task Allocation Problem, Department of
shop scheduling. Computers and Industrial Engineering 19 (1±4), 81±91. Industrial and Operations Engineering, The University of Michigan, Ann Arbor, MI
48109-2117, Technical Report 93-30. Hajek, B., 1988. Cooling schedules for
Chakravarty, A., Shtub, A., 1990. Production scheduling optimal annealing.
during phased implementation of ¯exible manufacturing cells. IIE Transactions 22
(4), 292±299. Mathematics of Operations Research 3, 311±329. Hillier, F.S., Lieberman, G.J.,
Cohoon, J.P., Hegde, S.U., Martin, W.N., Richards, D.S., 1980. Operations Research, 3rd
1991. Distribuido algoritmos genéticos para el problema de diseño ¯oorplan. IEEE ed., Holden-Day, San Francisco. Hou, E.S.H., Li, H.Y., 1991. Task Scheduling for
Transactions on Computer-Aided Design 10 (3), 483 ± 492. Flexible
Manufacturing Systems Based on Genetic Algorithms. Proceedings of the 1991
Coit, D., Smith, A., Tate, D., 1994. restringida genética IEEE International Conference on Systems, Man, and Cybernetics, pp. 397±402.
Optimización mediante una función de penalización adaptativa, presentado en Huang, M., Romeo, F., Sangiovanni-Vincentelli, A.L., 1986.
Detroit ORSA / TIMS (WA26.2).
Connolly, D., 1990. Un mejoró esquema de recocido para la An E•cient Cooling Schedule for Simulated Annealing. Proceedings of
PGC. European Journal of Operational Research 46 (1), 93 ± 100. International Conference on Computer Aided Design, Santa-Clara, CA, pp.
381±384. Johnson, D.S., Aragon, C.A., McGeoch, L.A., Schevon, C.,
Davis, L., tienda de 1985. Trabajo programación con algoritmos genéticos.
Actas de una conferencia internacional sobre algoritmos genéticos y sus 1989. Optimization by simulated annealing: An experimental evaluation, Part 1.
aplicaciones, pp. 136 ± 140. Davis, L., Coombs, S., 1987. Los algoritmos genéticos y Graph Partitioning, Operations Research 37 (6), 865±892.
comu-
caciones enlazan velocidad de diseño. Actas de la Segunda Conferencia Kim, H., Nara, K., Gen, M., 1994. A method for maintenance
Internacional sobre algoritmos genéticos y sus aplicaciones, pp. 252 ± 256. scheduling using GA combined with SA. Computers and Industrial Engineering 27
(1±4), 477±480. Kim, J., Kim, Y., 1996. Simulated annealing and genetic
Fetterolf, P., Anandalingam, G., 1991. Optimización de interco-
nection of local area networks: A simulated annealing approach. ORSA Journal on algorithms for scheduling products with multi-level product structure. Computers
Computing 3, 275±287. Fetterolf, P., Anandalingam, G., 1992. Optimal design of and Operations Research 23 (9), 857±
868.
LAN±WAN internetworks. Annals of Operations Research Kirkpatrick, S., Gelatt, C., Vecchi, M., 1983. Optimization by
36, 275±298. simulated annealing. Science 220, 671±680. Klastorin, T.D., 1979. An e•ective
Friesz, T.L., Cho, H.J., Mehta, N.J., Tobin, R.L., Anandalin- subgradient algorithm for
gam, G., 1993. A simulated annealing approach to the network design problem the generalized assignment problem. Computers and Operations Research 6,
with variational inequality constraints. Transportation Science 2 (6), 18±26. 155±163.
Gangadharan, R., Chandrasekharan, R., 1994. A simulated Kumar, N., Srinivasan, G., 1996. A genetic algorithm for job
shop scheduling: A case study. Computers in Industry 31 (2), 155±160.
annealing heuristic for scheduling in a ¯owshop with bicriteria. Computers and
Industrial Engineering 27 (1), 473±476. Lundy, M., Mees, A., 1986. Convergence of an annealing
algorithm. Mathematical Programming 34, 14±124. Martello, S., Toth, P., 1977. An
Gavish, B., Pirkul, H., 1982. Allocation of databases and upper bound for the zero±
processors in a distributed computing system. In: Akoka, J. (Ed.), Management of one knapsack problem and a branch and bound algorithm. European Journal of
Distributed Data Processing. North Holland, Amsterdam. Operational Research 1 (3), 168±175.
80 L.J. LeBlanc et al. / European Journal of Operational Research 112 (1999) 54±80
Mathieu, R., Pittard, L., Anandalingam, G., 1994. Genetic Ross, G.T., Soland, R.M., 1975. A branch and bound
algorithm based approach to bilevel linear programming. RAIRO-Recherche algorithm for the generalized assignment problem. Mathematical Programming 8,
Operationelle 28 (1), 1±21. Metropolis, N., Rosenbluth, A., Rosenbluth, M., Teller, A., 91±103. Schmidt, L., Jackman, J., 1995. Evaluating assembly sequences
Teller, E., 1953. La ecuación de estado de cálculo de máquinas de computación for automobile assembly systems. IIE Transactions 27 (1), 23±31.
rápidas. Diario de la Química Física 21, 1087 ±
1091. Sieglemann, H.T., Frieder, O., 1991. The allocation of docu-
Murata, T., Ishibuchi, H., Tanaka, H., 1996. algo- Genetic ments in multiprocessor information retrieval systems: An application of genetic
ritmos para problemas de programación tienda OW. Computadoras e Ingeniería algorithms. Proceedings of the 1991 IEEE International Conference on Systems,
Industrial 30 (4), 1061 ± 1071. Man, and Cybernetics, pp. 645±650.
Murphy, RA, 1986. Un modelo flota privada con Multi-Stop
Backhaul, Documento de trabajo 103, Sistemas de decisión óptima, Green Bay, Smith, K., Palaniswami, M., Krishnamoorthy, M., 1996.
WI 54306. Tactical heuristic versus Hop®eld neural network approaches to a car sequencing
Nauss, RM, 1976. Un e ?? algoritmo ciente para la mochila 0 ± 1 problem. European Journal of Operational Research 93 (2), 300±316.
problema. Gestión de la Ciencia 23 (1), 27 ± 31. Ohno, T., 1988. Sistema de So®anopoulos, S., 1992. Simulated annealing applied to the
Producción Toyota, allá en gran
Producción escala. Productivity Press, Cambridge. Otten, R., Van Ginnekan, L., processor allocation problem. European Journal of Operational Research 60 (3),
1984. Diseño Plano de Uso 327±334. Vancza, J., Markus, A., 1991. Genetic algorithms in process
SA. Actas del IEEE Conferencia sobre diseño asistido por ordenador, Santa Clara,
CA, 96 ± 98. planning. Computers In Industry 17 (2±3), 181±194. Vernekar, A., Anandalingam,
Pearl, J., 1984. La heurística: inteligentes estrategias de búsqueda para G., Dorny, C.N., 1990. Optimi-
Computer Problem Solving. Addison-Wesley, Reading. Pirkul, H., 1986. An integer zation of resource location in hierarchical computer networks. Computers and
programming model for the Operations Research 17 (4), 375±
allocation of databases in a distributed computer system. European Journal of 388.
Operational Research 26 (3), 401±411. Ray, T., Gokarn, R., Sha, O., 1995. A global Wilhelm, M.R., Ward, T.L., 1987. Solving quadratic assign-
optimization ment problems by simulated annealing. IIE Transactions 9 (1), 107±119.
model for ship design. Computers in Industry 26 (2), 175±
192. Zegordi, S., Itoh, K., Enkawa, T., 1995. Minimizing makespan
Reeves, C., 1995. A genetic algorithm for ¯owshop sequencing. for ¯owshop scheduling by combining simulated annealing with sequencing
Computers and Operations Research 22 (1), 5±13. Romero, D., Sanchez-Flores, knowledge. European Journal of Operational Research 85 (3), 515±531.
A., 1990. Methods for the one-
dimensional space allocation problem. Computers and Operations Research 17
(5), 465±473.