Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Los procedimientos iterativos más efectivos alternan entre dos fases en la optimización. En la
iteración k, donde la x actual es x^k, hacen lo siguiente:
donde alphaki es un escalar positivo llamado el tamaño del paso. El tamaño del paso se
determina mediante un proceso de optimización llamado búsqueda de línea como se describe
en el Capítulo 5. Además de 1 y 2, un algoritmo debe especificar
Los métodos de PNL (programación no lineal) que se analizarán en este capítulo difieren
principalmente en cómo generan las direcciones de búsqueda. Algunos métodos de
programación no lineal requieren información sobre valores derivados, mientras que otros no
usan derivados y se basan únicamente en evaluaciones de funciones. Además, los sustitutos de
diferencia finita se pueden usar en lugar de derivados como se explica en la Sección 8.10. Para
funciones diferenciables, los métodos que usan derivados analíticos casi siempre usan menos
tiempo de cálculo y son más precisos, incluso si se usan aproximaciones de diferencias finitas.
Se pueden emplear códigos simbólicos para obtener derivados analíticos, pero esto puede
requerir más tiempo de computadora que la diferenciación finita para obtener derivados. Para
las funciones que no son nothroth, un método de solo valores de función puede. ser más
exitoso que usar un método derivado. Primero describimos algunos métodos simples no
derivados y luego presentamos una serie de métodos que usan información derivada. También
mostramos cómo la naturaleza de la función objetivo influye en la efectividad del algoritmo de
optimización particular.
Un método de búsqueda aleatorio simplemente selecciona un vector inicial x^O, evalúa f(x) en
x^O, y luego selecciona aleatoriamente otro vector x^1 y evalúa f(x) en x^1. En efecto, tanto la
dirección de búsqueda como la longitud del paso se eligen simultáneamente. Después de una
o más etapas, el valor de f(x^k) se compara con el mejor valor anterior de f(x) entre las etapas
anteriores, y se toma la decisión de continuar o finalizar el procedimiento. Las variaciones de
esta forma de búsqueda aleatoria implican seleccionar aleatoriamente una dirección de
búsqueda y luego minimizar (posiblemente por pasos aleatorios) en esa dirección de búsqueda
como una serie de ciclos. Claramente, la solución óptima se puede obtener con una
probabilidad de 1 solo como k -> oo, pero como cuestión práctica, si la función objetivo es
bastante plana, una solución subóptima puede ser bastante aceptable. Aunque el método es
ineficiente en lo que respecta a las evaluaciones de funciones, puede proporcionar un buen
punto de partida para otro método. Puede ver la búsqueda aleatoria como una extensión del
método de estudio de caso. Consulte Dixon y James (1980) para ver algunos algoritmos
prácticos.
…….
For n = 30, we must examine 330 - 1 = 2.0588 X 1014 values of f(x) if a threelevel factorial
design is to be used, obviously a prohibitive number of function evaluations.
6.1.3 Búsqueda univariante
porque las direcciones de búsqueda se alinean con los ejes principales como se indica en la
Figura 6.2a. Sin embargo, no funciona satisfactoriamente para funciones objetivas cuadráticas
más generales de la forma
Como se ilustra en la figura 6.2b. Para el último caso, los cambios en x disminuyen a medida
que se acerca el óptimo, por lo que se necesitarán muchas iteraciones para lograr una alta
precisión.