Sei sulla pagina 1di 4

IV.

Optimización
1. Optimización unidimensional no restringida
Esta sección describirá técnicas para encontrar el mínimo o el máximo de una
función de una sola variable, f(x)

Como en la localización de raíces, los problemas de optimización


unidimensionales se pueden dividir en métodos cerrados y métodos abiertos.

a) Búsqueda de la sección dorada


La optimización en una sola variable tiene como objetivo encontrar el valor
de x que da un extremo, ya sea un máximo o un mínimo de f(x). Es igual en
esencia al método de la bisección para localizar raíces.

Es un método de búsqueda intervalo en una dimensión donde se trata de ir


aproximando un punto por medio de anidamiento
La estrategia de este método se basa en tres puntos iniciales: dos considerado
los extremos de un intervalo ( x1 y x 2 ) y el tercero ( x 3 ) entre los dos primeros
de tal manera que la relación entre la distancia de este punto interno al extremo
x 2 ( x 2  x3 ) y la distancia entre los extremos ( x1 . x 2 ) es siempre una constante
En el punto x 3 divide al segmento [ x1 : x2 ] en dos partes, la parte [ x1 : x3 ] es
más pequeña que la parte [ x3 : x 2 ]

x1 x3 x2
El método itera generando un siguiente punto x 4 en [ x3 : x 2 ] , la parte más
amplia, de manera que se cumple:
x 4  x1

x 2  x1
Las fórmulas para el cálculo de x 3 y x 4 son:
x4  (1  t )  x1  x 2
x3  x1  (1  t ) x 2
Ya que en estas fórmulas no se requiere x1  x2
Dependiendo de la función a maximizar, el algoritmo escoge tres puntos de
los cuatro disponibles de manera que la situación se repite en las proporciones
de los intervalos
En general, si l i es la longitud del intervalo en la iteración i se cumple que:
l n   n 1li
Por lo tanto, conociendo el intervalo inicial y sabiendo a que precisión se
desea estimar el punto l n , es fácil estimar el total de iteraciones requerido
para que este método se aproxime al valor requerido
ln( ln )  ln( li )
n  1
ln(  )
Ejemplo
1. Use la búsqueda de la sección dorada para encontrar el máximo de
x2
f ( x)  2Sen( x) 
10
Dentro del intervalo x1  0 y xu  0

b) Interpolación cuadrática

Si comenzamos con tres puntos, por ejemplo x1 , x 2 , x 3 en orden creciente, y


no necesariamente igualmente espaciados, pero contenidos dentro de la zona
de búsqueda ( a, b) , podemos aproximarlos a un polinomio de grado 2,
f ( x)  a  bx  cx 2 de tal manera que dicho polinomio pasa exactamente por
esos tres puntos y debe presentar un mínimo en:
b
x  
2c
Si suponemos que f(x) se evalúa en los tres puntos, podríamos calcular los
valores de a, b, c resolviendo el sistema de tres ecuaciones lineales:
f ( x1 )  a  bx1  cx12
f ( x 2 )  a  bx 2  cx 22
f ( x3 )  a  bx3  cx32
Lo que nos lleva a:
 1  ( x 22  x32 ) f 1  ( x32  x12 ) f 2  ( x12  x 22 ) f 3 
x   
2  ( x 2  x3 ) f 1  ( x3  x1 ) f 2  ( x1  x 2 ) f 3 

Con f1  f ( x1 ) ; f 2  f ( x2 ) ; f 3  f ( x3 )

Para ilustrar la primera etapa del procedimiento de búsqueda examinaremos


la Figura 1. Señalar que solamente una nueva evaluación de la función
objetivo se lleva a cabo en cada etapa de búsqueda.
 Si x  cae entre x 2 y x 3
 
f  f2
a)   elegir x 2 , x  , x 3

f  f3
 
f  f2
b)   elegir x1 , x 2 , x 

f  f3

Si el óptimo cae entre x1 y x 2 , se procede de forma análoga al caso anterior.


La búsqueda termina cuando se ha alcanzado la precisión deseada.

Ejemplo:
Use la interpolación cuadrática para aproximar el máximo de
x2
f ( x)  2Sen( x) 
10
Con los valores iniciales x 0  0 , x1  1 x2  4

c) Método de newton
Recuerde que el método de Newton-Raphson es un método abierto que
permite encontrar la raíz x de una función de tal manera que f ( x)  0 . El
método se resume como
f (x )
xi 1  xi   i
f ( xi )
Se utiliza un método abierto similar para encontrar un valor óptimo de f (x )
al definir una nueva función, g(x) = ƒ′(x). Así, como el mismo valor óptimo
x* satisface ambas funciones
ƒ′(x*) = g(x*) = 0
Se emplea lo siguiente
f  (x )
xi 1  xi   i
f ( xi )
Como una técnica para encontrar el mínimo o máximo de f(x). Se deberá
observar que esta ecuación también se obtiene escribiendo una serie de Taylor
de segundo orden para f(x) e igualando la derivada de la serie a cero. El
método de Newton es abierto y similar al de Newton-Raphson, pues no
requiere de valores iniciales que contengan al óptimo. Además, también tiene
la desventaja de que llega a ser divergente. Por último, usualmente es una
buena idea verificar que la segunda derivada tenga el signo correcto para
confirmar que la técnica converge al resultado deseado.

Ejemplo
Con el método de Newton encuentre el máximo de
x2
f ( x)  2Sen( x) 
10
Con un valor inicial de x0  2.5

2. Optimización multidimensional no restringida


a) Método directos
b) Método de gradiente
3. Optimización restringida
a) Programación lineal
b) Optimización restringida no lineal
c) Bibliotecas y paquetes

Potrebbero piacerti anche