Sei sulla pagina 1di 3

OPTIMIZACIN MULTIDIMENSIONAL NO RESTRINGIDA

Este captulo describe las tcnicas para encontrar el mnimo o el mximo de una funcin en varias variables. Las tcnicas para la optimizacin multidimensional no restringida se clasifican de varias formas. Para propsitos del presente anlisis, se dividirn dependiendo de si se requiere la evaluacin de la derivada. Los procedimientos que no requieren dicha evaluacin se llaman mtodos sin gradiente o directos. Aquellos que requieren derivadas se conocen como mtodos de gradientes o mtodos de descenso (o ascenso). MTODOS DIRECTOS Estos mtodos van desde procedimientos muy burdos hasta tcnicas ms elegantes que intentan aprovechar la naturaleza de la funcin. Bsqueda aleatoria Un simple ejemplo de los mtodos burdos es el mtodo de la bsqueda aleatoria. Como su nombre lo indica, dicho mtodo evala en forma repetida la funcin con los valores seleccionados aleatoriamente de la variable independiente. Si el mtodo se lleva a cabo con un nmero suficiente de muestras, el ptimo eventualmente se localizar. Bsquedas univariadas y bsquedas patrn La estrategia bsica del mtodo de bsqueda univariada consiste en trabajar slo con una variable a la vez, para mejorar la aproximacin, mientras las otras se mantienen constantes. Puesto que nicamente cambia una variable, el problema se reduce a una secuencia de bsquedas en una dimensin, que se resuelven con una diversidad de mtodos. MTODOS CON GRADIENTE Como su nombre lo indica, los mtodos con gradiente utilizan en forma explcita informacin de la derivada para generar algoritmos eficientes que localicen el ptimo. Mtodos avanzados del gradiente Mtodo de gradientes conjugados (Fletcher-Reeves). Un mtodo de optimizacin, que usa gradientes conjugados para definir la direccin de bsqueda, es cuadrticamente convergente. Esto tambin asegura que el mtodo optimizar una funcin cuadrtica exactamente en un nmero finito de pasos sin importar el punto de inicio. El algoritmo del gradiente conjugado de Fletcher-Reeves modifica el mtodo de ascenso de mxima inclinacin al imponer la condicin de que sucesivas direcciones de bsqueda del gradiente sean mutuamente conjugadas. La prueba y el algoritmo estn ms all del alcance del texto, pero se describen en Rao (1996). Mtodo de Newton El mtodo de Newton para una sola variable se puede extender a los casos multivariados. Este mtodo, de nuevo, se comporta mejor que el mtodo del ascenso de mxima inclinacin (vase la figura 14.12). Sin embargo, observe que este mtodo requiere tanto del clculo de las segundas derivadas como de la inversin matricial, en cada iteracin. Por lo que el mtodo no es muy til en la prctica para funciones con gran nmero de variables. Adems, el mtodo de Newton quiz no converja si el punto inicial no est cerca del ptimo. Mtodo de Marquardt.

Se sabe que el mtodo del ascenso de mxima inclinacin aumenta el valor de la funcin, aun si el punto inicial est lejos del ptimo. Por otro lado, ya se describi el mtodo de Newton, que converge con rapidez cerca del mximo. El mtodo de Marquardt usa el mtodo del descenso de mxima inclinacin cuando x est lejos de x*, y el mtodo de Newton cuando x est cerca de un ptimo. Esto se puede lograr al modificar la diagonal del hessiano en la ecuacin

Donde ai es una constante positiva e I procedimiento, se supone que ai es

es la matriz identidad. Al inicio del grande y

La cual reduce la ecuacin (14.14) al mtodo del ascenso de mxima inclinacin. Conforme continan las iteraciones, ai se aproxima a cero y el mtodo se convierte en el de Newton. As, el mtodo de Marquardt ofrece lo mejor de los procedimientos: comienza en forma confiable a partir de valores iniciales pobres y luego acelera en forma rpida cuando el punto inicial est cerca del punto ptimo, seguir el gradiente puede resultar ineficiente. Los mtodos de Newton intentan la bsqueda a lo largo de una trayectoria directa hacia el ptimo cuando se aproxima al ptimo. Por desgracia, el mtodo tambin requiere la evaluacin del hessiano y la inversin matricial en cada paso. Debe observarse que el mtodo de Marquardt es, ante todo, til para problemas no lineales de mnimos cuadrados. Por ejemplo, la biblioteca IMSL contiene una subrutina con este propsito. Mtodos de cuasi-Newton. Los mtodos cuasi-Newton, o mtodos de mtrica variable, buscan estimar el camino directo hacia el ptimo en forma similar al mtodo de Newton. Sin embargo, observe que la matriz hessiana en la ecuacin (14.14) se compone de las segundas derivadas de f que varan en cada paso. Los mtodos cuasi-Newton intentan evitar estas dificultades al aproximar H con otra matriz A, slo las primeras derivadas parciales de f. El procedimiento consiste en comenzar con una aproximacin inicial de H1 y actualizarla y mejorarla en cada iteracin. Estos mtodos se llaman de cuasiNewton porque no usan el hessiano verdadero, sino ms bien una aproximacin.

OPTIMIZACIN RESTRINGIDA
Programacin lineal La programacin lineal (PL) es un mtodo de optimizacin que se ocupa del cumplimiento de un determinado objetivo, como maximizar las utilidades o minimizar el costo, en presencia de restricciones como recursos limitados.

Forma estndar El problema bsico de la programacin lineal consiste en dos partes principales: la funcin objetivo y un conjunto de restricciones. En un problema de maximizacin, la funcin objetivo, por lo general, se expresa como: Maximizar Z = c1x1 + c2x2 + + cnxn (15.1)

donde cj = la contribucin de cada unidad de la j-sima actividad realizada y xj = magnitud de la jsima actividad. As, el valor de la funcin objetivo, Z, es la contribucin total debida al nmero total de actividades, n. Las restricciones se representan, en forma general, como ai1x1 + ai2x2 + + ainxn bi (15.2) donde aij = cantidad del i-simo recurso que se consume por cada unidad de la j-sima actividad, y bi = cantidad del i-simo recurso que est disponible. Es decir, los recursos son limitados. El segundo tipo general de restriccin, especifica que todas las actividades deben tener un valor positivo: xi > 0 El mtodo simplex El mtodo simplex se basa en la suposicin de que la solucin ptima estar en un punto extremo. As, el procedimiento debe ser capaz de discriminar si durante la solucin del problema se presentar un punto extremo. Para esto, las ecuaciones con restricciones se reformulan como igualdades, introduciendo las llamadas variables de holgura. Variables de holgura. Como lo indica su nombre, una variable de holgura mide cunto de un recurso restringido est disponible; es decir, cunta holgura est disponible. Implementacin del mtodo simplex. El mtodo simplex evita las ineficiencias descritas en la seccin anterior. Esto se hace al comenzar con una solucin factible bsica. Luego se mueve a travs de una secuencia de otras soluciones factibles bsicas que mejoran sucesivamente el valor de la funcin. Optimizacin restringida no lineal Existen varios procedimientos para los problemas de optimizacin no lineal con la presencia de restricciones. Generalmente, dichos procedimientos se dividen en directos e indirectos (Rao, 1996). Los procedimientos indirectos tpicos usan las llamadas funciones de penalizacin. stas consideran expresiones adicionales para hacer que la funcin objetivo sea menos ptima conforme la solucin se aproxima a una restriccin.As, la solucin no ser aceptada por violar las restricciones. Aunque tales mtodos llegan a ser tiles en algunos problemas, se vuelven difciles cuando el problema tiene muchas restricciones. El mtodo de bsqueda del gradiente reducido generalizado o GRG. Es uno de los mtodos directos ms populares, este es de hecho el mtodo no lineal usado en el Solver de Excel. Este mtodo primero reduce a un problema de optimizacin no restringido. Lo hace resolviendo en un conjunto de ecuaciones no lineales las variables bsicas en trminos de variables no bsicas. Despus, se resuelve el problema no restringido utilizando procedimientos similares a los que se describen en el captulo 14. Se escoge primero una direccin de bsqueda a lo largo de la cual se busca mejorar la funcin objetivo. La seleccin obvia es un procedimiento cuasi-Newton (BFGS) que, como se describi en el captulo 14, requiere el almacenamiento de una aproximacin de la matriz hessiana.