Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Esto significa que la optimización se realiza sin la presunción de conocer perfectamente cuáles
serán los flujos futuros. Adicionalmente, las reglas de operación óptimas se determinan
directamente, sin la necesidad de inferirlas posteriormente de los resultados de la
optimización. Sin embargo, los métodos explícitos son computacionalmente mucho más
exigentes que los implícitos.
Figura 1.1 Procedimientos de optimización estocástica implícita (a) y explícita (b). Traducidos de Labadie (2004)
Programación Lineal
La programación lineal es una de las técnicas de optimización más empleadas en la modelación de
sistemas de recursos hídricos Se trata de un método de optimización estocástica implícita. Lo más
atractivo de esta técnica es su flexibilidad de aplicación a problemas grandes, la convergencia a un
óptimo global, la no necesidad de aportar soluciones iniciales, la existencia de una teoría dual sólida
para realizar análisis de sensibilidad, y la disponibilidad de numerosas herramientas informáticas
relativamente sencillas de utilizar ya creadas, o adaptadas, para su resolución, como por ejemplo CPLEX
(IBM), GAMS
Los algoritmos de la programación más robustos y potentes son, según Labadie (2004):
_ Programación lineal sucesiva (o secuencial), donde todas las funciones no lineales se aproximan
mediante los dos primeros términos de su serie de Taylor asociada. Las soluciones deben mantenerse
dentro de una serie de regiones de confianza para evitar inestabilidades en la convergencia.
_ Método Lagrangiano aumentado (o método de los multiplicadores), que emplea una función
Lagrangiana similar a la empleada en el método anterior pero mejorada con una serie de términos de
penalización de forma que el problema de optimización original se puede reemplazar por una secuencia
de problemas de optimización no lineal sin restricciones más sencillos de resolver.
_ Método generalizado del gradiente reducido. Es una técnica de búsqueda por gradiente restringida
que resuelve un problema de optimización reducido respecto a las variables de decisión del problema
original.
Programación Dinámica
Existen problemas que poseen una estructura especial: las decisiones son tomadas en forma secuencial,
en el tiempo y/o en el espacio. O sea, estos problemas pueden descomponerse en varias etapas, las que
pueden ser completadas de una o más formas. Pero, a pesar de que las decisiones son tomadas de a
una, ellas son altamente interdependientes. Para resolver este tipo de problemas surgió la
programación dinámica (PD), que fue desarrollada por Richard Bellman a mediados de la década del 50.
En verdad, la palabra dinámica da la sensación de decisiones relacionadas con el tiempo, no obstante
pueda ser utilizada también en situaciones donde el tiempo no es un factor importante.
Por tal motivo, tal vez un nombre mas apropiado sería el de "programación de etapas múltiples" (Taha,
1994). El planeamiento y operación de sistemas de recursos hídricos presenta innumerables situaciones
caracterizadas por una secuencialidad espacial y/o temporal en la toma de decisiones. Estas situaciones
son especialmente adecuadas para ser abordadas a través de la PD. La ventaja de este abordaje es que
problemas de gran porte pueden ser descompuestos en otros más pequeños y fáciles de resolver. La PD
no está limitada por requerimientos de linealidad, convexidad o continuidad, como la programación
lineal. Sin embargo, está limitada a problemas donde la FO es función de una (o más) variables de
decisión y no proporcional a ellas
Esta función puede, inclusive, ser discontinua, al punto de estar definida solamente para valores
discretos de las variables de decisión (Labadie, 1977; Barros, 1997). Sintéticamente, la solución de
problemas de PD consiste en buscar la decisión óptima "paso a paso", teniendo en consideración las
futuras consecuencias de cada decisión: la decisión "i" debe ser la mejor, no solamente considerando
esa etapa, sino todas las etapas restantes, incluyendo la propia etapa
Ri(xij) el resultado (costo o beneficio) de la decisión 'j" para la variable "xi", en la etapa i
Fi(qi) el beneficio "óptimo" de las etapas i, 1+i, …, N, para el valor "q"de la variable de estado en la etapa
"i".
siendo "Y' el grado de discretización de la variable de estado. En otras palabras, esto significa que la
variable de decisión puede adoptar un valor entre "J+1" valores posibles (son "Y' valores discretos, más
la opción de la decisión de adoptar el valor "cero") sin sobrepasar el límite del recurso. Este límite, en la
etapa "i", es definido por el valor de la variable de estado. El símbolo IP indica una operación cualquiera,
normalmente una suma o un producto. Anteriormente, fue explicado que para resolver problemas de
PD es preciso definir en cada etapa una ecuación de estado. Esta ecuación puede ser expresada como:
Algoritmo Genético
Desarrollo
El paso inicial es producir de manera aleatoria una generación inicial de cadenas que
representen posibles respuestas. Cada una de estas cadenas es
evaluada a través de la función objetivo, Io cual se consigue por medio de la simulación
que, por regla general, requiere de un modelo numérico.
Seleccionar aquella cadena cuyo valor sumado a la suma parcial de las que le anteceden
sea igual o mayor que el producto de n por la suma total de las cadenas.
Recocido Simulado
Este es otro método de búsqueda para el óptimo global que se ha utilizado en una amplia
variedad de problemas, cuyo fin es encontrar la solución óptima de una función con un gran
número de variables independientes (Kirkpatrick, 1983; Cerny, 1985; Van Laarhoven y
Aarts, 1987). Como ocurre con la metodología antes descrita (el
Algoritmo Genético), el RS también posee la característica de no estar limitado por
circunstancias coercitivas (derivabilidad o continuidad de la función objetivo).