Sei sulla pagina 1di 5

2.3.1.

4 Método de Programación Dinámica (DP)


La Programación Dinámica es una técnica ampliamente utilizada en los estudios de sistemas de potencia.
De hecho, una técnica matemática utilizada para problemas de decisión de múltiples etapas; desarrollado
en los años cincuenta.
Un problema de decisión de múltiples etapas es un problema en el que las decisiones óptimas tienen que
las etapas pueden ser tiempos diferentes, espacios diferentes, diferentes niveles, etc. El punto importante
es que la salida de cada etapa es la entrada a la siguiente etapa serial.
La función objetivo general debe optimizarse en todas las etapas. Normalmente es una función de las
variables de decisión (xi) de todas las etapas. El hecho importante es que uno no puede optimizar la
primera etapa hacia la etapa final; ya que puede haber algunas correlaciones entre las etapas, también.
Para aclarar el problema, expresemos un ejemplo de sistema de energía. Supongamos que minimizarán el
costo de generación de un sistema de energía en un período de 24 horas.
Algunos datos son los siguientes
• Hay cuatro unidades de generación disponibles, cada una de las cuales puede estar apagada o encendida
(De modo que son posibles varias combinaciones, tales como, 1111, 1101, 1001, 0011, ...).
• Las eficiencias de la unidad son diferentes, de modo que si la carga del sistema es baja y digamos, dos
Podemos utilizar las unidades más eficientes para suministrar la carga.
• La carga varía a lo largo del período de 24 horas, cambiando a cada hora (etapa).

El problema de decisión de múltiples etapas es, de hecho, decidir sobre las unidades en las que estar cada
etapa, de modo que se minimice el costo general de generación durante el período de 24 horas. Notamos
que si no se impusiera ninguna otra restricción, deberíamos optimizar nuestro problema en cada etapa y
resumir lo largo de todas las etapas. En otras palabras, la optimización de una sola etapa tiene problemas
que debe ser resuelto para encontrar la solución final.
Supongamos que la solución final se parece a la Fig. 2.5 en la que se muestran las combinaciones de
unidades en cada etapa.
Como se muestra, la unidad 1 está encendida en las horas 1 y 2, apagada en la hora 3 y encendida
nuevamente en la hora 4. Ahora, ¿qué sucede si se impone una restricción que expresa el hecho de que si
la unidad 1 es apagado, no se puede activar a menos que haya transcurrido un período de 5 h. La solución
no es práctica. Ahora, ¿cómo podemos encontrar la solución?
Se puede verificar en cada etapa, para el caso de las cuatro unidades anteriores, el número de
combinaciones es 24 - 1 = 15. Para el período de 24 h, el número de combinaciones sería (15) 24. ¿Qué
sucede si el número de unidades es, por ejemplo, 100 y el El número de etapas es, digamos, 168 (una
semana). El número de las combinaciones generales sería (2100 - 1) 168 !
En la técnica de DP, un problema de decisión de varias etapas se descompone en una secuencia de
problemas de una sola etapa, resueltos sucesivamente. La descomposición debe hacerse de tal manera que
la solución óptima del problema original de la solución óptima de problemas de una sola etapa.

2.3.1.5 Método de programación de enteros

En los algoritmos analizados hasta ahora, cada una de las variables de decisión puede tomar cualquier
valor. ¿Qué sucede si una variable de decisión se limita a tomar solo un valor entero? por ejemplo, si la
variable de decisión es el número de unidades de generación, tomar una el valor real no tiene sentido los
algoritmos de optimización desarrollados para esta clase de los problemas se clasifican como métodos de
propiedad intelectual. Si todas las variables de decisión son de tipo entero, el problema se aborda como
problema de IP. Si algunas variables de decisión son de entero escriba mientras que otros no son de tipo
entero, el problema se conoce como mixto problema de programación de enteros.
Por otra parte, en función de la naturaleza del problema original, ambos enteros lineales se han
desarrollado métodos de programación no lineal y de programación entera. Como resultado, en la
literatura sobre sistemas de poder, han aparecido algunos términos como MILP.

2.3.2 Algoritmos heurísticos


La mayoría de los algoritmos matemáticos pueden garantizar alcanzar una solución óptima; mientras no
necesariamente garantizamos alcanzar un óptimo global. Optimización global solo puede ser contactado,
verificado o garantizado para casos simples.
Por otro lado, muchos problemas prácticos de optimización no caen en estrictos formas y supuestos de
algoritmos matemáticos basados. Además, si el problema es muy complejo, es posible que no podamos
resolverlo fácilmente, a través de algoritmos matemáticos. Además, encontrar el óptimo global es de
interés, como encontrar un local sería un gran inconveniente.
Los algoritmos heurísticos están diseñados para abordar los puntos mencionados anteriormente. Ellos,
normalmente, puede resolver los problemas combinatorios, a veces muy complejos, pero en una tiempo
razonable. Sin embargo, buscan buenas soluciones, sin poder garantizar. La optimización, o incluso qué
tan cerca están las soluciones del punto óptimo. Además, algunos algoritmos heurísticos modificados se
han desarrollado en la literatura por la cual se logran mejores comportamientos, alegando que las
soluciones óptimas están garantizadas.
Se puede diseñar un algoritmo heurístico simple basado en algunos tipos de sensibilidad análisis. Por
ejemplo, en un problema de asignación de capacitores, las sensibilidades de la La función objetivo puede
ser determinada por la aplicación de un banco de capacitores en un bus.
Una vez hecho esto, el capacitor se agrega al bus más sensible y el procedimiento es repetido hasta que no
se logre ninguna mejora adicional en términos de la función objetivo. Sin embargo, la mayoría de los
algoritmos heurísticos se basan en algunos comportamientos biológicos. Básicamente, todo comienza
desde un punto o un conjunto de puntos, avanzando hacia una mejor solución; a través de una búsqueda
guiada. Pocos se han desarrollado hasta ahora, algunos valen mencionando aquí
• Algoritmo genético (GA), basado en la genética y la evolución,
• Recocido simulado (SA), basado en algunos principios de termodinámica,
• Enjambre de partículas (PS), basado en movimientos de aves y peces,
• Búsqueda de tabú (TS), basada en la respuesta de memoria,
• Colonia de hormigas (AC), basada en cómo se comportan las hormigas.
Aun así, otras técnicas pueden ser citadas. Sin embargo, limitamos nuestras discusiones aquí a
Los algoritmos anteriores. El lector interesado debe consultar las referencias en el fin de este capítulo.

2.3.2.1 Algoritmo genético


En la naturaleza, cada especie se enfrenta a un entorno desafiante y debe adaptarse a la máxima
probabilidad de supervivencia. A medida que el tiempo avanza, la especie. Con características mejoradas
sobrevive. De hecho, el llamado tipo más apto sobrevive. Este tipo de fenómeno que ocurre en la
naturaleza es la base de la evolución basado en GA.
Algoritmo genético fue desarrollado principalmente por Holanda. Las variables de decisión se encuentran
codificados en binario, codificados en valor real o codificados en enteros, en forma de cadena de genes.
Esta cadena se llama el cromosoma problema, seleccionado de la manera llamado conjunto de
poblaciones. La función objetivo se calcula para este cromosoma. Como la función de fitness problema.
Después de configurar una población inicial, seleccionando una Cromosoma y calculando su aptitud, se
genera una siguiente población; Residencia en el procedimiento esbozado después. Los cromosomas
iniciales se llaman como padres y los cromosomas regenerados se llaman descendencia. Como veremos,
la regeneración. Resultados en cromosomas con mejores valores de aptitud física. El algoritmo avanza
hasta que no se logra una mejora adicional en la función de estado fisico.
Notamos que GA usa solo la información de la función objetivo y no los derivados Al azar, pero de forma
guiada, busca el espacio factible, la probabilidad de alcanzar en las proximidades del óptimo global es
alta; a pesar de que la convergencia en el óptimo global en sí no es muy probable. Selección, cruce y la
mutación como los tres principales operadores de GA se describen a continuación.

• Selección. Sobre la base de la estructura cromosómica definida, se genera inicialmente una población de
cromosomas, de forma aleatoria o inteligente. Pueden considerarse 30 a 100 cromosomas. Entonces,
podemos seleccionar dos cromosomas como padres para proceso adicional. El valor de la condición física
se utiliza como criterio para la selección de los padres.
• Crossover. Una vez que los padres son seleccionados, debemos generar nuevas cadenas; Las crías, a
través de dos tipos de operadores. El llamado crossover trabaja en el principio de intercambio de valores
después de una posición específica. Por ejemplo si un y B son los dos primeros cromosomas
seleccionados

A: 0 1 1 0 1 0 1 1 1 0

B: 1 0 1 0 1 1 1 0 0 1

Y el operador de cruce se aplica en la posición 6, los descendientes resultantes se ven como


A0: 0 1 1 0 1 0 1 0 0 1

B0: 1 0 1 0 1 1 1 1 1 0

Este tipo de regeneración se realiza aleatoriamente en varias posiciones. Como resultado, un se genera
nueva población de cromosomas en la que, nuevamente, la selección. El proceso puede ser reiniciado.
• Mutación. Un inconveniente inherente del operador de cruce es el hecho de que en alguna posición
particular, el valor del gen puede no cambiar en absoluto. Para evitar este problema, el operador de
mutación intenta alterar el valor de un gen, al azar de 1 a 0 y viceversa. Debemos mencionar, sin
embargo, que esto se hace bastante con poca frecuencia.
Debemos mencionar que los operadores definidos anteriormente son los tipos más simples. En la práctica,
se desarrollan operadores más sofisticados para mejorar el rendimiento de GA. Actualmente, GA ha
recibido una gran atención en la literatura sobre sistemas de alimentación.

2.3.2.2 Recocido simulado

El Recocido simulado es un algoritmo flexible para tratar problemas de optimización combinatoria. Puede
aplicarse a problemas complejos, que incluyen funciones no diferenciables, discontinuas y no convexas.
El recocido es el proceso natural de enfriar un material fundido; desde lo alto temperatura. Si el proceso
de enfriamiento se realiza en condiciones de equilibrio térmico, el recocido da como resultado la
formación de cristales. La formación de un perfecto. El cristal es equivalente a un estado de energía
mínima.
Fue en la década de 1980 que los principios antes citados aparecieron por primera vez como algoritmo en
la resolución de problemas de optimización. Se señaló que una correspondencia se puede definir entre los
estados físicos de una materia y el espacio de solución de un problema de optimización. La energía libre
de la materia puede corresponder a la función objetiva del problema de optimización.

Antes de continuar, primero deberíamos discutir el algoritmo de Metropolis como la base del algoritmo
SA.
• Algoritmo de metrópolis. Las partículas que forman un material tienen diferentes niveles de energía,
según una distribución de probabilidad y en función de su temperatura (T). El algoritmo de Metropolis
trabaja sobre el principio de generar un nuevo estado. S; de un estado inicial dado Si; con energía Ei. Este
nuevo estado es generado por un mecanismo, que consiste en una pequeña perturbación en el estado
original. La perturbación se obtiene, de hecho, moviendo una de las partículas elegidas por el método de
Monte Carlo.
Para la energía del nuevo estado, Ej (encontrado probabilísticamente), la diferencia Ej – Ei se verifica que
sea menor o igual a cero para aceptar el nuevo estado Sj. Si esta diferencia es positiva, todavía se acepta
Sj; pero con una probabilidad dada por

Donde T es la temperatura del material y kB es la constante de Boltzmann. Los proceso dado


anteriormente normalmente requiere un gran número de transiciones de estado en alcanzando el estado
con el nivel de energía más bajo.
Se siguen los principios anteriores para resolver un problema de optimización. SA consiste básicamente
en dos mecanismos principales. Una es la generación de alternativas (estados) y el otro es una regla de
aceptación. Inicialmente, para una temperatura dada T0, una se genera secuencia de configuraciones (N0).
La configuración inicial Si es entonces elegido Tk es el parámetro de control. Inicialmente T es grande;
entonces se reduce en base a un horario de enfriamiento. El criterio de aceptación es como se discute en el
algoritmo de Metropolis.
Temperatura inicial T0, el número de transiciones realizadas a cada temperatura nivel (Nk), temperatura
final, Tf (según el criterio de parada) y la secuencia de enfriamiento (dado por Tk + 1 = g (Tk) Tk; donde
g (Tk) es una función que controla la temperatura), son cuatro parámetros principales de SA.
Determinaciones apropiadas de lo anterior. Los parámetros han recibido atención en la literatura.

2.3.2.3 Enjambre de partículas

Algunas criaturas naturales como los peces y las aves se comportan como un enjambre. Cada individuo
coordina su movimiento con los demás de tal manera que no lo hace. Chocan con los demás, se mueven
hacia el destino y se mueven hacia el centro del grupo (enjambre).
Fue a mediados de la década de 1990 cuando se formuló la idea básica de PS como una optimización
algoritmo.
Las características de cada individuo (el llamado agente) se muestran en un espacio bidimensional por su
posición (xey) y su vector de velocidad (vx y vy). Cada el agente optimiza su movimiento hacia el
destino. Al hacerlo, rastrea

• El mejor valor de la función objetivo que ha logrado hasta ahora (el llamado pbest),
• El mejor valor de la función objetivo que los otros agentes han logrado para lejos (el llamado gbest).
Así, el agente modifica su posición, observando • Su posición actual,
• Su velocidad actual,
• Las distancias entre la posición actual con pbest y gbest.

Los pasos involucrados en un algoritmo de optimización de PS pueden describirse generalmente como


(a) Generar la condición inicial para cada agente.
(b) Evaluar el punto de búsqueda de cada agente.
(c) Modificar cada punto de búsqueda.
El procedimiento se repite para un número máximo de iteraciones.
Cabe mencionar que algunas variaciones del método de optimización de PS han
Se ha desarrollado, hasta ahora, para dar cuenta de algunas prácticas de optimización combinatoria
problemas.

2.3.2.4 búsqueda tabú

Tabu significa prohibido buscar o considerar. A diferencia de otros combinatorios enfoques, la TS no está
relacionada con los fenómenos físicos. Se propuso inicialmente en principios de los ochenta. Es un
procedimiento iterativo que comienza a partir de una solución inicial y tiende a moverse hacia el nuevo
espacio de soluciones de una manera más agresiva o codiciosa que GA o SA. El barrio, desde el cual se
seleccionará la próxima solución / movimiento, es modificado al clasificar algunos movimientos como
tabu, otros 9 como deseables.
En cada iteración del algoritmo, se define una estructura de vecindad; un movimiento luego se hace a la
mejor configuración. Para escapar de los puntos óptimos locales, algunos también se permiten
transiciones a las configuraciones con mayores costos. Similar a El algoritmo PS, que utiliza la
intensificación y la diversificación, da como resultado una exploración más completa de regiones
atractivas y, al mismo tiempo, el desplazamiento a regiones previamente no visitadas. Estos ayudan a
evitar la captura en puntos óptimos locales.
Los pasos involucrados en un algoritmo de optimización de TS pueden resumirse como
(a) Generar una solución inicial,
(b) Seleccione mover,
(c) Actualizar la solución. La siguiente solución se elige de la lista de vecinosque se considera como
deseado (aspirante) o no tabu y para el cual el la función objetiva es óptima.
El proceso se repite basado en cualquier regla de detención propuesta. A diferencia de otros algoritmos
heurísticos, no hay suficientes antecedentes teóricos para adaptar TS a un problema práctico a la mano y
los usuarios tienen que recurrir a su práctica experiencias.

2.3.2.5 Colonia de hormigas


La técnica de optimización de CA es una técnica de optimización combinatoria, inicialmente
desarrollado a principios de los 90. Se basa en los comportamientos de los insectos, especialmente las
hormigas.
Las hormigas tienen una habilidad maravillosa para encontrar la distancia más corta desde un alimento
hasta su nido Incluso si se pone un obstáculo en el medio, nuevamente encuentran el más corto distancia.
Los científicos han descubierto que la principal herramienta de este fenómeno es la Se denomina
feromona utilizada como medio de comunicación básico entre los individuos. Al caminar, cada hormiga
deposita una sustancia química, llamada feromona, como una rastro en el suelo. Inicialmente, todas las
hormigas se mueven de forma aleatoria para buscar por comida. Si se considera que tienen la misma
velocidad, el que encuentre la comida más rápido (es decir, con la distancia más corta) regresa al nido
antes y se deposita La feromona al volver. El camino será más rico en feromonas. Otras hormigas luego
reconocerlo como un camino prometedor y todos seguirlo. Con base en lo anterior, algunos se han
desarrollado algoritmos AC. Básicamente, los pasos son los siguientes:
• Inicialización en la que se codifican las variables problemáticas y la población inicial es generado; Al
azar dentro de la región factible. Se arrastrarán a diferentes direcciones en un radio no mayor que R.
• Evaluación en la que se calcula la función objetivo para todas las hormigas.
• Suma de senderos en la que se agrega una cantidad de senderos para cada hormiga; en proporción a su
función objetivo calculada (la llamada aptitud).
• Envío de hormigas en el que las hormigas se envían a sus próximos nodos, de acuerdo con el rastro
densidad y visibilidad.
• Ya hemos descrito la densidad del sendero a medida que se deposita la feromona. Las hormigas no son
completamente ciegos y se moverán en cierta medida según las visibilidades de los nodos. Estas dos
acciones se asemejan a los pasos involucrados en los algoritmos PS y TS (intensificación y
diversificación) para evitar atrapamientos en puntos óptimos locales.
• Evaporación en la cual el rastro depositado por una hormiga eventualmente se evapora y el punto de
partida se actualiza con la mejor combinación encontrada.
Los pasos se repiten hasta que se alcanza un criterio de regla de parada

Potrebbero piacerti anche