Sei sulla pagina 1di 8

Nombre del estudiante:

Aguirre

Janeth Jacqueline Hernández

Nombre del trabajo: Principio de optimalidad de Bellman

Fecha de entrega: 11 de octubre de 2015

Campus: Lomas Verdes

Carrera: Ingeniería Industrial

Semestre: Tercer semestre

Nombre del maestro: Mario Ernesto Jiménez Jiménez

ÍNDICE

Introducción……………………………………………………………………3

Principio de Bellman………………………………………………………….3

La ecuación de Bellman……………………………………………………

3

Ejemplo………………………………………………………………………

4

Conclusión…………………………………………………………………….7

Información adicional (aportaciones)……………………………………….8

Bibliografía…………………………………………………………………….8

Introducción

En este trabajo desarrollaremos el tema de Principio de optimalidad de Bellman, que se refiere a principios básicos de la programación dinámica. La idea primaria de la programación dinámica (PD) es descomponer el problema en subproblemas (más manejables). Los cálculos se realizan entonces recursivamente donde la solución óptima de un subproblema se utiliza como dato de entrada al siguiente problema. La forma en que se realizan los cálculos recursivos depende de cómo se descomponga el problema original.

Principio de optimalidad de Bellman

Principio aplicado en programación dinámica que consiste en que una secuencia óptima de decisiones que resuelve un problema debe cumplir la propiedad de que cualquier subsecuencia de decisiones, que tenga el mismo estado final, debe ser también óptima respecto al subproblema correspondiente.

Entonces se dice que un problema de optimización satisface el principio de optimalidad de Bellman si en una sucesión óptima si en una sucesión óptima de decisiones o elecciones, cada subsolución es a su vez óptima. Es decir, si miramos una subsolución de la solución óptima, debe ser solución del subproblema asociado a esa subsolución.

La ecuación de Bellman

Esta ecuación es una relación recursiva fundamental que traduce matemáticamente el principio básico de la programación dinámica llamado el principio de optimalidad de Bellman que se enuncia en lo siguiente:

“Una política optima tiene la propiedad de que, cualesquiera que sean el estado y las decisiones iniciales tomadas (es decir, el control), las restantes decisiones deben constituir una política óptima con independencia del estado resultante de la primer decisión.

En términos matemáticos el principio de optimalidad se puede expresar por medio de lo que se le conoce como la relación de recurrencia fundamental de la programación dinámica o Ecuación de Bellman así:

( ) = max [( , ) + ( +1 )]

: +1 = ⎾( , )

Lo que coloquialmente dice que el valor máximo se puede obtener desde el estado

es el valor máximo desde el estado siguiente más el valor máximo de f una vez

optimizada con respecto a variable de control para el periodo de t

Ejemplo (Problema de la ruta más corta)

Supongamos que queremos seleccionar la ruta por carretera más corta entre dos ciudades. La red en la figura 1 proporciona las posibles rutas entre la ciudad de inicio en el nodo 1 y la ciudad de destino en el nodo 7. Las rutas pasan por ciudades intermedias designadas por los nodos 2 a 6.

1 y la ciudad de destino en el nodo 7. Las rutas pasan por ciudades intermedias

Figura 1

Podemos resolver este problema enumerando todas las rutas entre los nodos 1 y 7. Sin embargo la enumeración exhaustiva es computacionalmente insoluble en redes grandes. Para resolver el problema por PD, primero lo descomponemos en etapas como se indica mediante rayas verticales en la figura 2. A continuación realizamos por separado los cálculos de cada etapa. La idea general para determinar la ruta más corta es calcular las distancias (acumulativas) más cortas a todos los nodos terminales de una etapa, y luego utilizarlas como datos de entrada a la etapa inmediatamente subsiguiente. Partiendo del nodo 1, la etapa 1 llega a tres nodos terminales (2, 3 y 4) y sus cálculos son simples.

Etapa 1 Distancia más corta del nodo 1 al nodo 2= 7 millas (desde el nodo 1) Distancia más corta del nodo 1 al nodo 3= 8 millas (desde el nodo 1) Distancia más corta del nodo 1 al nodo 4= 5 millas (desde el nodo 1)

más corta del nodo 1 al nodo 4= 5 millas (desde el nodo 1) Figura 2

Figura 2

Luego la etapa 2 tiene dos nodos terminales, 5 y 6. La figura 2 nos muestra que se puede llegar al nodo 5 desde los nodos 2, 3 y 4 por las rutas (2,5) (3,5) y (4,5). Esta información junto con los resultados resumidos en la etapa 1, determina la distancia (acumulativa) al nodo 5 como:

(Distancia más corta al nodo 5) =

=2,3,4 {( á ) + (

min

5

{ 7 + 12 = 19

= min 8 + 8 = 16 }=12 (desde el nodo 4)

.

5 + 7 = 13

)}

Se puede llegar al nodo 6 solo desde los nodo 3 y 4. Por lo tanto:

=3,4 {( á ) + (

6

(Distancia más corta al nodo 6) = min

= min {

.

8 + 9 = 17

5 + 13 =

18 }=17 (desde el nodo 3)

Etapa 2

)}

Distancia más corta del nodo 1 al nodo 5= 12 millas (desde el nodo 4)

Distancia más corta del nodo 1 al nodo 6= 17 millas (desde el nodo 3)

El último paso es considerar la etapa 3. Se puede llegar al nodo de destino 7 desde

el nodo 5 o desde el 6. Utilizando los resultados resumidos desde la etapa 2 y las

distancias de los nodos del 5 y 6 al nodo 7, obtenemos:

=5,6 {( á ) + (

7

(Distancia más corta al nodo 7) = min

=

min

.

{ 12 + 9

= 21

17 + 6 = 23

}=21 (desde el nodo 5)

)}

Etapa 3

La distancia más corta del nodo 1 al nodo 7 = 21 millas (desde el nodo 5)

El resumen de la etapa 3 muestra que la distancia más corta entre los nodos 1 y 7 es de 21 millas. Para determinar la ruta óptima comenzamos con el resumen de la etapa 3, donde el nodo 7 se conecta al nodo 5; en el resumen de la etapa 2 el nodo 4 se conecta al nodo 5, y en el resumen de la etapa 1 el nodo 4 se conecta al nodo 1. Por lo tanto la ruta más corta es 1457.

El ejemplo revela las propiedades básicas de los cálculos de PD:

1. Los cálculos de cada etapa son una función de las rutas factibles de dicha etapa, y solo de esa etapa.

2. Una etapa actual está conectada a la etapa inmediatamente precedente sólo con base en el resumen de distancias más corta de la etapa inmediatamente precedente.

Conclusión

Podemos observar como claramente el principio de Bellman se basa en el famoso divide y vencerás, sin embargo se preocupa directamente por que la solución óptima de un problema sea también las solución óptima de sus subproblemas, con esto queremos decir que una ruta siempre tendrá que ser optima, desde sus pequeños subgrupos hasta el proyecto en sí mismo.

Con esta tarea pude darme cuenta que además de que podemos hacer el cálculo de la recursividad hacia atrás, también lo podemos hacer hacia adelante, sin tener afectación en el problema, ya que como lo menciona el principio la solución óptima siempre debe ser igual en el subgrupo y proyecto, sin embargo para mí fue mucho más sencillo entender el cálculo de recursividad yendo hacia adelante que hacia atrás, esto debido a la confusión que me generaba el no reconocer cual sería la ruta crítica.

Información adicional (aportaciones)

Inicialmente Bellman se había concentrado en aquellos procesos que fueran

específicamente puestos como procesos de decisión por pasos o etapas.

Subsecuentemente comenzó a estudiar un método matemático que incluyera

cualquier proceso que pudiera ser considerado por etapas. En el camino se

envolvió en el estudio de varias partes del cálculo de variaciones, y en particular en

los procesos de control de retroalimentación, además de ser el pionero en la

investigación de la PD sus bases siguen siendo utilizadas hasta ahora.

La naturaleza de los cálculos de PD hace imposible desarrollar un código de

computadora general que pueda manejar todos los problemas de PD. Tal vez esto

explique la persistente ausencia de un programa de PD comercial. Además de la

variación del número de etapas en el que un proyecto se puede dividir y esto haría

casi imposible que un programa calculara una sola ruta o una ruta más viable, ya

que en su misma definición la PD hace que las rutas críticas tengan posibilidades

infinitas, sin embargo existen métodos en Excel cuando el valor máximo de

alternativas es 10 (Ejemplo de la mochila).

Bibliografía

Desconocido. (2015). Desconocido . Obtenido de

http://www.dc.uba.ar/materias/aed3/2013/1c/teorica/dinamica.pdf

Dreyfus, R. E. (1963). Applyed Dynamic Programming. United States: The Rand corporation.

Real academia de Ingeniería. (2015). Real academia de Ingeniería. Obtenido de Real academia de Ingeniería: http://diccionario.raing.es/es/lema/principio-de- optimalidad-de-bellman

Taha, H. A. (2012). Programación dinámica determinística. En H. A. Taha, Investigación de operaciones (págs. 430-433). Pearson.