Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
IV
Indice
1. Demostraciones en microeconoma
1.1. Topologa de Rn , funciones continuas y correspondencias . . . .
. . . . . . . . . . .
1.2. Conjuntos convexos y Teoremas de Separacion
1.3. Teoremas de Punto Fijo . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Existencia de equilibrios en una economa y en Teora de Juegos
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
6
6
8
10
12
16
2. Optimizacion
dinamica en tiempo discreto
2.1. Planteamiento de problemas dinamicos en tiempo discreto . . . . . .
2.2. El metodo de los multiplicadores de Lagrange . . . . . . . . . . . . .
dinamica. El Principio de optimalidad y la Ecuacion
2.3. Programacion
de Bellman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Problemas con horizonte infinito . . . . . . . . . . . . . . . . . . . . .
2.5. Ecuaciones de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
20
21
3. Optimizacion
dinamica en tiempo continuo
del PCO en tiempo continuo .
3.1. Formulacion
de HamiltonJacobiBellman .
3.2. La ecuacion
3.3. Principio del maximo de Pontryagin . . . .
de Euler .
3.4. Calculo de variaciones. Ecuacion
3.5. Algunas extensiones del PMP . . . . . . . .
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . .
39
39
40
43
46
50
55
4. Referencias
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
26
29
30
63
Notacion
B A.
Reales.
Rn+ := { x = ( x1 , . . . , xn ) | xi 0, para i = 1, . . . , n}.
Rn++ := { x = ( x1 , . . . , xn ) | xi > 0, para i = 1, . . . , n}.
N = {1, 2, 3, . . .} es el conjunto de Numeros
Naturales.
Si A y B son conjuntos, se define la union
y la interseccion,
respectivamente,
como
A B = { x | x A o x B}
A B = { x | x A y x B} .
El smbolo se usa para denotar al conjunto vaco. Si A B = se dice que
los conjuntos A y B son disjuntos.
El complemento de B con respecto a A es el conjunto
A \ B = {x A | x
/ B} ,
A B. Si el conjunto A
se lee A menos B y tambien se usa la notacion
se hace referencia al complemento de B y en lugar de
se sobrentiende, solo
c
A \ B se escribe B . En este caso al conjunto A se le llama conjunto universo
o universal.1
irracionales.
1 Por
A1 A2 . . . A n =
Ai = {(a1, a2, . . . , an ) | ai Ai ,
i = 1, 2, . . . , n} ,
i =1
E
operador de esperanza
P
medida de probabilidad
:=
igualdad por definicion
para todo
fin de una demostracion
1.
1.1.
Demostraciones en microeconoma
Topologa de Rn , funciones continuas y correspondencias
Conjuntos abiertos y cerrados
para v =
( x1 , x2 , . . . , xn ), u = (y1 , y2 , . . . , yn ) como
n
hv, ui :=
xj yj,
j =1
y la norma (canonica)
de un vector mediante
q
kvk := hv, vi.
Teorema 1.1. La norma satisface las siguientes propiedades para todo u, v Rn y R
(a) kvk = 0 si y solo si v = ~0
(b) kvk > 0 si v 6= ~0
(c) kvk = || kvk
(d) | hv, ui | kvk kuk
(e) ku + vk kvk + kuk
(Desigualdad de CauchySchwarz).
(Desigualdad del triangulo).
hv, ui
v,
k v k2
{ x k | k N} = { x1 , x2 , x3 , . . . } ,
como { xk }
alternativamente puede denotarse a una sucesion
k =1 o, por simplicidad,
como { xk }.
Definicion
1.7. Una sucesion { xk } en Rn converge al vector x, si para todo > 0 existe
K N tal que
k xk x k < para todo k K.
En tal caso se dice que la sucesion es convergente o que x es el lmite de la sucesion y se
escribe xk x, o
lm xk = x.
k
Teorema 1.8. Un conjunto C Rn es cerrado si y solo si para cualquier sucesion convergente { xk } C se tiene que lmk xk C.
Definicion
1.10. Una funcion f : A Rm , donde A Rn , es continua en el punto
x0 A si para cualquier sucesion { xk } A tal que xk x0 , se tiene que
f ( x k ) f ( x0 ).
Si f es continua en cada punto de A, se dice que f es continua en A.
Teorema 1.11 (Weierstrass). Si f : A R es una funcion continua y A Rn es un
conjunto compacto, entonces f alcanza su valor maximo y su valor mnimo en A, es decir,
existen x, x A tales que
f (x) f (x) f (x)
para todo x A.
Demostracion. Ver Munkres (2002), Teorema 27.4, p. 198, o Sydster et al. (2008),
Teorema 13.3.6, p. 477.
Correspondencias
Definicion
1.12. Sean X Rn , Y Rm . Una correspondencia es una funcion que
asocia a cada elemento x X, un subconjunto ( x ) Y y se denota como : X Y.
Se define, tambien, la grafica de la correspondencia como el conjunto
gr() := {( x, y) X Y | y ( x )} .
1.2.
Convexidad
Definicion
1.14. Un subconjunto C Rn es convexo si para cada x, y C y para todo
[0, 1] se verifica que
x + (1 )y C.
de conjuntos convexos
En el Ejercicio 1.13 se pide demostrar que la interseccion
Definicion
1.15. Dado S Rn , definimos la envoltura convexa de S como
co(S) :=
{C Rn | S C, C es convexo } .
H + := { x Rn | hc, x i },
Estos conjuntos tambien son convexos.
Teoremas de separacion
Definicion
1.17. Sean A, B Rn . Se dice que el hiperplano H Rn separa a los
conjuntos A y B si A H + y B H , o viceversa. La separacion es estricta cuando H
no contiene puntos de A ni de B.
Teorema 1.18. Sea C Rn un conjunto convexo, cerrado y no vaco. Si v
/ C, entonces
(a) Existe un punto c0 C tal que 0 < kv c0 k kv ck para todo c C, mas aun,
c0 es unico.
h p, ci c C y
h p, vi < .
Notese
que p 6= 0 y
h p, vi = k pk2 < .
Para verificar la otra desigualdad, sean c C, (0, 1], y defnase
c := (1 )c0 + c C.
Entonces
k c0 v k2
=
=
=
k v c k2
k(1 )c0 + c vk2
k(1 )(c0 v) + (c v)k2
(1 )2 kc0 vk2 + 2 kc vk2 + 2(1 ) hc0 v, c vi ,
h p, vi < < h p, ci c C,
para esto se escoge := h p, (c0 + v)/2i.
Teorema 1.19 (del hiperplano separador). Sean A, B Rn convexos, disjuntos y no
vacos. Entonces existe un hiperplano que separa a A y B.
Demostracion. Ver Lomel y Rumbos (2003), Teorema F.2.4, p. 524, o Sydster et al.
(2008), Teorema 13.6.3, p. 494.
1.3.
Definicion
1.20. Se dice que una funcion f : X X tiene un punto fijo en X si existe
10
punto fijo en X.
de
Demostracion. La unicidad se sigue de la propiedad (1.1) y de la definicion
punto fijo.
para n = 0, 1, 2, . . . ,
(1.2)
1.4.
Definicion
1.25. Una economa de intercambio puro E consta de
(a) un conjunto L con L bienes de consumo,
(b) un conjunto N de N consumidores,
(c) una funcion de utilidad y una dotacion inicial, para cada consumidor.
En forma abreviada,
L
L
E = L, N , { u n : R+
R}nN , {wn R+
}nN .
Cada consumidor n, con el vector de precios p, tiene el siguiente problema
L
max{un ( x ) | h p, x i h p, wn i , x R+
}.
(1.3)
nN
para cada n N ,
(1.4)
y la funcion
de exceso de demanda agregada
z( p) :=
z n ( p ).
(1.5)
nN
Teorema 1.27 (Ley de Walras). En una economa de intercambio puro, el valor del exceso
de demanda agregada no es positivo, i.e., h p, z( p)i 0.
2 Tambi
en
12
L
L R}
Teorema 1.29. Sea E = (L, N , {un : R+
nN , { wn R+ }nN ) una economa de
intercambio puro. Si las funciones de demanda son continuas, entonces existe un equilibrio
walrasiano.
xnl ( p),
wnl
wl :=
nL
nL
pl + max{0, x l ( p) wl }
Lj=1 [ p j + max{0, x j ( p) w j }]
para l = 1, 2, . . . , L,
: S L1 S L1 , mediante
con estas funciones se construye otra funcion
( p) := (1 ( p), 2 ( p), . . . , L ( p)).
(1.6)
pl + max{0, x l ( p ) wl }
1 + Lj=1 max{0, x j ( p ) w j }
de donde
pl
para l = 1, 2, . . . , L,
max{0, x j ( p ) w j } = max{0, xl ( p ) wl }.
(1.7)
j =1
max{0, x j ( p ) w j }
j =1
pl zl ( p ) =
l =1
zl ( p ) max{0, zl ( p )},
l =1
13
0=
zl ( p ) max{0, zl ( p )}.
l =1
[ x l ( p ) wl ] max{0, x l ( p ) wl } = 0,
para l = 1, 2, . . . , L,
por lo que
x l ( p ) wl 0,
para l = 1, 2, . . . , L,
Si el conjunto de jugadores y los de acciones son finitos, se dice que el juego es finito.
Definicion
1.31. Sea = N , { An }nN , {un }nN un juego en forma estrategica.
Una combinacion de acciones a A es un equilibrio de Nash si
un ( a) un ( a0n , an )
para todo a0n An y para cada n N .
Teorema 1.32. Sea = N , { An }nN , {un }nN un juego en forma estrategica tal que
el conjunto de jugadores es finito, N = {1, 2, . . . , N }, y para cada jugador
(a) el conjunto de acciones An es no vaco, compacto y convexo en algun
espacio Rkn ,
(b) un es continua en A y cuasiconcava en la variable an , cuando las variables an estan
fijas.
Entonces existe al menos un equilibrio de Nash para .
14
Un () =
a A mN
15
m ( a m ) u n ( a ).
Teorema 1.34 (Nash). Sea = N , { An }nN , {un }nN un juego finito en forma
estrategica. Entonces existe al menos un equilibrio de Nash en estrategias mixtas.
mixta .
1.5.
Ejercicios
no
donde se muestre que la conclusion
on
es finita.
1.4 Si u, v son vectores en Rn , demuestre que
|x j | kxk
| xi |
para j = 1, 2, . . . , n.
i =1
en Rn es convergente si y solo
si cada una de las
Concluya que una sucesion
sucesiones componentes lo es.
1.6 (Lab) Pruebe que un conjunto finito de puntos en Rn es compacto.
1.7 Demuestre que el conjunto B = {( x, y) R2 | y x + 1} es cerrado pero no
es compacto.
continua. Demuestre que si B Rm es cerrado,
1.8 Sea f : Rn Rm una funcion
entonces el conjunto
f 1 ( B ) : = { x Rn | f ( x ) B }
es cerrado. Que ocurre si B es abierto?
Sugerencia: Observe que [ f 1 ( A)]c = f 1 ( Ac ).
16
xi = 1
,
i =1
es compacto.
1.11 Sea : [0, ) [0, ) la correspondencia dada por
( x ) = [0, x ].
Demuestre que es hcs.
1.12 Construya un ejemplo de una correspondencia que no sea hcs.
1.13 Sean A, B Rn conjuntos convexos. Si , R, se define el conjunto
A + B := {a + b | a A, b B}.
Demuestre que A + B es convexo.
1.14 Sea el conjunto presupuestario
P = { x Rn+ | h p, x i I },
donde p Rn++ es un vector de precios e I es el ingreso disponible. Demuestre
que P es un conjunto convexo.
1.15 (Lab) Pruebe que B ( x0 ) y Sn1 son convexos.
espacio
1.16 (Lab) Sea Si un subconjunto no vaco, compacto y convexo de algun
n
k
i
R , para i = 1, 2, . . . , n. Demuestre que el conjunto S = i=1 Si es no vaco,
compacto y convexo.
f : A R. Se dice que f es
1.17 Sean A Rn un conjunto convexo y una funcion
cuasiconcava
en A si el conjunto
{ x A | f ( x) k}
si
es convexo, para todo k R. Demuestre que f es cuasiconcava
si y solo
f (x + (1 )y) mn { f ( x ), f (y)} ,
para cualesquiera x, y A y para todo [0, 1].
17
j = 1,
kN .
j =1
1
u B ( x1B , x2B ) = ( x1B )8 + x2B
8
"
12
37
3
#1/2
( x1B )2 + ( x2B )2
Votante C1: A B C
Votante C2: B C A
Votante C3: C A B
como un juego en forma estrategica, encuentre los equiPlantee esta situacion
librios de Nash en estrategias puras e interprete las estrategias de equilibrio.
1.23 Sea = N , { An }nN , {un }nN un juego finito en forma estrategica, supongamos que (1 , , N ) es un equilibrio en estrategias mixtas. Si a, a0 An son
jugadas con probabilidad positiva en n , demuestre que los pagos correspondientes a a, a0 son iguales cuando los otros jugadores juegan n .
1.24 Demuestre que en un juego finito en forma estrategica, los pagos (esperados)
en estrategias mixtas estan acotados por arriba por el maximo pago en estrategias puras y por abajo por el mnimo pago en trategias puras.
1.25 Encuentre todos los equilibrios de Nash (en estrategias puras y mixtas) de los
siguientes juegos.
J2
HH
H
1,6
1,3
2,3
6,0
2,7
5,8
1,1
4,4
3,1
5,5
2,7
1,0
2,2
5,0
2,8
1,3
1,3
7,0
8,7
6,9
1,3
3,1
0,5
1,3
4,4
0,3
4,7
1,10
13,2
H
HH
H
J1
x
y
z
J2
H
HH
J1
H
HH
H
w
x
y
z
19
2.
Optimizacion
dinamica en tiempo discreto
2.1.
(2.1)
v(, x ) :=
R(t, xt , ut ) + S(xT ),
(2.2)
t =0
donde las funciones R y S toman valores reales. Cada termino R(t, xt , ut ) puede
o recompensa (si el
interpretarse como el costo (en el caso de minimizacion)
por etapa. La catidad S( x T ) es conocida como
problema es de maximizacion)
valor de salvamento.
es optimizar (ya sea maximizar o minimizar) la funcion
El problema en cuestion
inicial x0 = x, mas
objetivo (2.2) sujeto al sistema dinamico (2.1) y la condicion
especficamente:
T 1
opt
v(, x ) = R(t, xt , ut ) + S( x T )
{ut }tT=01
t =0
s. a : xt+1 = f (t, xt , ut )
u0 , . . . , u T 1 U,
x0 dado.
t = 0, 1, . . . , T 1,
R(t, xt , ut ).
t =0
20
(2.3)
opt
v(, x ) = R(t, xt , ut )
{ut }
t =0
t =0
S. a : xt+1 = f (t, xt , ut )
ut U
x0 dado.
t = 0, 1, 2, . . . ,
t = 0, 1, 2, . . . ,
En las Secciones 2.2 y 2.3 se estudian problemas con horizonte finito, mientras
2.3 esta dedicada a aquellos con horizonte infinito.
que la Seccion
2.2.
(si el problema
Considerese el PCO (2.3) en el caso especfico de maximizacion
el Teorema 2.1 sigue siendo valido con los cambios adecuaes de minimizacion,
dos). Para usar el metodo de los multiplicadores de Lagrange conviene escribir
explictamente cada una de las T restricciones
max
{ut }tT=01
s. a :
T 1
v(, x0 ) = R(t, xt , ut ) + S( x T )
t =0
f (0, x0 , u0 ) x1 = 0
f (1, x1 , u1 ) x2 = 0
..
.
(2.4)
f ( T 1, x T 1 , u T 1 ) x T = 0.
Ahora defnase el Lagrangiano o funcion
Lagragiana
L (, x , ) :=
T 1
T 1
R(t, xt , ut ) + S( x T ) +
t =0
t [ f (t, xt , ut ) xt+1 ]
t =0
donde, = {u0 , u1 , . . . , u T 1 }, x = { x1 , x2 , . . . , x T }, = {0 , 1 , . . . , T 1 } y x0
dado. Suponiendo que las funciones R, S y f son continuamente diferenciables y
los conjuntos X, U son abiertos, las condiciones (necesarias) de Lagrange para una
estrategia optima
son
L
ut
L
0=
xt
L
0=
x T
L
0=
t
0=
R
f
+ t
ut
ut
R
f
=
t 1 + t
xt
xt
dS
=
T 1
dx T
= f (t, xt , ut ) xt+1
21
para t = 0, 1, . . . , T 1
(2.5)
para t = 1, 2, . . . , T 1
(2.6)
(2.7)
para t = 0, 1, . . . , T 1,
(2.8)
H
(t, xt , ut , t )
x
para t = 1, 2, . . . , T 1,
(2.9)
con la condicion
terminal
dS
( x ),
dx T
ademas, la condicion de maximizacion
del Hamiltoniano
T 1 =
H
(t, xt , ut , t ) = 0
u
para t = 0, 1, . . . , T 1,
(2.10)
(2.11)
y
xt+1 = f (t, xt , ut )
para t = 0, 1, . . . , T 1
(2.12)
es una funcion
con respecto a ( x, u), entonces (, x , ) es optimo
para
el problema (2.4).
2.3.
Programacion
dinamica. El Principio de optimalidad y la Ecuacion
de Bellman
22
2.2, solo
se estudia el problema de maximizacion
(el otro
Al igual que en la Seccion
caso es totalmente analogo)
T 1
max
v(, x0 ) = R(t, xt , ut ) + S( x T )
{ut }tT=01
t =0
s. a : xt+1 = f (t, xt , ut )
u0 , . . . , u T 1 U,
x0 dado.
t = 0, 1, . . . , T 1,
(2.13)
Proposicion
2.3 (Principio de optimalidad de Bellman). Sea = {u0 , u1 , . . . , uT 1 }
una estrategia o ptima para el problema (2.13) y { x0 , x1 , . . . , x T } la trayectoria de estados
correspondiente, en particular, x0 = x0 . Entonces, para cualquier tiempo s {0, 1, . . . , T
1}, la estrategia truncada
s = {us , . . . , uT 1 }
es o ptima para el subproblema
max
{ut }tT=s1
v(, xs )
T 1
= R(t, xt , ut ) + S( x T )
t=s
s. a : xt+1 = f (t, xt , ut )
us , . . . , u T 1 U,
xs dado.
t = s, . . . , T 1,
(2.14)
(2.15)
(2.16)
y para s = T 1, T 2, . . . , 0,
us
{ut }tT=s1
T 1
t=s
R(t, xt , ut ) + S( x T ) xs = x
0 s T, x X.
y A, z B
y A
y A, z B
en particular,
max
y A, z B
de donde
max
y A, z B
y A
(2.17)
y A, z B
z B
y A
luego,
max
y A, z B
z B
(2.18)
f (r 1, xr1 , ur1 )
g1 ( x r 1 , u r 1 )
g1 [ f (r 2, xr2 , ur2 ), ur1 ]
g2 ( x r 2 , u r 2 , u r 1 )
= : gr j ( x j , u j , . . . , u r 2 , u r 1 ) .
de valor V ( x, 0) se puede escribir como
Paso 3. Usando los Pasos 1 y 2, la funcion
T 1
V ( x, 0) = max
R(t, xt , ut ) + S( x T )
{ut }tT=01
t =0
n
= max R(0, x0 , u0 ) + max R(1, x1 , u1 ) + . . . +
u1
u0
max{ R( T 1, x T 1 , u T 1 ) + S( x T )}
u T 1
)
,
sujeto a la dinamica
xt+1 = f (t, xt , ut ) para todo t = 0, 1, . . . , T 1,
y estado inicial x0 .
Definimos
JT ( x T ) = S ( x T ) ,
JT 1 ( x T 1 ) = max { R( T 1, x T 1 , u T 1 ) + JT ( x T )}
u T 1
x T = f ( T 1x T 1 , u T 1 ), y as sucesivamente, hasta
con la condicion
J1 ( x1 ) = max { R(1, x1 , u1 ) + J2 ( x2 )}
u1
con x1 = f (0, x0 , u0 ).
Las igualdades
V ( x, s) = Js ( x )
0 s T, x X,
Observacion
2.5. Al resolver un PCO usando el Principio del maximo de Pontryagin (Teorema 2.1) se obtienen estrategias de lazo abierto (openloop), es decir, los
si ademas la funcion
del estado), se dice
que la estrategia es estacionaria.
2.4.
se considera una clase particular de problemas con horizonte inEn esta seccion
de refinito, llamados problemas estacionarios con descuento ya que la funcion
compensa por etapa es de la forma
R(t, x, u) = t r ( x, u),
de recompensa r (, ) solo
max
v(, x0 ) = r ( xt , ut )
{ut }
t =0
t =0
s. a : xt+1 = f ( xt , ut )
ut ( xt ) U
x0 dado.
t = 0, 1, 2, . . . ,
t = 0, 1, 2, . . . ,
(2.19)
Programacion
dinamica
Con ligeras modificaciones, se puede extender el Principio de optimalidad de
2.2) al caso con horizonte infinito. Luego, por argumentos
Bellman (Proposicion
26
de valor, V : X R, satisface
V ( x ) := max{v(, x ) | x0 = x }
(
)
t
= max r ( xt , ut ) x0 = x
{ u t } t =0
t =0
= max r ( x, u0 ) + max
u0
t r ( xt , ut )
{ u t } t =1 t =1
= max {r ( x, u0 ) + V ( x1 )}
u0
= max {r ( x, u0 ) + V ( f ( x, u0 ))} .
u0
la incognita.
Antes de encontrar una estrategia (estacionaria) optima
es necesario
V. Una alternativa es construir una sucesion
de funciones
conocer dicha funcion
es la base para lograr este objetivo.
que converja a V. La siguiente proposicion
Proposicion
2.6. Sean C ( X ) := { g : X R | g es continua y acotada en X } y el
operador T : C ( X ) C ( X ) dado por
Tg( x ) := max {r ( x, u) + g[ f ( x, u)]}.
u( x )
(2.21)
para n = 0, 1, 2, . . . ,
27
(2.22)
n = 0, 1, 2, . . . ,
(2.23)
u( x )
de BenvenisteScheinkman
Supongase
que la poltica () es optima
para el problema (2.19), entonces la
de Bellman (2.20) puede escribirse como
ecuacion
V ( x ) = r ( x, ( x )) + V ( f ( x, ( x ))).
(2.24)
de la
Si las funciones r, f , V son diferenciables, se cumple la siguiente version
formula
(2.25)
(2.26)
(2.28)
Defnase el Hamiltoniano
H ( x t , u t , q t +1 ) : = q t +1 f ( x t , u t ) + r ( x t , u t )
y los multiplicadores
qt := DV ( xt ).
(2.29)
la ecuacion
(2.27) se convierte en la ecuacion
Con esta notacion,
adjunta
D1 r ( xt , ut ) + qt+1 D1 f ( xt , ut ) = 1 qt
(2.30)
(2.31)
2.5.
Ecuaciones de Euler
F (t, xt , xt+1 ),
x0 dado.
(2.32)
t =0
Observacion
2.7. En el problema anterior no aparece explcitamente la variable
de control, sin embargo, e ste se puede replantear de manera equivalente usando la
(2.13).
formulacion
Si la funcion
e interiores,
entonces deben satisfacer las ecuaciones de Euler
Dxt F (t 1, xt1 , xt ) + Dxt F (t, xt , xt+1 ) = 0,
DxT F ( T 1, x T 1 , x T ) = 0.
t = 1, . . . , T 1,
(2.33)
t = 1, 2, . . . .
(2.34)
max
{ x t +1 }
t =0 X
t =0
)
t F ( xt , xt+1 ) x0 = x dado ,
(2.35)
donde
(a) el espacio de estados X es un subconjunto abierto de Rn++ ,
(b) para cada y, la funcion F (, y) es creciente en cada una de sus primeras n variables,
(c) F (, ) es concava.
Si { xt }
t=0 (en particular, x0 = x) satisface las ecuaciones de Euler
t = 1, 2, . . . ,
(2.36)
y la condicion
de tranversalidad
lm t Dxt F ( xt , xt+1 ) xt = 0,
entonces { xt+1 }
ptimo para el problema (2.35).
t=0 es o
29
(2.37)
concava
F ( xt , xt+1 ) F ( xt , xt+1 ) Dxt F ( xt , xt+1 ) ( xt xt ) + Dxt+1 F ( xt , xt+1 ) ( xt+1 xt+1 ).
Defnase T := tT=01 t [ F ( xt , xt+1 ) F ( xt , xt+1 )], entonces
T
T 1
t =0
T 1
t =1
+ T 1 DxT F ( x T 1 , x T ) ( x T x T )
= 0 + T 1 [ DxT F ( x T , x T +1 )] ( x T x T )
=
DxT F ( x T , x T +1 ) x T
T DxT F ( x T , x T +1 ) x T
T
por (2.36)
DxT F ( x T , x T +1 ) x T
por (a) y (b).
t F ( xt , xt+1 )
t =0
2.6.
t F ( x t , x t +1 ).
t =0
Ejercicios
t = 0, 1, . . . , T 1.
(b) Suponga que el individuo desea maximizar su utilidad total dada por
tT=0 U (t, ut xt ). Escriba el correspondiente problema dinamico, con las restricciones adecuadas, e identifique las variables de estado y de control.
2.2 (Clase) Suponga que se tiene una cantidad C de un recurso que se debe repartir
(totalmente) entre N actividades. Si a la actividad k se le asigna una cantidad
del
uk , se obtiene un beneficio b(k, uk ). Si se quiere determinar la distribucion
como
recurso que maximiza los beneficios agregados, exprese esta situacion
un PCO.
30
2.3 Se dispone de una cantidad x0 de un bien. En cada uno de los T proximos
anade
la cantidad ut , se incurre en un costo de cu2t . Suponiendo que hay un
mediante un
factor de descuento temporal 0 < < 1, describa esta situacion
PCO.
2.4 (Lab) Resuelva el problema del Ejercicio 2.2, usando el Principio del maximo
de
2.5 (Lab) El gestor de una mina debe determinar el plan optimo
de extraccion
mineral ut , para t = 0, 1, 2, 3, 4, 5, 6. La mina debe abandonarse en t = 7. Se
supone que todo el mineral que se extrae se vende al precio p = 1. El coste de
es
extraccion
u2
c(ut , xt ) = t ,
(2.38)
xt
(b) Suponga que la tasa de interes es de 0.04. Explique por que la funcion
objetivo es de la forma
6
u2t
t
0.96 ut xt .
t =0
(c) Escriba el sistema dinamico asociado y resuelva el problema, usando el
principio del maximo de Pontryagin, si x0 = 1250.
Respuesta: (u0 , u1 , u2 , u3 , u4 , u5 , u6 , u7 ) = (262.5, 227.1, 190.1, 154, 129, 109.2, 89.1).
at > 0,
t = 0, 1, . . . , T 1.
Asuma que los activos iniciales x0 > 0 y los parametros at estan dados. Suponga que la recompensa por etapa es
R(t, x, u) = t u1 ,
donde , (0, 1). Si al final del horizonte temporal el inversionista tiene una
1
utilidad S( x T ) = T Ax T
31
1
2xt ,
ut = (2x0 )1 ( 32 )t .
U (t, ut xt ) = (1 + r )t ut xt ,
r > 0.
Calcule us ( x ) para s = T, T 1, T 2.
objetivo del Ejercicio 2.1 por tT=0 (1 + r )t ut xt .
2.11 Sustituya la funcion
(a) Calcule uT ( x ), uT 1 ( x ).
(b) Muestre que existen constantes Ps (que dependen de , r) tales que Js ( x ) =
dinamica
2.12 Resuelva el siguiente problema usando programacion
(
)
T
max (3 ut ) xt2 xt+1 = xt ut , x0 dado .
u [0,1]
t
t =0
32
max
u t R
(e
ut
) e
x T
t =0
)
xt+1 = 2xt ut , x0 dado .
(a) Calcule JT ( x ), JT 1 ( x ), JT 2 ( x ).
en diferencias para
(b) Muestre que Jt ( x ) = t ex y encuentre una ecuacion
t .
2.14 Resuelva el Ejercicio 2.10 cuando r = 0.
max t ln ct k t+1 = kt ct , k0 dado ,
t =0
t (ut xt )1 xt+1 = a(1 ut ) xt , x0 dado ,
max
u (0,1)
t
t =0
1
max t eut e xt xt+1 = 2xt ut , x0 dado ,
2
u t R t =0
donde (0, 1).
Sugerencia: Suponga que V ( x ) = e x , para alguna constante positiva .
33
V ( ) := max{ f ( x, ) | x A( )} = f (h( ), )
(2.39)
2.19 (CruzSuarez y MontesdeOca (2008)) Sean {Vn } las funciones definidas por
n 1
()t
k t =0
n = 1, 2, . . . .
n (k ) =
k
,
A n +1
n = 1, 2, . . . ,
An 1
An
,
n = 1, 2, . . . .
{ Mn } es convergente?
(d) Por que la sucesion
(e) Encuentre lmn Mn y lmn An .
de valor V (k ), as como la poltica estacionaria (k ).
(f) Determine la funcion
2.20 Considere el problema
(
max
t =0
)
t U (ct ) xt+1 = ( xt + yt ct ), x0 dado ,
(2.40)
max t U (ct ) k t+1 = f (k t ) ct , k0 dado ,
t =0
U 0 ( c t +1 ) 0
f (k t+1 ) = 1.
U 0 (ct )
t = 0, 1, . . . , T 1,
(2.41)
T 1
R(t, xt , ut , t ) + S(xT )
(2.42)
t =0
(2.43)
(2.44)
y para s = T 1, T 2, . . . , 0,
us
v(, x0 ) = E t r ( xt , ut ),
t =0
(2.45)
36
2.23 (Problemas LQ) Un problema LQ consiste de un sistema lineal con una recompensa por etapa cuadratica, tambien se conoce como problema del regulador
t = 0, 1, . . . ,
T 1
#
,
(2.47)
t =0
optima
estan dadas por
s ( x ) = Gs x, con Gs := (r + Ks+1 2 )1 Ks+1
donde las constantes Ks estan dadas recursivamente por KT = q T y para s =
T 1, . . . , 0,
Ks = [1 (r + Ks+1 2 )1 Ks+1 2 ]Ks+1 2 + q.
at > 0,
t = 0, 1, . . . , T 1,
donde { t } son variables aleatorias i.i.d. con valores positivos. Suponga que
1
existen constantes at tales que at
= E[ t1 ], compare con los resultados del
Ejercicio 2.6.
2.25 (Lab) En el siguiente PCO estocastico, los controles ut toman valores en R y
, son constantes positivas
T 1
ut
x T
max E (e
) e
t =0
xt+1 = 2xt ut + t , x0 dado .
en diferencias para t ,
(b) encuentre una ecuacion
de frontera T .
(c) determine la condicion
T 1
+ ax T
2u1/2
t
t =0
con a > 0 y ut 0. El estado del sistema xt+1 toma sus valores en el con inicial x0 > 0
junto {0, xt ut } cada uno con probabilidad 1/2. La condicion
esta dada
38
3.
3.1.
Optimizacion
dinamica en tiempo continuo
Formulacion
del PCO en tiempo continuo
Supongase
que el estado de un sistema en el instante t puede ser descrito por un
sistema de ecuaciones diferenciales de la forma
x (t) = f (t, x (t), u(t)),
para t [0, T ],
x (0) = x0 dado,
(3.1)
donde x (t) X y u(t) U (t, x (t)) representan a las variables de estado y con 2.1, se asume que X Rn y
trol, respectivamente (al igual que en la Seccion
U (t, x (t)) Rm ). Se supone tambien que f (, , ) C 1 .
El numero
real T > 0 representa el horizonte o tiempo terminal; si el horizonte
temporal es infinito, el intervalo [0, T ] es reemplazado por [0, ).
Adicionalmente, el sistema puede tener alguna restriccion
terminal, por ejemplo, x ( T ) = x T o lmt x (t) 0.
Definicion
3.1. Un par de funciones ( x (), u()) : [0, T ] Rn Rm es un par admisible si
(a) u(t) U (t, x (t)) para todo t [0, T ], u() es continua a trozos,
(b) x () es continua, diferenciable a trozos y con derivada continua (siempre que exista),
(c) x (), u() satisfacen la ecuacion diferencial (3.1) para los valores de t en los cuales u()
es continua y x () es diferenciable, y
(d) se satisface la restriccion terminal (si la hay).
La funcion x () se conoce como trayectoria de estado, mientras que u() es la trayectoria
de control o control admisible.
En estas notas, un PCO en tiempo continuo consiste en encontrar un control
admisible u() que optimice un funcional de la forma
Z T
0
(3.2)
39
3.2.
La ecuacion
de HamiltonJacobiBellman
para t [0, T ],
x (0) = x0 dado,
(3.3)
(3.4)
:=
se tienen las variables discretas
xk := x (k),
k = 0, 1, . . . , N,
uk := u(k),
k = 0, 1, . . . , N.
k = 0, 1, . . . , N 1,
objetivo
y la funcion
N 1
g( xk , uk ) + S( x N ).
k =0
Defnanse
T
J (, x ) := max
g( x (t), u(t)) dt + S( x ( T )) x ( ) = x ,
u()
N 1
J (s, x ) := max g( xk , uk ) + S( x N ) xs = x .
Z
uk
k=s
y para s = N 1, N 2, . . . , 0
J (s, x ) = max{ g( x, u) + J ((s + 1), x + f ( x, u))}.
u
(3.5)
o ()
en (3.5)
= 0, sustituyendo esta ultima
expresion
0 = max{ g( x, u) + D Jd (, x ) + Dx Jd (, x ) f ( x, u) + o ()/}.
u
de frontera
con la condicion
J ( T, x ) = S( x ).
Teorema 3.2. Supongase que V : [0, T ] X R satisface la ecuacion de HJB
0 = max{ g( x, u) + D V (, x ) + Dx V (, x ) f ( x, u)},
u
(3.6)
y la condicion de frontera
V ( T, x ) = S( x ).
(3.7)
Supongase tambien que u = (, x ) maximiza el lado derecho de (3.6), sea x la correspondiente trayectoria de estado, i.e.,
x (t) = f ( x (t), (t, x (t))),
t [0, T ],
x (0) = x0 .
V (, x ) = J (, x )
3 Ver
41
, x.
(3.8)
por (3.6)
por (3.3).
Integrando ambos lados de la desigualdad anterior y usando el Teorema fundamental del calculo
0
Z T
0
g( x ( ), u( )) d + V ( T, x ( T )) V (0, x (0)).
de frontera (3.7)
Luego, por la condicion
V (0, x (0))
Z T
0
g( x ( ), u( )) d + S( x ( T )).
(3.9)
Z T
0
g( x ( ), u ( )) d + S( x ( T )).
(3.10)
(3.11)
y la condicion de frontera
V ( T, x ) = S( T, x ).
(3.12)
t [0, T ],
x (0) = x0 .
V (, x ) = J (, x )
Demostracion. Ejercicio 3.1.
42
, x.
(3.13)
3.3.
(3.14)
s. a
x (0) = x0
(3.15)
(3.16)
(3.17)
y la maximizacion
del Hamiltoniano
max
uU (t,x (t))
(3.18)
Observacion
3.5. En la siguiente demostracion
de valor
Z T
V (, x ) := max
g(t, x (t), u(t)) dt + S( T, x ( T )) x ( ) = x
(3.19)
u()
de HJB
es de clase C 2 . Se asume, ademas, que en el lado derecho de la ecuacion
teorema de la envolvente (ver Ejercicio 2.18). Estos supuestos
se puede usar algun
no siempre se cumplen, por ejemplo, en el Ejercicio 3.4 se pide demostrar que
de valor no es diferenciable. Una demostracion
mas general del PMP
la funcion
puede encontrarse en Fleming y Rishel (1975) [Cap. 2] o Gamkrelidze (1978).
4 El
(3.18)
nombre viene de la ecuacion
43
de HJB
Demostracion. Por el Corolario 3.3, la ecuacion
(3.20)
y la condicion
optimos.
Teorema 3.6 (Mangasarian). Sean ( x (), u ()), () un par admisible y una funcion
que satisfacen el PMP. Supongase que U ( x, t) es convexo para todo ( x, t), H es una funcion
concava en ( x, u) y S es concava en x. Entonces ( x (), u ()) es o ptimo para el problema
(3.14).
Demostracion. Sea ( x (), u()) cualquier par admisible, para simplificar la notacion
defnanse
:=
Z T
0
H := H(t, x , u , ),
S := S( T, x ( T )),
Z T
0
H := H(t, x, u, ),
S := S( T, x ( T )).
Por la concavidad de H y S
H H D x H ( x x ) + Du H ( u u )
Dx H ( x x )
= ( x x )
44
por (3.18)
por (3.16),
(3.22)
ademas,
S S Dx S ( x ( T ) x ( T )).
(3.23)
Luego,
=
Z T
(H H) +
Z T
0
Z T
Z T
0
( x x ) +
Z T
0
( x x ) + S S
( x x ) + S S
por (3.22)
D [( x x )] + Dx S ( x ( T ) x ( T ))
por (3.23)
( T )( x ( T ) x ( T )) 0 + ( T )( x ( T ) x ( T ))
por (3.17)
= 0
Definicion
3.7. Para el PCO (3.14) se define el Hamiltoniano maximizado, H : R
Rn Rn R, mediante
t, x, ) := max {H(t, x, u, )}.
H(
uU (t,x )
introducida en la demostracion
del Teorema 3.6 y suponiendo
Con la notacion
que se satisfacen las condiciones necesarias del PMP, se cumple que
t, x , ) = H(t, x , u , ) = H .
H(
concava
(3.24)
= Dx [H(t, x , u , )] ( x x )
= ( x x )
por (3.25)
por (3.17).
asume que x es interior, se puede encontrar en Grass et al. (2008) [Teorema 3.30,
p.121].
45
3.4.
t0
(3.25)
Z t1
t0
Por la Formula
de Leibniz
dJ
() =
d
Z t1
F
t0
luego
dJ
(0) =
d
Z t1
F
t0
(t, x
F
(3.27)
t0
(3.28)
x
dt x
y la condicion
de transversalidad
F
(t1 , x (t1 ), x (t1 )) = 0.
x
(3.29)
R,
F
(t, x (t), x (t)) h (t) dt =
(t1 , x (t1 ), x (t1 ))h(t1 )
x
x
Z t1
d F
de Euler, se llega a
Sustituyendo en (3.27) y usando la ecuacion
F
(t1 , x (t1 ), x (t1 ))h(t1 ) = 0,
x
por ser h arbitraria se puede escoger de tal forma que h(t1 ) 6= 0 y por lo tanto
F
(t1 , x (t1 ), x (t1 )) = 0.
x
Observacion
3.13. El problema (3.28) es una caso particular de un PCO (3.14) y,
de Euler a partir del PMP (siempre que
por lo tanto, es posible deducir la ecuacion
u sea interior).
hay que hacer T = t1 , x (t) = u(t), g(t, x (t), u(t)) = F (t, x (t), x (t))
En efecto, solo
(3.16) se convierte en
y S( T, x ( T )) 0. Usando el PMP, la ecuacion
F
,
x
(3.30)
(3.31)
Mas aun,
de segundo orden Duu H 0. Entonces F satisface otra
que H cumple la condicion
necesaria
condicion
Dx x F (t, x (t), x (t)) 0,
llamada condicion
de Legendre, ver Cerda Tena (2001) [Teorema 2.2, pp. 4142] o
6, pp. 4145].
Kamien y Schwartz (1991) [Seccion
t0
(3.32)
(3.33)
(3.35)
t0
x ( t0 ) = x0 , x ( t1 ) a ,
(3.36)
(3.37)
Z t1
t0
F = S(t0 , x (t0 )) +
Z t1 h
t0
F+
S
S i
+ x
t
x
3.5.
Observacion
3.16. En el PCO estandar (3.14) el estado terminal x ( T ) esta libre, una
pregunta natural es que sucede con el PMP cuando x ( T ) = x1 ? Para responder
esta pregunta observese que las funciones
Z T
V (, x ) := max
g( x (t), u(t)) dt + S( x ( T )) x ( ) = x ,
u()
Z T
V (, x ) := max
g( x (t), u(t)) dt + S( x ( T )) x ( ) = x, x ( T ) = x T ,
u()
Observacion
3.17. Si el problema (3.36) se escribe como un PCO con x = u, en de primer orden en (3.18) se convierte en
tonces la condicion
0 = Du H(t, x (t), u (t), (t)) = Dx F (t, x (t), x (t)) + (t),
t [0, T ].
de
En particular, ( T ) = Dx F ( T, x ( T ), x ( T )), sustituyendo en la condicion
transversalidad (3.37)
( T ) +
S
( T, x ( T )) 0, con igualdad si x ( T ) > a.
x
En el siguiente teorema se generaliza el PMP (Teorema 3.4), permitiendo dis (3.16) o en la Observacion
de los
(3.17). Supongase
que los conjuntos I, J, K son disjuntos a pares y la union
tres es igual a {1, 2, . . . , n}. Considerese el siguiente PCO
Z T
max
g(t, x (t), u(t)) dt + S( T, x ( T ))
u()
s. a
i I,
x j ( T ) = x jT ,
j J,
xk ( T ) ak ,
k K.
x (0) = x0 ,
(3.38)
Teorema 3.18. Sea ( x (), u ()) una solucion del PCO (3.38). Entonces existen una
constante 0 0 y una funcion : [0, T ] Rn continua, diferenciable a trozos y con
derivada continua, que satisfacen la ecuacion
adjunta
(3.39)
S
( x ( T ), T ),
xi
51
i I,
(3.40)
j J,
(3.41)
S
( T, x ( T )) k ( T ) 0, con igualdad si xk ( T ) > ak ,
xk
kK
(3.42)
y la maximizacion
del Hamiltoniano
max
uU (t,x (t))
(3.43)
donde
(3.44)
Las ecuaciones (3.39) y (3.43) se satisfacen para casi todo t [0, T ], mientras que
(0 , (t)) 6= 0 t [0, T ].
(3.45)
Observacion
3.19. En el Teorema 3.18 el Hamiltoniano esta dado por (3.44), e ste
es distinto al usado en el Teorema 3.4 ya que aparece el escalar 0 . En general, el
escalar 0 es positivo por lo que el Hamiltoniano (3.44) puede dividirse por 0 y
considerar /0 en lugar de .
Demostracion. Supongase
que 0 = 0, por las condiciones de frontera (3.40) se tiene
que ( T ) = 0. Luego, (0 , ( T )) = (0, 0) lo que cotradice a (3.45).
Hamiltoniano de valor corriente
s. a
52
x (0) = x0 ,
(3.46)
(3.48)
(3.49)
(3.50)
y la maximizacion
del Hamiltoniano
t, x (t), u (t), (t)) =
H(
max
uU (t,x (t))
t, x (t), u, (t))}.
{H(
(3.51)
s. a
i I,
x j ( T ) = x jT ,
j J,
xk ( T ) ak ,
k K,
x (0) = x0 ,
(3.52)
(3.53)
S
( x ( T ), T ),
xi
i I,
(3.54)
x j ( T ) = x jT ,
(3.55)
S
( T, x ( T )) pk ( T ) 0, con igualdad si xk ( T ) > ak ,
xk
kK
(3.56)
y la maximizacion
del Hamiltoniano
t, x (t), u (t), p0 , p(t)) =
H(
max
uU (t,x (t))
t, x (t), u, p0 , p(t))},
{H(
(3.57)
donde
t, x, u, p0 , p) := p0 g(t, x, u) + p f (t, x, u).
H(
(3.58)
Las ecuaciones (3.53) y (3.57) se satisfacen para casi todo t [0, T ], mientras que
( p0 , p(t)) 6= 0 t [0, T ].
(3.59)
s. a
x (0) = x0 ,
lm xi ( T ) libre,
i I,
lm x j ( T ) = x jT ,
j J,
lm xk ( T ) ak ,
k K.
T
T
(3.60)
Teorema 3.23. Sean ( x (), u ()), () un par admisible y una funcion que satisfacen
satisfacen la ecuacion
adjunta
(3.61)
y la maximizacion
del Hamiltoniano
max
uU (t,x (t))
54
(3.62)
donde
(3.63)
(3.64)
Z T
0
Z T
T 0
Z T
0
para todo T Tu .
3.6.
Ejercicios
lineal y
3.1 (Problemas LQ) Resuelva el siguiente problema con ley de transicion
costo cuadratico
Z T
2
2
2
max
[q( x (t)) + r (u(t)) ]dt + Q( x (t)) x (t) = ax (t) + bu(t), x (0) = x0 ,
u()
donde r > 0, q, Q 0, a, b R.
Sugerencia: Considere la funcion de valor V (t, x ) = k (t) x2 .
55
2x0 T 2t
e
2e T 1
t
x0
e2,
2e T 1
t
T 2 .
0
u (t) = 2e2x
T 1 e
3.5 Considere un mercado para un bien durable que consiste de varios consumidores por el lado de la demanda y una sola empresa por el lado de la oferta.
Sea el mercado potencial (total de posibles compradores) constante e igual a
M y denote por x (t) el porcentaje del mercado que ha comprado el producto
denote la intensidad de la publidel monopolista en el inatante t. Mas aun,
cidad hecha por la empresa al tiempo t por u(t) y asuma que los costos de
cuadratica u2 (t)/2.
publicidad estan dados por la funcion
(a) Interprete la siguiente dinamica para el estado
x (t) = u(t) M [1 x (t)].
uMT
Respuesta: El control o ptimo u es tal que ue
= M.
Demuestre que las tres formulaciones son equivalentes, es decir, cada forma
del funcional objetivo puede expresarse en cualquiera de las otras dos.
Sugerencia: Ver Cerda Tena (2001) [Seccion 4.2, pp. 115118].
dinamica
3.8 Considere el siguiente problema de optimizacion
Z T
max
[q f (K (t)) c( I (t))]dt K (t) = I (t) K (t), K (0) = K0 .
I ()
economica
() del siguiente
3.11 Usando el PMP, encuentre el control optimo
y la funcion
PCO
Z 2
2
max
(2x (t) 3u(t) u (t))dt x (t) = u(t) + x (t), x (0) = 5 .
u(t)[0,2]
h f (t), g(t)i dt = 0
rt
max
U ( f (K (t)) K (t))e dt K (0) = K0 , K ( T ) = KT .
K ()
de utilidad y la de produccion
satisfacen las siguientes
Suponga que la funcion
condiciones
f 0 > 0, f 00 0, U 0 > 0, U 00 < 0
(3.65)
e interprete economicamente
la ultima
expresion.
bK y U (C ) = C
/(1 ), donde b, > 0, 6= 1 y b 6= b r.
3.18 Un monopolista enfrenta el siguiente PCO
Z T
max
[ pD ( p, p ) b( D ( p, p ))]
p()
p (0) = p0 , p ( T ) = p T .
economicamente
las funciones D (, ) y b().
de Euler asociada a este problema.
(b) Encuentre la ecuacion
de Euler si b(q) = q2 + q + y D ( p, p ) = Ap +
(c) Resuelva la ecuacion
B p + C, suponga que todos los parametros son positivos.
3.19 Una empresa tiene que entregar B unidades de un bien en la fecha T. Sea x (t)
el nivel de inventario de dicho bien en el tiempo t. Suponga que el costo por
almacenar x (t) unidades es ax (t) por unidad de tiempo. Ademas la empresa
u(t) = x (t), e stos son iguales
incurre en costos por la velocidad de produccion
2
de utilidad y la de produccion
satisfacen las siguientes
Suponga que la funcion
condiciones
f 0 > 0, f 00 0, f (0) = 0, f 0 (0) > , U 0 > 0, U 00 < 0.
59
de Euler.
(a) Escriba la correspondiente ecuacion
(b) En particular, si U (c) = c1 /(1 ), con positivo y distinto de 1, de
muestre que las trayectorias optimas
para el consumo y el capital estan
dadas por el sistema de ecuaciones diferenciales
k = f (k) k c
c 0
c =
( f ( k ) ).
de beneficios
3.21 Una fabrica de microchips desea maximizar la siguiente funcion
Z 5
0
de activos a.
y la acumulacion
de Miguel y Rosita si a(0) = 0 y
Resolver el problema de maximizacion
a(50) = 0.
5 El
par (k , c ) no es el unico
punto de equilibrio, sin embargo, es el de mayor interes.
60
diferencial
economicamente
la siguiente ecuacion
w (t) = r (t)w(t) + y(t) c(t),
w ( 0 ) = w0 ,
(3.66)
la restriccion
puede dar
rt
rs
rt
w ( t ) = e w0 +
e y(s) ds (1 e ) .
(3.67)
r
0
de transversalidad para probar que w ( T ) = 0.
(e) Use la condicion
62
4.
Referencias
63
Grass, D., Caulkins, J. P., Feichtinger, G., Tragler, G., Behrens, D. A. (2008). Optimal
Control of Nonlinear Processes. With Applications in Drugs, Corruption and Terror.
SpringerVerlag.
HernandezLerma, O., Lasserre, J. B. (1996). DiscreteTime Markov Control Processes: Basic Optimality Criteria. SpringerVerlag.
Ichiishi, T. (1983). Game theory for economic analysis. Academic Press.
Kamien, M. I., Schwartz, N. L. (1991). Dynamic optimization: the calculus of variations
and optimal control in economics and management. 2nd ed. NorthHolland.
Kreps, D. M. (1995). Curso de teora microeconomica. McGrawHill.
Lomel, H., Rumbos, B. (2003). Metodos dinamicos en economa. Otra busqueda
del
tiempo perdido. International Thomson Editores.
Ljungqvist, L., Sargent, T. J. (2004). Recursive Macroeconomic Theory. 2nd ed. MIT
Press.
Mas-Colell, A., Whinston, M. D., Green, J. R. (1995). Microeconomic Theory. Oxford
University Press.
McCarty, N., Meirowitz, A. (2007). Political Game Theory. Cambridge University
Press.
65