Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Para que una función como 𝑧 = 𝑓(𝑥, 𝑦) tenga un mínimo o un máximo relativo, se deben de
satisfacer tres condiciones:
1. Las derivadas de primer orden deben simultáneamente ser iguales a cero. Ello indica que
en un punto dado (𝑥0 , 𝑦0 ) llamado punto crítico, la función no está creciendo ni
decreciendo con respecto a los ejes principales sino a una superficie relativa.
𝑓𝑥 (𝑥0 , 𝑦0 ) = 0 y 𝑓𝑦 (𝑥0 , 𝑦0 ) = 0
2. Las derivadas de segundo orden deben de ser negativas cuando ellas son evaluadas en el
punto crítico (𝑥0 , 𝑦0 ) para un máximo relativo, y positivas para un mínimo relativo. Ello
asegura que la función es cóncava y moviéndose hacia abajo en relación a los ejes
principales en el caso de un máximo relativo y la función es convexa y moviéndose hacia
arriba en relación a los principales en el caso de un mínimo relativo.
3. El producto de las derivadas parciales de segundo orden en el punto crítico deben exceder
el producto de las derivadas cruzadas también evaluadas en dicho punto. Esta condición
es necesaria para evitar un punto de inflexión o punto silla.
Condición
Máximo Mínimo
Necesaria.
Primer orden 𝑓𝑥 = 𝑓𝑦 = 0 𝑓𝑥 = 𝑓𝑦 = 0
Segundo orden 𝑓𝑥𝑥 , 𝑓𝑦𝑦 < 0 y 𝑓𝑥𝑥 𝑓𝑦𝑦 > (𝑓𝑥𝑦 )2 𝑓𝑓𝑥𝑥 , 𝑓𝑦𝑦 > 0 y 𝑓𝑥𝑥 𝑓𝑦𝑦 < (𝑓𝑥𝑦 )2
6
En la situación que 𝑓𝑥𝑥 𝑓𝑦𝑦 < (𝑓𝑥𝑦 )2 , cuando 𝑓𝑥𝑥 y 𝑓𝑦𝑦 tienen el mismo signo, la función está
en un punto de inflexión. Caso contrario, la función estará en un punto silla. Si 𝑓𝑥𝑥 𝑓𝑦𝑦 = (𝑓𝑥𝑦 )2
entonces se requeriría mayor información.
𝜕𝑓
𝑓𝑥𝑗 𝑥𝑖 = , 𝑐𝑜𝑛 𝑖, 𝑗 = 1,2, ⋯ , 𝑛
𝜕𝑥𝑖 𝜕𝑥𝑗
Condición
Necesaria.
Máximo Mínimo
Primer orden 𝑓𝑥1 = 𝑓𝑥2 = ⋯ = 𝑓𝑥𝑛 = 0 𝑓𝑥1 = 𝑓𝑥2 = ⋯ = 𝑓𝑥𝑛 = 0
Segundo orden |𝐻1 | < 0, |𝐻2 | > 0, |𝐻3 | < 0 ⋯ , (−1)𝑛 |𝐻𝑛 | > 0 |𝐻1 |, |𝐻2 |, ⋯ , |𝐻𝑛 | > 0
Hessiana (simétrico)
El determinante de la matriz Hessiana está conformada por las derivadas de segundo grado.
Esta matriz es utilizada para probar máximos y mínimos en funciones con 𝑛 variables. En
general el hessiano será:
7
V.1. Mínimos cuadrados.
Los datos medidos pueden graficarse como una serie de puntos en una gráfica (gráfica de
dispersión). Para obtener una aproximación a la gráfica completa de la relación, se bosqueja
una curva suave que pase tan cerca como sea posible a estos datos puntuales. Por lo regular,
la curva que dibujamos no pasará por cada uno de estos datos puntuales, porque de hacerlo así
esto afectaría su suavidad. De hecho, a menudo aproximamos la relación dibujando la gráfica
como una línea recta que pase tan cerca como sea posible de los puntos graficados.
Mínimos Cuadrados
Como se menciona, en ocasiones tenemos unos datos (𝑥1 , 𝑦1 ), (𝑥2 , 𝑦2 ), ⋯ , (𝑥𝑛 , 𝑦𝑛 ) que al
graficarlos parecen estar sobre una recta. También podemos tener motivos para pensar que
nuestros datos provienen de una relación lineal 𝑦 = 𝑎𝑥 + 𝑏 entre las variables pero que en el
momento de tomar los datos se ven perturbados por fenómenos aleatorios. El planteamiento
en todo caso es que dados los datos(𝑥1 , 𝑦1 ), (𝑥2 , 𝑦2 ), ⋯ , (𝑥𝑛 , 𝑦𝑛 ) queremos conseguir la recta
𝑦 = 𝑎̂𝑥 + 𝑏̂ que mejor se ajuste a ellos. No vamos a conseguir la recta y 𝑦 = 𝑎𝑥 + 𝑏 sino
vamos a proponer una estimación de ella: 𝑦 = 𝑎̂𝑥 + 𝑏̂.
Es difícil precisar que quiere decir la que mejor se ajusta, pero un criterio para conseguir una
buena recta es la que minimiza la suma de las distancias verticales al cuadrado. Más
precisamente: la distancia vertical del 𝑖 − é𝑠𝑖𝑚𝑜 dato a la recta está dado por
|𝑦1 − (𝑎𝑥𝑖 + 𝑏)|.
8
Así que para conseguir la mejor recta, debemos calcular a y b que minimizan
𝑛 𝑛
2
𝑆(𝑎, 𝑏) = ∑(𝑦𝑖 − (𝑎𝑥𝑖 + 𝑏)) = ∑(𝑦𝑖 − 𝑎𝑥𝑖 − 𝑏)2
𝑖=1 𝑖=1
Podemos conseguir una fórmula general para la pendiente y para la ordenada en el origen.
Pero preferimos dejar planteado el sistema para conseguir los puntos críticos:
𝛿𝑆(𝑎, 𝑏)
= 𝑆𝑎 (𝑎, 𝑏) = 0
𝛿𝑎
Para las dos derivadas vamos a tener una suma.
𝛿𝑆(𝑎, 𝑏)
(𝑎,
{ 𝛿𝑏 = 𝑆𝑏 𝑏) = 0
𝑛
𝑛 𝑛 𝑛
𝑎 ∑ 𝑥𝑖 2 + 𝑏 ∑ 𝑥𝑖 = ∑ 𝑥𝑖 𝑦𝑖
𝑖=1 𝑖=1 𝑖=1 Si llamamos 𝑆𝑥𝑦 = ∑𝑛𝑖=1 𝑥𝑖 𝑦𝑖 ; 𝑆𝑥 = ∑𝑛𝑖=1 𝑥𝑖 ; 𝑆𝑥𝑥 =
𝑛 𝑛 ∑𝑛𝑖=1 𝑥𝑖 2 y 𝑆𝑦 = ∑𝑛𝑖=1 𝑦𝑖 , el último sistema de
𝑎 ∑ 𝑥𝑖 + 𝑛𝑏 = ∑ 𝑦𝑖 ecuaciones queda planteado como:
{ 𝑖=1 𝑖=1
9
𝑎𝑆𝑥𝑥 + 𝑏𝑆𝑥 = 𝑆𝑥𝑦 Llamamos 𝑎̂ y 𝑏̂ las soluciones del sistema anterior,
ellas estiman la pendiente y la ordenada al origen de
{
la recta 𝑦 = 𝑎𝑥 + 𝑏.
𝑎𝑆𝑥 + 𝑛𝑏 = 𝑆𝑦
Esto último es conocido como una regresión de 𝒚
sobre 𝒙.
Linealización
Modelo potencial (𝑌 = 𝐴𝑋 𝑏 ).
ln 𝑌 = ln 𝐴 + b ln 𝑋
Modelo exponencial (𝑌 = 𝐴𝐵 𝑥 ).
10
se convierte el problema en una cuestión de regresión lineal. Es decir, tomando logaritmos
neperianos:
ln 𝑌 = ln(𝐴𝐵 𝑋 ) = ln 𝐴 + 𝑋 ln 𝐵
La curva de regresión, tiene carácter de línea media que trata de resumir o sintetizar la
información suministrada por los datos. Si tiene carácter de línea media (de promedio, en
definitiva), deberá ir acompañada siempre de una medida que exprese su representatividad, es
decir, de lo buena que es la curva, ya que el haber obtenido la mejor de todas no da garantías
de que sea buena. Se necesita, por tanto, una medida de dispersión, que tenga en cuenta la
dispersión de cada observación con respecto a la curva, en otras palabras, lo alejado que se
encuentra cada punto de la curva. Por lo que, se deben evaluar esas distancias verticales a la
curva, es decir, los errores o residuales.
Si las dispersiones son pequeñas, la curva será un buen representante de la nube de puntos, o
lo que es lo mismo, la bondad de ajuste del modelo será alta. Si la dispersión es grande, la
bondad de ajuste será baja. Una forma de medir dicha bondad de ajuste es precisamente
evaluando la suma de los cuadrados de los errores. Por tanto, se llamará varianza residual a la
expresión:
𝑂𝑝𝑡𝑖𝑚𝑖𝑧𝑎𝑟 𝑓(𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 )
𝑠. 𝑎.
𝑔1 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 𝑏1
⋮
𝑔𝑚 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 𝑏𝑚
Algunas precisiones:
Los óptimos que obtendremos serán débiles en el sentido de que una pequeña variación
en las restricciones hará que dejen de ser óptimos. Por este motivo los llamaremos
óptimos condicionados o restringidos.
11
V.2.1. Métodos de Resolución.
Resolución Gráfica.
Multiplicadores de Lagrange
Ejemplo:
min 𝑧 = 𝑥 2 + 𝑦 2
𝑠. 𝑎.
𝑥+𝑦 =3
12
Ejemplo:
min 𝑧 = 𝑥 2 + 𝑦 2
𝑠. 𝑎. es equivalente a min 𝑧 = 𝑥 2 + (3 − 𝑥)2
𝑥+𝑦=3
La función objetivo es ahora una función de una variable menos, la cual podemos resolver
por alguno de los métodos usuales de optimización en una variable, así
𝑓(𝑥) = 𝑥 2 + (3 − 𝑥)2
′ 3
𝑓 ´ (𝑥) = 2𝑥 − 2(3 − 𝑥) = 0, por tanto: 𝑥 = 2 = 𝑦
𝑓 ′′ (𝑥) = 4 > 0,
3 3
Entonces (2 , 2) es un mínimo restringido o condicionado.
Ejemplo:
min 𝑧 = 𝑥1 𝑥2 𝑥3 min 𝑧 = 𝑥1 𝑥2 (1 − 𝑥1 − 𝑥2 )
𝑠. 𝑎. Eliminando 𝑥3 , 𝑠. 𝑎.
𝑥1 +𝑥2 + 𝑥3 − 1 = 0 𝑥1 2 𝑥3 +𝑥2 𝑥3 2 + 𝑥2 −1 𝑥1 = 0
c) Multiplicadores de Lagrange.
𝑂𝑝𝑡𝑖𝑚𝑖𝑧𝑎𝑟 𝑓(𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 )
𝑠. 𝑎.
𝑔1 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 𝑏1
⋮
𝑔𝑚 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 𝑏𝑚
Se transforma en:
𝑚
𝜕𝐿
= 0, 𝑖 = 1, … , 𝑛
𝜕𝑥𝑖
13
𝑔𝑖 (𝒙) = 0, 𝑚 = 1, … , 𝑚
Hessiano Orlado.
Ejemplo:
min 𝑧 = 𝑥 2 + 𝑦 2
𝑠. 𝑎.
𝑥+𝑦 =3
𝐿(𝑥, 𝑦; 𝜆) = 𝑥 2 + 𝑦 2 − 𝜆(𝑥 + 𝑦 − 3)
14
Condición necesaria:
∇𝐱 𝐿(𝑥, 𝑦; 𝜆) = (2𝑥 − 𝜆, 2𝑦 − 𝜆) = (0,0)
𝜕𝐿
(𝑥, 𝑦; 𝜆) = −𝑥 − 𝑦 + 3 = 0
𝜕𝜆
𝜕𝐿
Observemos que la condición 𝜕𝜆 = 0 equivale a pedir que se satisfaga la restricción.
Resolvemos:
2𝑥 − 𝜆 = 0
{2𝑦 − 𝜆 = 0
𝑥+𝑦 =3
Obtenemos:
3 3
𝑥= , 𝑦= , 𝜆=3
2 2
Condición suficiente:
2 0
𝐻𝒙 𝐿(𝑥, 𝑦; 𝜆) = ( ) , la cual es definida positiva.
0 2
15