Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Optimizacin
Fases de un Estudio de
Investigacin de
Operaciones
1.
2.
3.
4.
5.
La
La
La
La
La
Construccin de
Modelos
Los Modelos simblicos son
conceptualizaciones abstractas del
problema real a base del uso de
letras, nmeros, variables y
ecuaciones
Construccin de
modelos
Construccin de
modelos
Ejemplo 2. Modelos Alfa fabrica camisas y blusas para las Tiendas
Beta, que aceptan toda la produccin de Alfa. En el proceso de
produccin intervienen el corte, costura y empacado. Alfa emplea
25 trabajadores en el departamento de corte, 35 en el
departamento de costura y 5 en el departamento de empaque. Esa
fabrica trabaja un turno de 8 horas, 5 das por semana. En la tabla
siguiente se muestran los tiempos necesarios y las utilidades
unitarias para cada prenda.
_________________________________
Minutos por unidad
Prenda
Corte
Costura
Empaque
Utilidad ($)
_______________________________________________
Camisas
20
70
12
8.00
Blusas
60
60
4
12.00
_______________________________________________
a) Determine el programa de produccin semanal ptimo para Alfa.
Construccin de modelos
Construccin de modelos
Ejemplo 4. Un fabricante produce tres modelos, I, II y III de cierto producto, usando las
materias primas A y B. La tabla siguiente muestra los datos del problema:
Requerido por unidad
_____________________
Materia prima
I
II
III
Disponibilidad
A
2
3
5
4000
B
4
2
7
6000
Demanda mnima
200
200
150
Utilidad por unidad
30
20
50
El tiempo de mano de obra para el modelo I es el doble que para el II y el triple del III. Todo
el personal de la fbrica puede producir el equivalente de 1500 unidades del modelo I.
Las necesidades del mercado especifican las relaciones 3:2:5 de las producciones de los
tres modelos respectivos. Formule el modelo de programacin lineal.
Construccin de modelos
Construccin de modelos
Horario
Requerimient
o mnimo
3-7
7-11
11-15
15-19
19-23
23-3
20
14
20
10
Anlisis de Sensibilidad
Ejemplo 7. HiDec produce dos modelos de artculos
electrnicos, donde se usan resistores, capacitores
y chips. La tabla siguiente es un resumen de los
datos en este caso:
Requerimientos del recurso por unidad
Recurso Modelo 1 Modelo 2 Disponibilidad mxima
Resistor
2
3
1200
Capacitor 2
1
1000
Chips
0
4
800
Utilidad($) 3
4
_________________________________________________
Ejemplo 7.
Continuacin
Ejemplo 7.
Continuacin
Bsica
s
z
x1
x2
x3
x4
X5
5/4
Soluci
n
1750
x1
-1/4
450
x5
-2
400
x2
100
1/2 -1/2
Ejemplo 7.
Continuacin
a)
b)
c)
d)
e)
Algoritmo simplex
modificado
Maximizar z 5 4 0 0 0 0 x 1
x2
x3
x4
x6 T
x5
Sujeta a
6
1
-1
4
2
1
1
1
0
0
0
0
1
0
0
0
0
1
0
0
0
x1
x 2 24
x 6
3
x4 1
x
2
5
x
6
x 1 , x 2 , x 3 , x 4 , x 5 , x6 0
c2
c3
c4
c5
c6
Algoritmo simplex
modificado
Iteracin 0.
X B0 x 3 , x 4 , x 5 , x 6 ,
C B0 0 ,0 ,0 ,0
B0 P3 , P4 , P5 , P6 I , B0 1 I
X B0 B0 1 b ( 24 ,6 ,1 ,2 )T ,
z C B0 X B0 0
Clculos de optimalida d :
C B0 B0 1 ( 0 ,0 ,0 ,0 )
z j c j j 1 ,2 C B B0 1 ( P1 , P2 ) ( c1 , c 2 ) ( 5 ,4 )
0
Algoritmo simplex
modificado
Clculos de factibilidad:
X B0 x 3 , x 4 , x 5 , x6 T ( 24 ,6 ,1 ,2 )T
B0 1 P1
6 ,1 ,1 ,0
24 6
, x 1 min
, , , min 4 ,6 , , 4
6 1
Algoritmo simplex
modificado
Iteracin 1.
X B1 ( x 1 , x 4 , x 5 , x 6 )T ,
C B1 5 ,0 ,0 ,0
B1 ( P1 , P4 , P5 , P6 )
6
1
1
0
0
1
0
0
0
0
1
0
0
0
1
6
B1 1
X B1 B1 1 b ( 4 ,2 ,5 ,2 )T ,
1
6
1
6
0
1
0
0
0
0
1
0
0
1
z C B1 X B1 20
Algoritmo simplex
modificado
Comprobaci n de optimalida d :
C B1 B1 1
1
6
61
( 5 ,0 ,0 ,0 ) 1
6
0
0
1
0
0
0
0
1
0
0
5
( 6 ,0 ,0 ,0 )
0
1
z j c j j 2 ,3 C B B1 1 ( P2 , P3 ) c 2 , c 3
1
4 1
2 0
5
2
( 6 ,0 ,0 ,0 )
(
4
,
0
)
,0 )
3
1 0
1 0
Algoritmo simplex
modificado
Comprobaci n de factibilidad :
X B1 x 1 , x 4 , x 5 , x 6 T ( 4 ,2 ,5 ,2 )T
1
6
B1- 1 P2
61
1
6
0
1
0
0
0
0
1
0
0
1
4 23
2 43
1 5
3
1 1
4 2 5 2
3
3
x 2 min 2 , 4 , 5 , min 6 , 2 ,3 ,2
2
3 3 3 1
y P4 sale de la base.
Algoritmo simplex
modificado
X B2 ( x 1 , x 2 , x 5 , x6 )T , C B2 5 ,4 ,0 ,0
B2 ( P1 , P2 , P5 , P6 )
6
4
2
1
1
0
0
1
0
0
0
1
4
81
B2 1
X B2 B2 1 b ( 3 , 23 , 52 , 21 )T ,
3
8
1
8
21 0
3
0
4
54 1
43 0
0
1
z C B1 X B1 21
Algoritmo simplex
modificado
Comprobaci n de optimalida d :
C B2 B2 1
1
4
81
( 5 ,4 ,0 ,0 ) 3
8
1
8
3
4
1
2
54
43
0
0
1
0
0
3 1
( 4 , 2 ,0 ,0 )
0
1
z j c j j 3 ,4 C B B21 ( P3 , P4 ) c 3 , c4
2
As X B2
1 0
0 1
3 1
( 43 , 21 ,0 ,0 )
(
0
,
0
)
(
, )
4 2
0 0
0 0
Gradiente de z
Espacio de
soluciones:
Segmento de recta
AB.
C
D
E
B
2
Minimizar z = CX
sujeto a
AX = 0
1X = 1
X0
Todas las restricciones son ecuaciones
homogeneas, a excepcin de la restriccin 1X =
1, que define un simplex n dimensional.
1.
2.
Ejemplo
Sea el problema
Maximizar
z y1 y 2
sujeta a
y1 2 y 2 2
y1 , y2 0
Introduciendo una variable de holgura, se tiene
y1 2 y 2 y 3 2
Definiendo
y1 y 2 y 3 U
Ejemplo
y1 y 2 y 3 y 4
2
5
5 y1 10 y2 5 y3 2 y1 2 y2 2 y3 2 y4
3 y1 8 y2 3 y3 2 y4 0
Ejemplo
Ejemplo
Ejemplo
El modelo de Programacin
Lineal
Z cX
sujeta a
AX b
X 0
El mtodo Simplex
n
Z ci X i
Optimizar
i 1
Sujeta a
n
a ji X i bi
i 1
Xi 0
j 1 ,..., m
i 1 ,..., n
Teoremas Bsicos de la
Programacin Lineal
Teorema 1. El conjunto de todas las soluciones factibles de un
programa de programacin lineal es un conjunto convexo.
Demostracin:
Si X es una solucin factible, satisface las
siguientes condiciones
AX b
X0
Teorema 1.1 Un semiespacio cerrado cX b ( o bien abierto cX <
b) es un conjunto convexo.
Prueba: Sean X1 y X2 dos puntos cualesquiera del semiespacio
cerrado o abierto. Es decir
cX1 b cX1 < b
cX2 b cX2 < b
Sea X = X1 + (1-)X2, 0 < < 1. Entonces
cX = c[X1 + (1-)X2] = cX1 + (1-)cX2 = b + (1-)
b=b
Por tanto X est en el subespacio cerrado o abierto.
Teoremas Bsicos de la
Programacin Lineal
El procedimiento tradicional
de Gram-Schmidt
Dado un conjunto generador v 1 ,..., v q
u1 v 1
u2 v 2 12 u1
u3 v 3 13 u1 23 u2
u4 v 4 14 u1 24 u2 34 u3
uk v k 1k u1 k 1 ,k uk 1 2 k q
jk
u j ,v k
u ,u si u j 0 y jk 0 si u j 0
j
j
El procedimiento tradicional
de Gram-Schmidt. Ejemplo
v1
1
u1 v 1
u2
9
4
v2
3
4
1
1
u2 v 2 12 u1
v3
3
3
4
3 T
4
v4
2
1 1( 2 ) 1( 1 ) 1( 1 ) ( 1 )( 1 )
1
1 2 1 2 1 2 ( 1 ) 2
El procedimiento tradicional
de Gram-Schmidt. Ejemplo
u3 v 3 13 u1 23 u2
13
23
14
24
34
9
4
1
( 1 )
1
1( 0 ) 1( 3 ) 1( 3 ) ( 1 )( 3 )
94
4
( 9 / 4 )( 0 ) ( 3 / 4 )( 3 ) ( 3 / 4 )( 3 ) ( 3 / 4 )( 3 )
81 9 9 9
16
16
16
16
1( 1 ) 1( 2 ) 1( 2 ) ( 1 )( 1 )
21
4
( 9 / 4 )( 1 ) ( 3 / 4 )( 2 ) ( 3 / 4 )( 2 ) ( 3 / 4 )( 1 )
81 9 9 9
16
16
16
16
0
1 4 4 1
0
1
u4 v 4 14 u1 24 u2 34 u3
1
2
2
3
9
4
3
4
3
4
3
4
0
0
0
0
Descomposiciones QR
a)
1.
2.
3.
Descomposiciones QR
b) A puede escribirse en su descomposicin QR
normalizada como A=QR, en donde:
1. Q es p q y tiene columnas ortonormales que
generan el espacio columna de A.
2. R es triangular superior de k q y tiene rango k.
3. Si k = q, entonces |Rii| es igual a la
distancia desde la i-sima columna de A hasta el
espacio generado por las primeras i-1 columnas
de A.
Descomposiciones QR.
Ejemplo
2
0 1
1
1
3
2
A
1 1 3
2
1 1 3 1
1
Q0
1
9
4
43
43
3
4
1 1
4
0
0
1
0
1
1
R0
0 0
0 1
0 1
A Q0 R0
0 2
9
4
1
2
2
3
0
1
Descomposiciones QR.
Ejemplo
Para obtener Q y R, se eliminar la tercera
columna de Q0 y el tercer rengln de R0, y se
ajustarn las escalas de las columnas de Q0 y
los renglones de R0.
1
2
1
2
1
2
1
2
A QR
3
2
3
6
3
6
3
6
0
6
6
6
6
6
3
R 0
1
2
3 3
2
9
2
3 3
2
Descomposiciones QR
usando transformaciones
Householder
Descomposiciones QR
usando transformaciones
Householder
( y y e1 )
( y y e1 )
y ,0 ,0
T .
Reflexiones de
Householder
y x = u
uT(x + 0.5 u) = 0
uTx + 0.5 uTu=
0
0.5 uuTTux= -uTx2 uT x
0.5 u u
y x u
x
2 uT x
uT u
2
uT u
u x
uu T x
uT u
I -
uu x H u x
T
u u
Reflexiones de
Householder
Ejemplo.
u 1
2 T
u u 1
1
2 1 4 5
2
1
Hu
0
0
1
1
2
1
5
2
3
5
54
54
3
5
Reflexiones de
Householder. Ejemplo
Descomposicin QR.
Descomposicin QR de la matriz
X 1
1
u
1.26
1.82
2.22
y y e1
y e1
1 ,1 ,1 T
1 ,1 ,1 T
0.7321 ,1 ,1 T
1.5925
3 1 ,0 ,0 T
3 1 ,0 ,0 T
Reflexiones de
Householder. Ejemplo
Descomposicin
QR.
2 u1 u1T
.4597
2 0.6279 0.4597
0.6279
0.4226
0.5772
0.5772
H u1
0.5772
0.7886
0.6279
0.6279
0.5772
0.7886
0.7886
0.5772
1 0 0
0.4226
I 2 u1 u1T 0 1 0 0.5772
0.7886
0 0 1
0.5772
0.7886
0.5772
0.5772
0.5774
0.5772
0.2114
0.7886
0.5772 0.7886
0.2114
0.7886
0.5772
0.7886
0.7886
Reflexiones de
Householder. Ejemplo
Descomposicin QR.
X1
0.5774
H u1 X 0.5772
0.5772
1.7321
0.6388
u2 0
0.9841
u2
0.5772
0.2114
0.7886
0.5772 1
0.7886 1
0.2114 1
3.060
- 0.6388
- 0.2388
0.2388 T 0.6820 0
1.3422
1.26
1.82
2.22
0.1780 T
2 u2 uT 2 0.9841 0 0.9841
0.1780
0
0
0
0
1.937
0.3504
0 0.3504 0.0634
0.1780 2 0
0
0.9685
0.1752
0.1752
0.0317
Reflexiones de
Householder. Ejemplo
Descomposicin QR.
H u2 I
2 u2 uT
2
0
0
0
0
H u2 H u1
0
0
0
- 0.937
- 0.3504
0
- 0.937
- 0.3504
0.5774
- 0.7431
0.3384
0
0
0 0
0
1
0
1
0
- 0.3504
0.9366
- 0.3504
0.9366
0.5772
0.07824
0.8127
0.5774
R H u2 H u1 X - 0.7431
0.3384
0.3504
0.0634
0
1.937
0.3504
0.5774
0.5772
0.5772
0.5772
0.2114
0.7886
0.5772
0.7886
0.2114
0.5772
0.6648
0.4743
0.5772
0.07824
0.8127
0.5772
0.6648
0.4743
1
1
1.26
1.7321
1.82
0
2.22
0
3.06
0.682
0
Reflexiones de
Householder. Ejemplo
Descomposicin
QR.
Q H H
H H
T
u1
0.5774
- 0.7431
0.3384
0.5774
w Q T y 0.5772
0.5772
0.5774
Q1 0.5772
0.5772
1.7321
0
R1
T
u2
u2
0.5772
0.07824
0.8127
0.5772
0.6648
0.4743
0.7431
0.07824
0.6648
0.3384
0.8127
0.4743
0.7431
0.07824
0.6648
3.06
0.682
u1
0.92
3.23
2
.
15
1
.
16
2.52
0.24
0.5774
0.7431
Q1T
R1 w 1
0.5772
0.07824
R1 1 w 1
0.5772
0.6648
El Modelo de Regresin
Lineal
El modelo
y = X + z
supuestos:
E(z) = 0
E(y) = X
Adicionalmente, suponiendo z
normalmente distribuido
Var[z] = E[zzT] = 2I
El Modelo de Regresin
Lineal
p y ,
N
2 2
N
2 2
y x T y x
exp
y x
exp
El Modelo de Regresin
Lineal
As
y x
l , y N exp
y n x np p
n 1
p1
N
2 2
Es un mnimo
El Modelo de Regresin
Lineal
El Modelo de Regresin
Lineal
X T y X T X 0
X T X X T y
X T X
XT y
El Modelo de Regresin
Lineal
El Modelo de Regresin
Lineal
Interpretacin geomtrica
Interpretacin geomtrica
y
w 2 = Q 2 Ty
La proyeccin de w sobre el plano esperado es entonces
w1
en las coordenadas Q y
w
Q 1 Q1 w 1
0
en el sistema de coordenadas original.
R w1
Descomposicin en
valores singulares
a)
Descomposicin en
valores singulares
b) Los nmeros 12 conforman los
eigenvalores de AHA, y los eigenvectores
asociados son las columnas vi de V;
igualmente, las 12 conforman los
eigenvalores de AAH, y los eigenvectores
asociados son las columnas ui de U. Las i
se llaman los valores singulares de A, los
ui se llaman los vectores singulares
izquierdos de A; y los vi los vectores
singulares derechos de A, que se
relacionan por Avi = i ui para 1 i s.
Descomposicin en
valores singulares
Ejemplo. Considere
1 1
1 2 2
9 9
T
T
A 2 2 A
A A
1
2
2
9
9
2 2
9
9
2
2
81
81
18
81 0
9
9
2 18 18 0 1 18
1 18 3 2
2 0
2 0
Descomposicin en
valores singulares
Vectores caractersticos
9 18
9 x1 9 x 2
x1
0
9 18 x 2
0
9 x1 9 x 2
x1 1
x 2 1 X 1 1 ,1
v1
1
2
2
2
2
2
12 12
x 2 1 X 2 1 1
x1 1
1
2
X1
9 x1
9 x1 9 x 2
0
9
x
9
x
9 0 x2
1
2
0
90
v2
1
2
1
2
2
2
2
2
X2
2
2
2
2
1 2 ( 1 ) 2
2
2
2
2
Descomposicin en
valores singulares
4
4
2 4 4
2
AAT 4 8 8
4
8
4 8 8
4
8
8
8
8
4
8
4 8
2
4
4
0
8
8
4 8
4
8
2 [ 8 2 64 ] 4 [( 4 )( 8 ) 32 ] 4 [ 32 4( 8 )] 0
( 2 )[ 16 2 ] 4 [ 4 ] 4 [ 4 ] 32 2 2 16 2 3 32 0
3 18 2 2 ( 18 ) 0
1 18 2 0 3 0
Descomposicin en
valores singulares
UV
1
3
2
3
2
3
2 5
5
5
5
2 5
15
4 5
15
5
15
3 2
0
0
2
2
2
2
2
2
2
2
Descomposicin en valores
singulares, pseudoinversas y
mnimos cuadrados
x1
2
2
15
2 2
30
Pseudoinversa A V U T
Descomposicin en valores
singulares, pseudoinversas y
mnimos cuadrados
2
2
2
2
V U
1
18
1
9
2
2
3 2
2
2
0
1
9
0 0
0 0
1
3
2
3
2 5
5
5
5
2 5
15
4 5
15
1
1
1
18 9 9
Solucin del sistema de ecuaciones :
1
9
1
18
1
9
x0
1
18
15
56
15 5
1
6
9
30
1
9
2
3
0 A
5
15
0.6
3.4
1.6
8.6
0.5
8.6
1.2
4.0
2.0
5.5
1.3
10.5
2.5
17.5
2.2
13.4
2.4
4.5
1.2
30.4
3.5
11
12.4
4.1
12
13.4
5.1
12
26.2
5.7
12
7.4
Concentracin PCB vs
Edad
Scatterplot of Conc. PCB(ppm) vs Edad(aos)
30
Conc. PCB(ppm)
25
20
15
10
5
0
0
6
Edad(aos)
10
12
Estabilizacin de la
varianza
Scatterplot of ln(PCB) vs Edad(aos)
4
ln(PCB)
6
Edad(aos)
10
12
S = 0.561859
Analysis of Variance
Source
Regression
Residual Error
Total
R-Sq = 73.5%
T
P
0.14 0.889
8.49 0.000
R-Sq(adj) = 72.5%
DF
SS
MS
F
P
1
22.732 22.732 72.01 0.000
26 8.208
0.316
27 30.939
Predictor
Coef
SE Coef
T
P
Constant
-1.483
1.832 -0.81 0.426
Edad(aos) 1.5563 0.2801 5.56 0.000
S = 5.15761
Analysis of Variance
Source
Regression
Residual Error
Total
R-Sq = 54.3%
R-Sq(adj) = 52.5%
DF
SS
MS
F
P
1
820.96 820.96 30.86 0.000
26 691.62 26.60
27 1512.58
Predictor
Coef
SE Coef
T
P
Constant
-2.3890 0.3928 -6.08 0.000
Rcub edad 2.2968 0.2277 10.09 0.000
S = 0.492071
Analysis of Variance
Source
DF
SS
MS
F
P
Regression
1 24.644 24.644 101.78 0.000
Residual Error 26 6.295 0.242
Total
27 30.939
R-Sq = 79.7%
R-Sq(adj) = 78.9%
ln(PCB)
1.0
1.2
1.4
1.6
1.8
Rcub edad
2.0
2.2
2.4
Teora Clsica de la
Optimizacin
Dr. Manuel Arnoldo Rodrguez
Medina
1.
2.
Mximos y mnimos de
funciones de varias variables
sin restricciones
3.
2 f
2 f
y
Calcule X , Y
y evalelas
en los puntos crticos (X0, Y0). Dentese
el resultado por:
2 f
X
4.
2 f
X Y
X 0 ,Y0
2 f
Y
X 0 ,Y0
2 f
X 2 Y 2
X 0 ,Y0
Calcule el Jacobiano
2 f
X 2
X 0 ,Y0
2 f
Y 2
X 0 ,Y0
2 f
X Y
X 0 ,Y0
X 0 ,Y0
0 y
2 f
Y
X 0 ,Y0
X 0 ,Y0
0 y
2 f
Y
X 0 ,Y0
Ejemplo 1. Sea
f(X, Y) = 3 + 2X + 2Y 2XY Y2 2X2
f
f
2 4 X 2Y
2 2 X 2Y
X
Y
f
f
0 4 X 2Y 2
0 2 X 2Y 2
X
Y
Resolviendo el sistema : X 0, Y 1
El punto (X, Y) (0, 1) es un punto crtico a analizar.
2 ( 0 ,1 )
2 f
Y
4 0
2 f
0 ,1 2
X Y
( 4 )( 2 ) ( 2 )2 4 0
Interpretacin Geomtrica
de las Derivadas Parciales
Derivadas Parciales
TEORA CLSICA DE LA
OPTIMIZACIN
PROBLEMAS NO RESTRINGIDOS
Un punto extremo de una funcin f(X) define
un mximo de ella. Matemticamente,
Un punto X 0 x 10 ,..., x 0j ,..., x n0
es mximo si
f(X0 + h) f(X0)
para toda h = (h1, , hj,, hn) y |hj| es
suficientemente pequea para toda j. De
igual forma, X0 es un mnimo si
f(X0 + h) f(X0)
Mximos y mnimos
Mximos y Mnimos
Mximos y Mnimos
Si h HhT>0 entonces
f (X*+h )-f (X*)=(1/2)h HhT
o sea f (X*+h )>f (X*)
para cualquier valor de h, excepto h =0, y por lo
tanto X* es un mnimo local
EJEMPLO
Sea
f X 2 X 12 3 X 22 4 X 32 8 X 1 12 X 2 24 X 3 10
f X
X
1
4 X 18
f
X
6 X 12
f X
2
X 2
8 X 3 24
f X
3
f X
4 X 18
0
6 X 2 12 0
0
8 X 3 24
X1 2, X2 2, X3 3
EJEMPLO
y el Hessiano ser
2 f
X 12
2 f
X 2 X 1
2 f
X 3 X 1
XHX T X 1
2 f
X 1 X 2
2 f
X 22
2 f
X 3 X 2
X2
2 f
X 1 X 3
4 0 0
2
f
0
6
0
X 2 X 3
0 0 8
2
f
X 32
4 0 0
X 3 0 6 0
0 0 8
X1
X 4X 2 6X 2 8X 2 0
1
2
3
2
X 3
Esta ecuacin es positiva para todo valor de X, excepto para X =0, por
lo cual se puede decir que el punto es un mnimo.
LOS METODOS DE
GRADIENTE
a)
b)
c)
Mtodos de Gradiente
Dada la funcin
f X 1 , X 2 7 X 1 4 X 2 X 1 X 2 X 12 X 22
f
X 7 X 2 2 X 1 0 2 X 1 X 2 7
1
f X
4 X 1 2 X 2 0 X 1 2 X 2 4
X 2
X1 6
X2 5
f 6 ,5 7 6 4 5 6 5 6 2 5 2 31
Mtodos de Gradiente
0
0
,
X
1
2
8 ,2
f 8 ,2 7 X 1 4 X 2 X 1 X 2 X 12 X 22 12
f
X
1
f X
X 2
7 X2 2 X1 7
8
4
2
X
1
2
8
X
2
Longitud de Avance
Vector de avance:
X 1 X 11 , X 21 8 ,2 8 k
f X 1 , X 2 7 8 4 2 8 k 8 2 8 k 8 2 2 8 k
64 k 2 64 k 12
f
64
128 k 64 0
k
0.5
k
128
X 1 8 ,2 8(.5 ) 8 ,6 f 8,6 28
Segunda Iteracin
4 8 2( 6 ) 0
f 8 3k ,6 7 ( 8 3k ) 4( 6 ) ( 8 3k )( 6 ) ( 8 3k )2 6 2
-9k 2 9 k 28
f 8 3k ,6
18 k 9 0 k 0.5
k
X 2 X 12 , X 22 ( 8 3k ,6 ) ( 6.5 ,6 )
f ( 6.5 ,6 ) 30.25
OPTIMIZACION DE FUNCIONES
DIFERENCIABLES
MULTIVARIABLES
Mtodo de ascenso o
descenso acelerado
X i 1 X i i f X i i 0 , i 0 ,1 ,2 ,...
Mtodo de ascenso o
descenso acelerado
X
X
X 1 0 3 2
f X 2( 1 ) 0 3( 3 ) 2( 2 ) 33
X 0 X 10
0
f X 0
0
2
0
3
0
4
4 X1
4( 1 )
4
2X
2( 0 )
0
2
6 X3
6( 3 )
18
4
X
4
(
2
)
8
Mtodo de ascenso o
descenso acelerado
El nuevo punto
ser
X 1 X 0 f X 0
1
X 11
1
4
0
0
1
X
2
1
X3
3
18
2
8
X 4
Maximizar g 1 f X 1 f X 0 1f X 0
g 1 2 1 4 1 0 3 3 18 1 2 2 8 1
2
Mtodo de ascenso o
descenso acelerado
0
0
0
X 21
0.1891
1
3
18
0.40
X3
2
8
0
.
49
X 41
X1
| f X k 1 f ( X k ) |
Mtodo de Newton
Regla Iterativa
X f X Para maximizaci n
X k 1 X k H 1 X k f X k Para minimizaci n
X k 1 X k H 1
donde
X 0 en E n es arbitrario
f X es diferenciable
Ejemplo. Mtodo de
Newton
Encontrar un mnimo local de
f X1 , X2 , X3
X 0 6
f X 0
f X 0
40
40 X 2 X 3 10 X 1 X 2 20 X 1 X 3
X1X2 X3
f
X 1
f
X 2
f
X 3
f X 0 920.33
X0
139.94
259.91
279.93
40
10 X 2 20 X 3
X 12 X 2 X 3
40
40
X
10
X
3
1
2
X1 X 2
X3
40
40
X
20
X
2
1
X 1 X 2 X 32
X0
Ejemplo. Mtodo de
Newton
El Hessiano ser
H X0
80
X 13 X 2 X 3
40
10
2
2
X1 X 2 X3
40
20
X 12 X 2 X 32
40
10
2
2
X1 X 2 X3
80
X 1 X 22 X 3
40
40
X 1 X 22 X 32
0.025
0.100 0.050
H 1 ( X 0 ) 0.050 0.025 0.012
0.025
0.013 0.006
X 1 X 0 H 1 X 0 f X 0
40
20
X 12 X 2 X 32
0.018 10.010 20.010
40
40
10
.
010
0
.
042
40
.
020
X 1 X 22 X 32
20.010 40.020 0.027
80
X 1 X 2 X 32
Condiciones de KuhnTucker
Mtodos de Optimizacin
por Lagrangeanos
f
X 2
X 0 ,Y0
f
Y 2
X 0 ,Y0
X Y
X 0 ,Y0
Condiciones de KuhnTucker
L X , i 0 donde
L X, i f X i gi X
m
i 1
Multiplicadores de
Lagrange
min f X
sujeto a
gi X bi i 1,..., m
min f X
Sujeto a
gi X Yi bi
Yi 0
El lagrangeano es
L X, i ,Yi f X i bi Yi gi X
m
i 1
Multiplicadores de
Lagrange
X
L
L X , i ,Yi
0
Yi
L
FUNCIONES CONVEXAS
X 1 X 2
,..., n
2 f
X 2 X 2
la funcin f X es cncava.
FUNCIONES CONVEXAS.
Ejemplo
Optimizacin de funciones
multimodales de una sola variable
en problemas no restringidos
Mtodo de
Sea
dg
g' ( )
Cbica
d
Interpolacin
Mtodo de Interpolacin
Cbica
g' ( b ) W Z
(ba )
g' ( b ) g' ( a ) 2W
g( a ) g( b )
g' ( a ) g' ( b )
ba
Z 3
y
W ( Z 2 g' ( a ) g' ( b ))
Mtodo de Interpolacin
Cbica
a)
b)
Mtodo de Interpolacin
Cbica
Ejemplo.
f ( 1 ( 1 ))
f (1 )
Mtodo de Interpolacin
Cbica
Ejemplo.
Fase 2.
g()
g() Observaciones
0 -24
-6
1 -24
2 primer valor donde g() >0
Por lo tanto b=1 y a=0. Se tiene que 0*1.
Fase 3.
g( a ) g( b )
g' ( a ) g' ( b )
ba
Z 3
- 24 24
6 2 4
1-0
Mtodo de Interpolacin
Cbica
Ejemplo.
2
W ( Z g' ( a ) g' ( b ))
2
2
1
(( 4 ) ( 6 )( 2 )) ( 16 12 ) 2 5.29
2
g' ( b ) W Z
e b
(ba )
g' ( b ) g' ( a ) 2W
2 5.29 4
( 1 0 ) 0.39
e 1
2 6 2( 5.29 )
g( e ) g( 0.39 ) 25 Como g( e ) g ( ) y g( e ) g ( b )
entonces * e 0.39 y f(X*) -25
Mtodo de Newton-Raphson
aproximamos
S ( ) S ( 0 ) T ( 0 ) ( 0 )T
( 0 )
2
donde
es el gradiente de S ( ) evaluado en 0 y
2S
T
es el Hessiano de S( ) evaluado en 0 .
Mtodo de Newton-Raphson
Mtodo de Newton-Raphson
2V T ( y )
y el Hessiano es
T
2V V 2
V T
( y )
Mtodo de Newton-Raphson
El Mtodo de Gauss-Newton
f x n ,
p
p 1 ,2 ,..., P
El Mtodo de GaussNewton
El Mtodo de GaussNewton
y as
R1 0 w 1
El punto
1 1 0 0
El Mtodo de GaussNewton
El Mtodo de GaussNewton
1 1 x
1 x
f
2
( 2 x )2
f x ,
El Mtodo de GaussNewton
Y dado que ambas derivadas involucran al menos
uno de los parmetros, el modelo es considerado no
lineal.
Scatterplot of Datos vs Concentracin
225
200
175
Datos
150
125
100
75
50
0.0
0.2
0.4
0.6
Concentracin
0.8
1.0
1.2
El Mtodo de GaussNewton
Estimados de inicio:
0 = (205, 0.08)T
Clculo de n0:
1 x1
205 ( 0.02 )
41
2 x 1 0.08 0.02
x
205 ( 0.06 )
20 1 2
87.86
2 x 2 0.08 0.06
f x n ,
xn
Clculo de Vn01
0
1
20 x n
10
Clculo de Vn02
f x n ,
10 x n
( 20
xn )
xn
yn
n0
z n0
Vn10
Vn20
0.02
76
41
35
0.2
-410.0
0.02
47
41
0.2
-410.0
0.06
97
87.86
9.14
0.428
6
627.5
5
0.06
107
87.86
19.14
0.428
6
627.5
5
0.11
123
118.68
4.32
0.578
9
624.5
5
0.11
139
118.68
20.32
0.578
9
624.5
5
0.22
159
150.33
8.67
0.733
3
501.1
1
0.22
152
150.33
1.67
0.733
3
501.1
1
El Mtodo de GaussNewton
Tiempo
(Das)
1
BOD
(mg/l)
8.3
Tiempo
(Das)
4
BOD
(mg/l)
16.0
10.3
15.6
19.0
19.8
BOD(mg/ l)
17.5
15.0
12.5
10.0
3
4
Tiempo(Das)
Problemas con
restricciones
Restricciones de igualdad
Mtodo jacobiano. Mtodo de derivadas
restringidas
Minimizar z = f(x)
sujeta a
g(x) = 0
en donde X = (x1, x2,,xn)
g = (g1, g2,,gm)
Las funciones f(x) y g(x) son doble y
continuamente diferenciables.
Mtodo de derivadas
restringidas (jacobiano)
Desarrollo matemtico del mtodo;
f(X +X) f(X) =f(X)X +
O(xj2)
Cadenas de Markov
En esencia, una cadena es un
proceso en tiempo discreto en el
que una variable aleatoria Xn va
cambiando con el paso del
tiempo
VECTORES DE PROBABILIDAD
43
0 41
1
2
v 43
1
2
1
4
w 41
1
4
1
2
Observacin
x1
x 2 xn 1
1 x1 x n 1
Matrices Estocsticas
1
3
3
4
1
3
0
1
2
1
3
2
3
41
1
3
1
4
1
3
3
4
1
3
1
2
1
3
1
6
2
3
Matrices Estocsticas
Teorema 1
Matrices estocsticas
regulares
1
2
1
2
1
2
1
2
1
2
1
2
3
4
1
4
1
2
1
2
1
2
1
2
15
16
0
1
16
Puntos fijos de
matrices cuadradas
x 1 - x
x
1
x
Ejemplo 4.
2 3
2 3
[ 2 x 2 1 x x 3 1 - x ] x
2 x 2 1 x x
1 - x
x 3 1 - x 1 - x
1)
2)
3)
Proceso estocstico
Cadenas de Markov
P X t 1 j X 0 k 0 , X 1 k 1 ,..., X t 1 k t 1 , X t i P X t 1 j X t i
para t 0 ,1 ,... y toda sucesin
i , j , k 0 , k 1 ,..., k t 1
Cadenas de Markov
Probabilidades de
transicin
P X t 1 j X t i
Las probabilidades condicionales
se llaman probabilidades de transicin.
Si para cada i y j
P X t 1 j X t i P X 1 j X 0 i
Probabilidades de
transicin
P X t n j X t i P X n j X 0 i
Probabilidades de
transicin
pij n
Como las
son probabilidades
condicionales, deben satisfacer las
propiedades
pij n 0 para toda i y j y n 0 ,1 ,2 ,...
M
j 0
n 0 ,1 ,2 ,...
M0
P n
p n
0M
p n
MM
Definicin de Cadenas de
Markov
Xt
1.
2.
3.
4.
0 ,1 ,....
CADENAS DE MARKOV
EJEMPLO 1. Matrz de
Transicin del Sistema
t
Ejemplo 2
Ejemplo 2.
Ejemplo 2.
Entonces
p p P 0 0 1 0 0 1
0
1
1
2
p 2 p 1 P 21 21 0 0
1
2
0
3
2
1
1
p p P 0 2 2 0
1
2
As, despus de tres pases, la
la bola es de
1
4
1
2
1
2
1
2
1
0
1 0
1
2
1
2
41
1
4
1
2
1
2
1
0
1
2
1
4
y de que C es
1
2
Ejemplo 3.
Ejemplo 3.
A
P
B
1
0
1
3
2
3
2
3
1
3
y z
2
3
1
3
u
t
y 23 z x
x 13 z y
yz
83
52
2
3
2
3
1 0
1
0 3 x
1
0
3
si z 1, y 3, x
3 1 3u 8 9 3
9
20
3
20
y z
0.40
8
3
1
89 3
0.45 0.15
3u
1
20
9 3
ESTADOS
ABSORBENTES
Cadenas de Markov.
Ejemplos
Cadenas de Markov.
Ejemplos
Bn
An-1
0.95
0.05
Bn-1
Cadenas de Markov.
Ejemplos
0
1
2
3
4
5
P(An)
P(Bn)
1
0
0.95
0.05
0.9025 0.097
5
0.8574 0.142
6
0.8145 0.185
5
0.7738 0.226
2
Cadenas de Markov.
Ejemplos
esperado
acumulativo
las primeras
n semanas
sobre n
semanas
105.0
105.0
5.00
5.00
71.75
176.75
76.75
38.37
40.18
216.93
116.93
38.98
10.15
227.08
127.08
31.77
Cadenas de Markov.
Ejemplos
Cadenas de Markov.
Ejemplos
2. En una comunidad hay tres lecheras las
cuales proveen toda la leche consumida:
Lechera Abott, Productos de Leche Branch y
Productos de Leche de Mark. Por simplicidad
nos referiremos a ellos como A, B y C. Cada
una de las lecheras conoce que los
consumidores cambia de lechera debido a
instisfaccin con el servicio y algunas otras
razones. Para simplificacin adicional de las
matemticas necesarias, asumimos que ni
entran clientes nuevos al mercado ni salen los
actuales durante este periodo.
Cadenas de Markov.
Ejemplos
Considere ahora los datos del flujo de los clientes para cada una
de las compaas lecheras como fue determinada por sus
propios Departamentos de Investigacin de Operaciones:
Flujo de Clientes
Junio 1
Ganancias
Prdidas Julio 1
De De De a a a
Lechera Clientes
A
B C A B C Clientes
A
200
0 35 25 0 20 20 220
B
500 20 0 20 35 0 15 490
C
300 20 15 0 25 20 0
290
Dados los anteriores datos as como las consideraciones hechas,
determine
a)
Las probabilidades de transicin de un paso
b) Interprete los renglones y las columnas de la matriz de
probabilidades de transicin
Cadenas de Markov.
Ejemplos
Cadenas de Markov.
Ejemplos
Junio 1
Lechera
Clientes Prdidas Retenidos Probabilidad
A
200
40
160
160/200 = 0.80
B
500
50
450
450/500 = 0.90
C
300
45
255
255/300 = 0.85
La matriz de transicin incluir las probabilidades de retencin y
de prdida de los clientes para cada lechera
A
B
C
A
0.800
0.070
0.083
B
0.100
0.900
0.067
C
0.100
0.030
0.850
Grafos
a1
a2
a3
El SISTEMA MAHALANOBISTAGUCHI
Definicin de MTS
55Pared,
Pared, Mejorar
MejorarDiseos
Diseos
Volumen de fruto
Caracterizacin proceso
y optimacin
---------------------------------------
44Pared,
Pared, Mejorar
MejorarProcesos
Procesos
Fruto colgando bajo
Siete herramientas bsicas
Fruto en el suelo
Lgica e intuicin
El Sistema MTS
Un sistema tpico multidimensional usado en MTS es como el que se muestra en la
figura
La distancia de
Mahalanobis
Distancia Euclidiana
La distancia euclidiana entre dos puntos
X ( x1 , x 2 , , x p )
y
es el espacio p dimensional definido por
y ( y1 , y 2 , , y p )
p
y
d E ( x , y ) ( x1 y1 )2 ( x p y p )2 ( x y )T ( x y )
d E ( x ,0 ) x ( x 1 ) 2 ( x p )2
Es la norma euclidiana de x
xT x
Distancia Euclidiana
En la distancia euclidiana todos los
componentes de una observacin x
contribuyen igualmente a la distancia
de x del centro.
x
Distancia Euclidiana
Sin embargo en estadstica se prefiere una distancia
que para cada componente (de variables) tome la
variabilidad de esa variable dentro de la
determinacin de su distancia del centro.
As, componentes con alta variabilidad deberan
recibir menos peso que componentes con baja
variabilidad. Esto puede ser obtenido reescalando los
componentes.
x1
xp
U
, ,
s
sp
1
y1
yp
y V
, ,
s
s p
1
x
y
Entonces definimos la distancia entre
y
como
2
2
xp yp
x1 y1
d ( x , y ) d E ( U ,V )
s1
s
p
Donde
D diago( s12 , , s 2p )
( x y )T D 1 ( x y )
x
d ( x ,0 ) d E ( U ,0 ) 1
s1
xp
s
p
x T D 1 x
s1
xp
s
p
c2
Proceso de
ortogonalizacin de GramSchmidt.
uk v k 1k u1 k 1 ,k uk 1 2 k q
jk
u j ,v k
u ,u si u j 0 y jk 0 si u j 0
j
j
X4
__________________________________
1
59
7.0
4.2
0.70
2
51
7.0
4.4
0.98
3
53
6.7
4.2
0.83
4
52
6.6
4.3
0.90
5
52
6.7
3.9
0.97
6
56
7.2
4.0
0.93
7
51
7.1
4.0
0.88
8
50
7.5
4.3
0.71
9
41
6.9
4.3
0.81
10
48
7.0
4.2
0.93
11
49
7.1
4.0
0.88
12
41
6.9
4.2
0.92
13
41
7.3
4.4
0.76
14
36
7.2
4.0
0.86
15
34
7.4
4.4
0.92
35
40
45
50
55
60
A-Squared
P-Value
0.55
0.129
Mean
StDev
Variance
Skewness
Kurtosis
N
47.600
7.317
53.543
-0.513603
-0.634423
15
Minimum
1st Quartile
Median
3rd Q uartile
Maximum
34.000
41.000
50.000
52.000
59.000
51.652
5.357
Mean
Median
40
42
44
46
48
52.000
50
52
11.540
6.6
6.8
7.0
7.2
A-Squared
P-Value
0.19
0.876
Mean
StDev
Variance
Skewness
Kurtosis
N
7.0400
0.2586
0.0669
0.003433
-0.512736
15
Minimum
1st Q uartile
Median
3rd Q uartile
Maximum
7.4
6.6000
6.9000
7.0000
7.2000
7.5000
7.1832
0.1893
Mean
Median
6.90
6.95
7.00
7.05
7.10
7.2000
7.15
7.20
0.4078
3.9
4.0
4.1
4.2
4.3
A-Squared
P-Value
0.68
0.060
Mean
StDev
Variance
Skewness
Kurtosis
N
4.1867
0.1685
0.0284
-0.27703
-1.27006
15
Minimum
1st Q uartile
Median
3rd Q uartile
Maximum
4.4
3.9000
4.0000
4.2000
4.3000
4.4000
4.2800
0.1233
Mean
Median
4.00
4.05
4.10
4.15
4.20
4.3000
4.25
4.30
0.2657
0.70
0.75
0.80
0.85
0.90
0.95
A-Squared
P-V alue
0.48
0.202
Mean
StDev
Variance
Skewness
Kurtosis
N
0.86533
0.08741
0.00764
-0.750225
-0.361158
15
Minimum
1st Q uartile
Median
3rd Q uartile
Maximum
1.00
0.70000
0.81000
0.88000
0.93000
0.98000
0.91374
0.06400
Mean
Median
0.82
0.84
0.86
0.88
0.90
0.92626
0.92
0.94
0.13786
Clculo de la matriz de
correlacin
X1
X2
X3
X4
X1
1.00000
-0.36847
-0.28856
-0.08800
X2
-0.36847
1.00000
0.19349
-0.33878
X3
-0.28856
0.19349
1.00000
-0.26160
X4
-0.08800
-0.33878
-0.26160
1.00000
X3
0.39031
0.03342
1.20025
0.35966
X4
0.41265
0.52576
0.35966
1.30852
Datos estandarizados
grupo normal
1.55795
0.46465
0.73798
0.60131
0.60131
1.14796
0.46465
0.32799
-0.9019
0.05466
0.19133
-0.90197
-0.90197
-1.58528
-1.85861
-0.15470
0.07915
-0.15470
1.26633
-1.31494
0.07915
-1.70168
0.67274
-1.31494
-1.70162
0.61879
-1.10803
0.23205
-1.10803
1.77903
0.67274
-0.54144
0.67274
-0.15470
0.07915
0.23205
-1.10803
-0.54144
0.07915
1.00554
1.26633
0.61879
-1.10803
1.39229
1.26633
-1.89141
1.31179
-0.40421
0.39659
1.19739
0.73979
0.16779
-1.77701
-0.63301
0.73979
0.16779
0.62539
-1.20501
-0.06101
0.62539
X2
8.0
7.0
7.2
7.0
6.7
7.1
8.0
6.7
7.4
7.3
X3
4.0
3.3
3.8
3.8
3.4
3.8
3.7
3.2
3.9
3.6
X4
0.59
0.48
0.52
0.57
0.51
0.61
0.62
0.54
0.34
0.53
3.71230
-0.15468
0.61872
-0.15468
-1.31477
0.23202
3.71230
-1.31477
1.39211
1.00541
-1.10801
-5.26231
-2.29496
-2.29496
-4.66884
-2.29496
-2.88843
-5.85579
-1.70148
-3.48190
-3.14987
-4.40831
-3.95069
-3.37868
-4.06510
-2.92106
-2.80666
-3.72189
-6.00995
-3.83629
Distancia de Mahalanobis
La distancia de Mahalanobis (MD) es calculada
mediante la siguiente ecuacin:
MD D 2
1
Z i C 1 Z iT
k
donde :
Z i Vector estandarizado
X i mi
Zi
si
0.15470
MD1 1.4016
0.0795
0
.
56423
1
.
37955
0
.
03342
0
.
52576
1.89141
0.39031 0.03342 1.20025 0.35966
1.55795
0
.
15470
0.0795
1.89141
1.35684
0.56423
Distancias de Mahalanobis
No.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Saludable
1.4016
1.5880
0.6447
0.9995
1.0397
1.2154
0.3880
1.3582
0.7886
1.7720
0.3589
0.4335
0.7547
1.4309
1.4210
Anormal
7.3791
19.4915
15.7426
11.3034
23.0483
7.2853
9.7237
22.7003
17.7513
15.7460
Variable
Saludable
Anormal
20
Data
15
10
0
1
8
9
Index
10
11
12
13 14
15
Corrida
1
2
3
4
5
6
7
8
X1
1
1
1
1
2
2
2
2
X2
1
1
2
2
1
1
2
2
X3
1
1
2
2
2
2
1
1
X4
1
2
1
2
1
2
1
2
E
1
2
1
2
2
1
2
1
F
1
2
2
1
1
2
2
1
G
1
2
2
1
2
1
1
2
Matrices de correlacin
Combinacin 1-1-1-2
1.00000 -0.36847 -0.28856
-0.36847
1.00000
0.19349
-0.28856
0.19349
1.00000
Combinacin 1-2-2-1
1.0000
-0.0880
-0.0880
1.0000
Matrices Inversas
Combinacin 1-1-1-2
1.22670
0.39842 0.27689
0.39842
1.16830 -1.11109
0.27689 -0.11109 1.10139
Combinacin 1-2-2-1
1.00780
0.08868
0.08868
1.00780
No.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Saludable
0.9638
0.7904
0.6591
1.3294
1.3197
1.1434
0.5127
1.5498
0.6577
0.0123
0.4784
0.5688
0.7691
1.7420
1.5038
Anormal
6.6093
10.3607
8.1008
5.0761
12.2693
3.1735
9.7975
14.0314
4.2252
9.0461
1
2
Razn S/N q 10 Log
1
D
i
t
i 1
X1
X2
X3
X4
10
S/N
7.38
19.4
9
15.7
4
11.3
0
23.0
5
7.29
9.72
22.7
0
17.7
5
15.7
5
11.0
4
6.61
10.3
6
8.10
5.08
12.2
7
3.17
9.80
14.0
3
4.23
9.05
8.28
8.59
9.90
15.2
6
9.03
11.0
5
5.51
6.17
7.53
22.4
0
11.9
4
9.63
5.79
0.05
12.2
4
5.15
3.98
1.72
3.45
0.59
5.79
7.17
-3.69
8.91
11.2
5
8.10
6.66
12.3
6
4.59
8.25
10.6
7
18.2
9
7.41
9.29
13.7
8
0.02
0.38
0.02
1.73
0.05
13.7
8
1.73
1.94
1.01
10.3
2
6.96
31.8
1
13.7
5
11.1
3
25.9
0
9.29
10.9
8
31.9
7
23.8
1
18.1
6
11.5
3
1.23
27.7
0
5.27
5.27
21.8
90
5.27
8.35
34.3
0
2.90
12.1
3
6.90
Tabla de Respuestas
Nivel
X1
X2
X3
X4
25.06
(6.4)
18.29
37.75
41.49
(4.5725) (9.4375) (10.3725
)
17.4
(4.35)
24.17
4.71
0.97
(6.0425) (1.1775) (0.2425)
Intervalos de confianza
Interval Plot of X1, X2, X3, X4
95% CI for the Mean
300
200
Data
100
0
-100
-200
-300
X1
X2
X3
X4
Data
30
20
10
0
X1
X2
X3
X4
Data
0
X1
X2
X3
X4