Sei sulla pagina 1di 22

2.

CONCEPTOS BSICOS

2.1 ACERCA DE ESTE CAPTULO


En el presente captulo se presentan los elementos tericos bsicos que nos permitirn abordar la
solucin de un programa lineal.
Las secciones 2.2 a 2.5 contienen slo un breve repaso de algunos resultados de lgebra
lineal que sern utilizados posteriormente. A partir de la seccin 2.6 se introducen, en forma
detallada, los conceptos especficos inherentes a la teora de programacin lineal .
2.2 VECTORES
Si consideramos el espacio vectorial sobre con las operaciones suma de vectores y producto
por un escalar, un vector de es un elemento del espacio expresado como una fila o como una
columna de n elementos, siendo n la dimensin del vector.

x1

x2
x o, x (x 1 ; x 2 ; ...; x n )
...

x
n
OPERACIONES CON VECTORES
Suma. Los vectores de la misma dimensin pueden sumarse (o restarse) y la suma (o
diferencia) se efecta componente a componente. La suma (o diferencia) de los vectores x e y
es otro vector z , cuyas componentes son: zi = xi yi, i = 1, 2, ,n.
La suma de vectores goza de las propiedades asociativa, conmutativa, elemento neutro y
elemento simtrico.
Producto de un escalar por un vector. Dado un escalar y un vector x se define
el producto del escalar por el vector x, como un nuevo vector y cuyas componentes son yi
= xi, i = 1, 2, ,n.
Producto escalar de dos vectores. Dados dos vectores x e y el producto escalar de
ambos es un nmero real que se obtiene como xy = x1y1 + x2y2 + + xnyn.
DEPENDENCIA E INDEPENDENCIA LINEAL
Definicin 2-1. Combinacin lineal. Se dice que el vector y es una combinacin lineal
de los vectores x1, x2, , xk si y = c1x1 +c2x2 + + ckxk, con c1, c2, , ck .
Los escalares c1, c2, , ck se denominan coeficientes de la combinacin lineal.
Definicin 2-2. Dependencia lineal. Un conjunto de vectores x1, x2, , xk n es
linealmente dependiente si existe una coleccin de escalares c1, c2, , ck , no todos nulos, tales
que c1x1 +c2x2 + + ckxk = 0 (con 0 =vector nulo).

23

Captulo 2

Definicin 2-3. Independencia lineal. Un conjunto de vectores x1, x2, , xk es


linealmente independiente si la relacin c1x1 +c2x2 + + ckxk = 0 (con 0 =vector nulo), se
verifica slo cuando los escalares c1, c2, , ck son todos nulos.
Definicin 2-4. Conjunto generador. Una coleccin de vectores x1, x2, , xk se
denomina conjunto generador de , si cualquier vector y puede expresarse como
combinacin lineal de x1, x2, , xk.
Observacin. La representacin puede no ser nica. El valor de k puede ser mayor o igual
que n.
Definicin 2-5. Base de un espacio vectorial. Un conjunto de vectores x1, x2, , xm n
constituyen una base del espacio vectorial n si:

x1, x2, , xm son linealmente independientes y


constituyen un conjunto generador de n.

Teorema 2-1. Si un espacio vectorial tiene una base constituida por m vectores, entonces
toda base de dicho espacio tiene m vectores.
Definicin 2-6. Espacio dimensionalmente finito. Si un espacio vectorial tiene una base
constituida por m vectores, se dice que dicho espacio es dimensionalmente finito, siendo m su
dimensin.
Teorema 2-2. Cualquier vector de un espacio vectorial puede escribirse de manera nica
como combinacin lineal de los vectores de una base. Los escalares de tal combinacin se
denominan coordenadas del vector en la base dada.
Teorema 2-3. Reemplazo de un vector de la base por otro vector.2 Sea B = {u1, u2, , un}
una base del espacio vectorial . Todo uj 0 que no integre dicha base y que por ende puede
expresarse como combinacin lineal de la misma en la forma y1u1 + y2u2 + + ynun, con y1, y2,
, yn , puede reemplazar a cualquier vector ur de B para el cual yr sea distinto de cero, y el
nuevo conjunto de vectores seguir siendo linealmente independiente , es decir, constituir una
nueva base.
Demostracin. Reemplacemos ur de B por uj y razonemos por el absurdo admitiendo que u1,
u2, , uj, , un son linealmente dependientes; por consiguiente debemos hallar n coeficientes 1,
2, , j, , n, no todos nulos, tales que

1u 1 2 u 2 ... j u j ... n u n 0

(2-1)

Sabemos que u1, u2, , ur, , un constituyen una base, y que cualquier subconjunto de un
conjunto linealmente independiente tambin es linealmente independiente. Luego, para que se
n

verifique (2-1) debe darse que

i i

0 y j 0.

i 1
i j

Podemos entonces dividir (2-1) por j

1u 1 2 u 2 ... u j ... n u n 0, con i i / j


reemplazando uj por y1u1 + y2u2 + + yrur + + ynun (combinacin lineal de B)

(1 y1 )u 1 ( 2 y 2 )u 2 ... y r u r ... ( n y n )u n 0
2

Este resultado ser utilizado ms adelante en el desarrollo y ejecucin del mtodo Simplex.

24

Norma Torrent

Conceptos Bsicos

Puesto que yr 0, los vectores u1, u2, , ur, , un seran linealmente dependientes y no
constituiran una base, lo cual es un absurdo que contradice la hiptesis y provino de suponer la
dependencia lineal de u1, u2, , uj, , un. Por lo tanto, los vectores u1, u2, , uj, , un
constituyen una nueva base.
2.3 MATRICES
Una matriz A de orden m x n es un arreglo rectangular de m x n nmeros en forma de m filas y n
columnas.

a 11 a 12 ... a 1n
a a ... a
2n
A 21 22
. Tambin se escribe, A a ij mxn
... ... ... ...
a a ... a
mn
m1 m2
TIPOS DE MATRICES
Matriz cuadrada. Es aquella matriz en donde m = n, es decir, tiene igual nmero de filas
que de columnas.
Matriz rectangular. Es aquella matriz en donde m n.
Matriz diagonal. Es aquella matriz cuadrada en donde aij = 0 i j.
Matriz escalar. Es aquella matriz diagonal en donde todos los elementos de la diagonal son
iguales.
Matriz identidad: Es aquella matriz escalar con todos los elementos de la diagonal iguales
a 1. La matriz identidad se nota con I.
Matriz traspuesta. Se llama matriz traspuesta, AT, de una matriz A a aquella matriz que
tiene por columnas las filas de A, mientras que sus filas son las columnas de A.
Matriz simtrica. Una matriz A se denomina simtrica si AT = A.
Matriz triangular. Es aquella matriz cuadrada cuyos elementos arriba o debajo de la
diagonal principal son nulos.
Matriz nula. Es aquella que posee todos sus elementos iguales a cero. Se nota con 0.
OPERACIONES CON MATRICES
Suma. Dadas dos matrices A = (aij)mxn y B = (bij)mxn se define como suma (o diferencia) de
ambas, A B, a una nueva matriz C = (cij)mxn tal que cij = aij bij i, j.
La suma de matrices goza de las propiedades asociativa y conmutativa.
Producto de un escalar por una matriz. Dado un escalar y una matriz A = (aij)mxn se
define el producto del escalar por la matriz, A, a una nueva matriz B = (bij)mxn tal que bij = aij
i, j.
Producto de matrices. El producto de una matriz A = (aij)mxk por una matriz B = (bij)kxn
slo est definido en el caso en que el nmero de columnas de A sea igual al nmero de filas de
k

B, y es igual a una nueva matriz C = (cij)mxn tal que, cij

ip b pj

, i 1, 2, ..., m; j 1, 2, ..., n.

p 1

25

Captulo 2

DETERMINANTE DE UNA MATRIZ


El determinante de una matriz cuadrada A = (aij)mxm es una funcin que le asigna a la matriz un
nico nmero real denominado determinante (o mdulo de la matriz) y denotado como det(A) o
|A|.
Definicin 2-7. A a 11 , si m 1.
Definicin 2-8. Menor de una matriz. Dada una matriz A de orden m 2, se denomina
menor de la matriz asociado al elemento aij de A, y se nota con Mij, al determinante que se
obtiene de eliminar la fila i y la columna j de A.
Definicin 2-9. Cofactor. Dada una matriz A de orden m 2, se denomina cofactor de A
asociado al elemento aij, y se nota con cij, al valor obtenido por cij = 1i+jMij.
m

Definicin 2-10. A

1 j c1 j ,

si m 2. Es decir, el determinante de la matriz A es la

j1

suma de los elementos de la primera fila de A multiplicados por sus respectivos cofactores.
Cuando el determinante de una matriz resulta nulo se dice que la matriz es singular, en caso
contrario se denomina no singular o regular.
Propiedades de los determinantes

Si A es una matriz de orden m, resulta

ij c ij

a i1c i1 a i2 c i2 ... a im c im , para i 1, 2, ..., m

j1
m

o bien, A

ij c ij

a 1j c1j a 2j c 2j ... a mjc mj , para j 1, 2, ..., m.

i 1

Si todos los elementos de una fila o de una columna de una matriz A son nulos, A 0 .

A AT

Si B se obtiene de A, intercambiando dos filas o dos columnas, entonces B A .

Si A tiene dos filas o dos columnas idnticas o proporcionales, entonces A 0 .

AB A B

Si B =A, , entonces B A .

Regla de Sarrus. Proporciona un esquema sencillo para calcular determina ntes de orden
tres. No es aplicable a matrices de orden mayor.
Como se muestra a continuacin, se escribe la matriz A repitiendo sus dos primeras
columnas. Luego se efectan los productos indicados por las flechas y se suman teniendo en
cuenta que, los productos correspondientes a las flechas que se dirigen hacia abajo tendrn signo
positivo y los correspondientes a las flechas que se dirigen hacia arriba, negativo.
a 11 a 12 a 13 a 11 a 12
A a 21 a 22 a 23 a 21 a 22
a a a a a
31 32 33 31 32

A a 11a 22 a 33 a 12 a 23 a 31 a 13 a 21a 32 a 13 a 22 a 31 a 11a 23 a 32 a 12 a 21a 33


26

Norma Torrent

Conceptos Bsicos

MATRIZ INVERSA
Si A y B son dos matrices no singulares de orden m x m tales que AB = BA = I, entonces B es la
inversa de A y se nota con A1, o bien A es la inversa de B y se nota con B1. Si existe, la inversa
de una matriz es nica. Una matriz es invertible si, y slo si, su determinante es distinto de cero.
Algunos resultados relativos a la inversin de matrices

Si A es una matriz no singular(es decir, posee inversa), AT tambin posee inversa y se


cumple (AT)1 = (A1)T.
Si A y B son no singulares (AB)1 = (B)1(A)1.
Toda matriz triangular posee inversa.
adj(A)
Si A es invertible, el clculo de su inversa viene dado por A 1
donde adj(A)
A
es la matriz adjunta de A y se obtiene trasponiendo la matriz que resulta de reemplazar
cada elemento de A por su correspondiente cofactor cij.3

RANGO DE UNA MATRIZ


Se llama submatriz de una matriz A a la matriz que resulta de suprimir filas o columnas de A.
Dada una matriz A se dice que el rango de A es r, si existe una submatriz cuadrada de orden
r con determinante distinto de cero, y toda submatriz cuadrada de orden r + 1 tiene determinante
nulo, conviniendo que el rango de la matriz nula es cero.
Propiedades de los rangos

El rango r de una matriz cuadrada A de orden m, es menor que m si, y slo si, A 0 .

Dada una matriz cuadrada A, si A 0 , alguna fila o columna de A es combinacin


lineal de sus paralelas.

OPERACIONES ELEMENTALES CON MATRICES


Se dice que se efecta una transformacin u operacin elemental en una matriz cuando:

Se intercambian dos filas o dos columnas.


Se multiplica una fila (columna) por un real distinto de cero.
Se suma a una fila (columna) el producto de otra fila (columna) por un real.

Dos matrices son equivalentes si una se obtiene de la otra al realizar un nmero finito de
operaciones elementales.
Teorema 2-4. Si en una matriz se efectan operaciones elementales su rango no se
modifica.
2.4 SISTEMAS DE ECUACIONES LINEALES
Un sistema de m ecuaciones lineales con n incgnitas es una expresin de la forma
n

ij x j

b i , i 1, 2, ..., m, m ( ; ; ) n

j1

En el Ejemplo 2-2 de este captulo se nuestra un mtodo alternativo para el clculo de la inversa.
27

Captulo 2

O bien,

a 11 x 1 a 12 x 2 ... a 1n x n b1
a 21 x 1 a 22 x 2 ... a 2n x n b 2
...
... ...
... ...
a m1 x 1 a m2 x 2 ... a mn x n b m
x1
a 11 a 12 ... a 1n
b1
x
a a ... a
b
2

21
22
2n

en forma matricial, Ax = b, siendo A


; x x3 ; b 2
...
...
...
...

...
...
a a ... a
b
mn
x
m1 m 2
m
n
Se llama solucin del sistema a toda n-upla real (x1, x2, , xn)T que satisface cada una de las
ecuaciones del sistema.4
Si b 0 el sistema se denomina no homogneo, en caso contrario es homogneo.
Se denomina matriz ampliada o matriz aumentada a la matriz de m filas y n + 1 columnas
formada por:
a 11 a 12 ... a 1n b1

a 21 a 22 ... a 2 n b 2

(A b)
... ...... ... ...
a m1 a m 2 ... a mn b m

PROPIEDADES DE LOS SISTEMAS DE ECUACIONES LINEALES

(Teorema de Rouche Frobenius) Un sistema de m ecuaciones con n incgnitas tiene


solucin si, y slo si, el rango de la matriz ampliada y el rango de la matriz A de los
coeficientes son iguales. En este caso se dice que el sistema es compatible.
En el caso en que el rango de A sea distinto al de la matriz ampliada el sistema no tiene
solucin y se denomina sistema incompatible.
Si el rango r de la matriz ampliada es igual al rango de la matriz A y,
i. r coincide con el nmero n de incgnitas, la solucin es nica. Se denomina
sistema compatible determinado.
ii. r < n, hay n r incgnitas que pueden tomar valores arbitrarios, existiendo por lo
tanto infinitas soluciones. Se denomina sistema compatible indeterminado.
Un sistema de igual nmero de ecuaciones e incgnitas tiene solucin nica si, y slo
si, la matriz A tiene determinante no nulo.

Dado un sistema lineal homogneo de cualquier nmero de ecuaciones con n incgnitas,


como la columna de los trminos independientes es una columna de ceros , el rango de la matriz
A resulta siempre igual al rango de la matriz ampliada, por lo tanto existe siemp re solucin.
Adems,

Un sistema homogneo tendr solucin nica si, y slo si, el rango de A es igual al
nmero de incgnitas n. Dicha solucin estar dada por xj = 0 j = 1, 2, , n y se
denomina solucin trivial del sistema.
Un sistema homogneo de igual nmero de ecuaciones e incgnitas admite infinitas
soluciones adems de la trivial si, y slo si, el determinante de la matriz A es nulo.

El superndice T significa trasposicin.

28

Norma Torrent

Conceptos Bsicos

SOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES


Los mtodos de resolucin de sistemas de ecuaciones lineales se dividen en dos grandes grupos:

Los mtodos exactos que requieren un determinado nmero de pasos para llegar a la
solucin del sistema.
Los mtodos aproximados que utilizan algoritmos iterativos que calculan la solucin
del sistema por aproximaciones sucesivas.

Contrariamente a lo que pueda parecer, en numerosas ocasiones los mtodos aproximados


permiten obtener un grado de exactitud superior al que se obtiene mediante el empleo de
mtodos exactos, debido fundamentalmente a los errores de truncamiento que se producen en el
proceso.
Entre los mtodos exactos se encuentran el mtodo de Gauss, una modificacin de ste
denominado mtodo de GaussJordan y la conocida regla de Cramer. Entre los mtodos
aproximados podemos citar los mtodos de Richardson, Jacobi y Gauss-Seidel.
A los fines de nuestro estudio nos centraremos, a travs de ejemplos, en el mtodo de
GaussJordan y en Cramer.
Ejemplo 2-1 Mtodo de GaussJordan
Empleando este mtodo, un sistema de m ecuaciones lineales con m incgnitas se transforma,
mediante una combinacin de ecuaciones que permite eliminar incgnitas, en un sistema
equivalente de resolucin inmediata.
Consideremos el siguiente sistema,

2x 1
3x 3 x 4 2
x 1 x 2 2x 3 x 4 4
x 1 x 2 x 3 x 4 1
4 x 1 2 x 2 x 3 2 x 4 3
Primero expresamos los coeficientes y el trmino independiente como una matriz amplia da.

2 0 3
1 1 2
1 1 1
4 2 1

1 2
1 4
1 1
2 3

El paso siguiente consiste en normalizar la primera fila dividindola por 2 (el valor 2 recibe
el nombre de elemento pivote).

1 0 3/2 1/2 1
1 1
2 1 4
1 1
1 1 1
4 2 1 2 3
Luego, mediante operaciones elementales, se hacen cero los restantes elementos de la
primera columna. Para ello, a la segunda fila le restamos la primera, a la tercera le res tamos la
primera y, a la ltima, le restamos la primera multiplicada por 4. Observemos que, a travs de
este procedimiento, hemos eliminado x1 en todas las filas excepto en la primera.

29

Captulo 2

1 0 3/2 1/2 1
0 1 1/2 1/2 3
0 1 1/2 1/2 2
0 2 7
0 7
A continuacin, normalizamos la segunda fila multiplicndola por 1 (ahora el elemento
pivote es el valor 1) y eliminamos x2 en las filas tercera y cuarta (a la tercera fila le restamos la
segunda y, a la cuarta, le restamos la segunda multiplicada por 2).

1
0
0
0

0 3/2 1/2 1
1 1/2 1/2 3
0
0
1 1
0 6
1 1

Intercambiamos las filas tercera y cuarta.

1
0
0
0

0 3/2 1/2 1
1 1/2 1/2 3
0 6
1 1
0
0
1 1

Normalizamos la tercera fila dividendo por el elemento pivote 6 y eliminamos x3 en las


filas primera y segunda (a la primera fila le restamos la tercera multiplicada por 3/2 y, a la
segunda, le sumamos la tercera multiplicada por 1/2).

1
0
0
0

0
1
0
0

0 3/4
3/4
0 7/12 35/12
1 1/6
1/ 6
0
1
1

Finalmente eliminamos x4 en las filas primera, segunda y tercera (a la primera fila le


restamos la cuarta multiplicada por 3/4, a la segunda le sumamos la cuarta multiplicada por 7/12
y, a la tercera, le sumamos la cuarta multiplicada por 1/6).

1
0
0
0

0
1
0
0

0
0
1
0

0
0
0 7/3
0 1/ 3
1
1

Este ltimo sistema, equivalente al inicial , nos provee la solucin dada por x1 = 0, x2 = 7/3,
x3 = 1/3 y x4 = 1.
Ejemplo 2-2 Inversin de matrices
Sabemos que, si A es una matriz no singular de orden m, resulta AA-1 = I. Haciendo X = A-1 y
sustituyendo en la ecuacin anterior, obtenemos AX = I.
Podemos considerar entonces que esta ltima ecuacin matricial representa un sistema de
ecuaciones simultneas, en donde no hay un solo vector de trminos independientes sino m, los
m vectores que forman la matriz identidad I.
Adems, no existe un solo vector de incgnitas, sino m, los que corresponden a cada
columna de la matriz X. Es decir, AX I .
30

Norma Torrent

Conceptos Bsicos

O bien,

a 11 a 12 ... a 1m x 11 x 12 ... x 1m 1
a a ... a x x ... x 0
2 m 21
22
2m
21 22

... ...... ... ... ...... ... ...


a a ... a x x ... x 0
mm m1 m 2
mm
m1 m 2

0
1
...
0

...
...
...
...

0
0
...
1

De esta forma, es posible determinar la inversa mediante el mtodo de GaussJordan


aplicando operaciones elementales sobre las filas de la matriz ampliada (A/I), de manera de
transformar A en I. Cuando lo hayamos logrado, obtendremos la inversa buscada A-1.
A modo de ejemplo, supongamos que queremos hallar la inversa de la siguiente matriz.

1 6 2
A 2 2 1
1 3 5

Aumentamos la matriz de coeficientes con la matriz identidad.

1 6 2 1 0 0
2 2 1 0 1 0
1 3 5 0 0 1
Normalizamos la primera fila (el valor del elemento pivote es 1) y hacemos cero los
restantes elementos de la primera columna.

1 6 2 1 0 0
0 10 5 2 1 0
0 3 7 1 0 1
Observemos que para hallar la primera columna de A-1 debemos resolver el siguiente
sistema.

1 6 2 x 11 1
2 2 1 x 0

22
1

x 33 0
Para las columnas segunda y tercera el procedimiento ser anlogo, variando el vector de las
incgnitas y el de los trminos independientes. Es decir, para hallar A-1 resolvemos en forma
simultnea tres sistemas de ecuaciones con tres incgnitas, cada uno de los cuales tiene la misma
matriz de coeficientes A.
Normalizamos ahora la segunda fila (el valor del elemento pivote es 10) y anulamos el resto
de los elementos de la segunda columna.

1 0
1 1/5
3/5 0
0 1 1/2 1/5 1/10 0
0 0 11/2 2/5 3/10 1
Por ltimo, normalizamos la tercera fila y hacemos cero los restantes elementos de la tercera
columna.

1 0 0 7/55 36/55 2/11


0 1 0 9/55 7/55 1/11
0 0 1 4 / 55 3/55 2/11
31

Captulo 2

La inversa buscada ser:

7/55 36/55 2/11


9/55 7/55 1/11
4 / 55 3/55 2/11

Ejemplo 2-3 Regla de Cramer


La regla de Cramer nos permite resolver un sistema de ecuaciones lineales en trminos de
determinantes, cuando la matriz A de los coeficientes es no singular.
Dado el sistema:

a 11 a 12 ... a 1m x 1 b1
a a ... a x b
2m 2
21 22
2 o bien, Ax b
...
...
...
...
...

...
a a ... a x b
mm m
m1 m2
m
puesto que A 0, podemos calcular A-1 mediante la expresin A-1 = adj(A)/ A , por lo tanto,
premultiplicando por A-1 en la ecuacin Ax = b resulta x A 1b

adj(A)
b
A

Operando se tiene
b1

b2
...

b
m

A11 A12 ... A1m

1 A 21 A 22 ... A 2m
A ... ...... ...

A A ... A
mm
m1 m2

A11b1 A12 b 2 ... A1m b m

1 A 21b1 A 22 b 2 ... A 2m b m
x
...
... ...
...
A

A b A b ... A b
m2 2
mm m
m1 1

en particular,

xi

1
(A1i b1 A 2i b 2 ... A mi b m )
A

Para recordar la expresin anterior, si escribimos A y reemplazamos la isima columna


por b, se obtiene el determinante Bi .
isima columna
a11 a12 ... b1 ... a1m
a 21 a 22 ... b 2 ... a 2m
Bi
... ...... ...... ...
a m1 a m2 ... b m ... a mm

32

Norma Torrent

Conceptos Bsicos

El cofactor de bk en Bi es el cofactor de aki en A , si se desarrolla Bi por la columna i,


resulta Bi A1i b1 A2i b2 ... Ami bm , de esta forma

xi

siendo x1

B1
A

; x2

Bi
1
(A1i b1 A 2i b 2 ... A mi b m )
para i 1, 2, ..., m
A
A
B2
A

; ... y x m

Bm
A

la solucin nica del sistema propuesto.

Veamos como resolver por Cramer el siguiente sistema.

2 x 1 x 2 3x 3 4
4 x 1 x 2 5x 3 6
3x 1 2 x 2 2 x 3 2

2 1 3
A 4 1 5 26; x 1
3 2 2

4 1 3
6 1 5
22 2
26

52
2; x 2
26

2 4 3
4 6 5
3 2 2
26

78
3; x 3
26

2 1 4
4 1 6
3 2 2
26

26
1
26

2.5 CONVEXIDAD
A la hora de resolver un problema de optimizacin, el estudio de la convexidad de conjuntos y
funciones adquiere fundamental relevancia, tanto en la bsqueda de ptimos como en el
desarrollo de algoritmos eficientes de solucin.
Definicin 2-11. Recta en . Dados dos puntos x1 y x2 , la recta definida por dichos
puntos puede expresarse mediante el conjunto:

R x / x x 1 (1 ) x 2 ; x 1 , x 2 ; x 1 x 2 ;
o bien,

R x / x x 2 ( x 1 x 2 ); x 1 , x 2 ; x 1 x 2 ;
Definicin 2-12. Segmento en . El segmento delimitado por los puntos x1, x2 puede
expresarse mediante el conjunto:

x 1 , x 2 x / x x 1 (1 ) x 2 ; x 1 , x 2 ; x 1 x 2 ; 0; 1

o bien,

x 1 , x 2 x / x x 2 ( x 1 x 2 ); x 1 , x 2 ; x 1 x 2 ; 0; 1

Se trata de un segmento lineal cerrado ya que incluye los puntos extremos x1 y x2. Cuando
el segmento no incluye los dos puntos extremos se denomina segmento abierto y se nota,

x 1 , x 2 x / x x 1 (1 ) x 2 ; x 1 , x 2 ; x 1 x 2 ; 0; 1
Definicin 2-13. Hiperplano. Un hiperplano en generaliza el concepto de recta en y el
concepto de plano en . Un hiperplano en es un conjunto dado por:

H x / c T x z; z
; c T
; c T 0
es decir, se trata de una expresin de la forma c1x1 +c2x2 + + cnxn = z. El vector c se
denomina vector normal al hiperplano.
33

Captulo 2

Definicin 2-14. Semiespacio. A partir del concepto de hiperplano se define el concepto de


semiespacio. Un hiperplano cTx = z puede dividir en tres semiespacios:

x R

/ cT x z , x Rn / cT x z

y x R

/ cT x z

El primero se denomina semiespacio inferior, el segundo es el propio hiperplano y, el


ltimo, el denominado semiespacio superior. En los casos primero y tercero se trata de
semiespacios abiertos puesto que las desigualdades son estrictas, es decir, menor (mayor)
estrictamente. El propio hiperplano es un semiespacio cerrado.
La unin de un semiespacio abierto con el hiperplano da lugar a un semiespacio cerrado.

x R
x R

/ cT x z
n
/ cT x z

x R
x R

/ cT x z
n
/ cT x z

x R
x R

semiespacio cerrado
semiespacio cerrado

/ cT x z
n
/ cT x z

Observemos que ambos semiespacios cerrados incluyen los puntos sobre el hiperplano H.
Un punto de frontera de un conjunto es aquel que est ubicado en los lmites de dicho conjunto ,
es decir, existe un entorno de l que contiene puntos pertenecientes y no pertenecientes al
conjunto.
Asimismo, un punto interior de un conjunto es aquel que pertenece al conjunto y no se
considera punto de frontera.
En base a lo expuesto, un conjunto que slo contiene sus puntos interiores se denomina
abierto. Si un conjunto contiene sus puntos interiores y sus puntos de frontera, es cerrado.
Definicin 2-15. Poltopo. Se denomina poltopo a todo conjunto de que puede
expresarse como interseccin de un nmero finito de semiespacios cerrados. La generalizacin a
cualquier dimensin de un polgono bidimensional y un poliedro tridimensional es un poltopo.
Cuando el poltopo est acotado se llama poliedro.
Definicin 2-16. Combinacin lineal convexa. Se dice que un punto x es combinacin
n

lineal de n puntos si x puede expresarse como x

x , con .
i i

Si adems

i 1
n

i 0 i y

1 , se trata de una combinacin lineal convexa.

i 1

Como caso particular, el segmento delimitado por los puntos x1; x2 n es el conjunto de
combinaciones lineales convexas de dichos puntos.
Definicin 2-17. Conjunto convexo. Un conjunto K perteneciente a es convexo si dados
dos puntos cualesquiera x1; x2 K con x1 x2, el segmento lineal cerrado que los une est
totalmente contenido en K (es decir, cualquier combinacin lineal convexa de tales puntos
pertenece al conjunto).
Los hiperplanos son conjuntos convexos. Los semiespacios, tanto abiertos como cerrados,
son conjuntos convexos.
Al definir un semiespacio se estableci que un conjunto es cerrado si incluye sus puntos de
frontera. Naturalmente este concepto se aplica tambin a los conjuntos convexos. De esta forma,
un conjunto convexo puede ser cerrado o abierto. A su vez, como se vio en el Ejemplo 1-15, un
conjunto convexo puede ser acotado o no acotado, dependiendo de si el mismo se halla
limitado o no. Por definicin:

34

El conjunto vaco es un conjunto convexo.


Los conjuntos formados por un nico punto son convexos.
Norma Torrent

Conceptos Bsicos

Definicin 2-18. Punto extremo. Un punto x de un conjunto convexo K es extremo o vrtice


de K si no puede expresarse como combinacin lineal convexa de otros dos puntos de K, es
decir, si no existe x1, x2 K, x1 x2 / x = x1 + (1 )x2, con 0 1.
Un conjunto convexo puede tener tanto un nmero finito como infinito de puntos extremos.
Propiedades de los conjuntos convexos

La interseccin finita o infinita de conjuntos convexos es un conjunto convexo (en


general, la unin de conjuntos convexos no es un conjunto convexo).
La suma de conjuntos convexos es un conjunto convexo.
La combinacin lineal de conjuntos convexos es un conjunto conve xo.

Todo poltopo es un conjunto convexo por ser la interseccin de un nmero finito de


semiespacios cerrados.
2.6 TEOREMAS BSICOS DE LA PROGRAMACIN LINEAL
Dado un programa lineal en su forma estndar:5

Max z cx
s. a
Ax b
x0
donde

x1
a 11 a 12 ... a 1n
b1
x
a a ... a
b
2

2n
A 21 22
, x ... , b 2 y c c1 , c 2 , ..., c n
... ...... ...
...
...
a a ... a
b
mn
x
m1 m2
m
n
Definicin 2-19. Solucin. Es toda nupla (x1; x2; , xn)T que satisface el sistema de
restricciones Ax = b.
Definicin 2-20. Solucin factible. Es toda solucin que adems satisface la condicin de
no negatividad de las variables.
Definicin 2-21. Solucin bsica. Es toda solucin que posee, a lo sumo, m componentes
distintas de cero (es decir al menos n m componentes nulas).
Sabemos que si m < n y el rango de A es igual al rango de la matriz ampliada (A/b) e igual a
m, el sistema Ax = b tiene infinitas soluciones. En tal caso podemos extraer m columnas de A
para formar una submatriz cuadrada B de rango m (estamos extrayendo una base B de vectores
de la matriz A). Si llamamos con xB al vector formado por las componentes de x asociadas a la
matriz B (esto es, si la columna j forma parte de la matriz B entonces se toma la componente xj
del vector x) resulta que el sistema BxB = b es compatible y determinado con solucin xB = B1b.
Luego, igualando a cero las n m componentes del vector x que no intervinieron en xB,
tendremos una solucin bsica compuesta por las componentes de xB y las n m componentes
nulas.

A partir aqu, en la forma estndar, designaremos con n a la cantidad de variables del vector x incluyendo, si las
hubiera, holguras y/o excesos.
35

Captulo 2

As, el sistema Ax = b puede expresarse siempre en trminos de una base cualquiera como

Bx B Nx N b
siendo
B: una base de vectores de la matriz A
xB: vector de variables bsicas (cada componente de xB recibe el nombre de variable
bsica)
N: matriz correspondiente a la no base (integrada por los n m vectores restantes de A
no incluidos en B)
xN: vector de variables no bsicas (cada una de las n m componente nulas de xN recibe el
nombre de variable no bsica)
Como mencionramos anteriormente, para que el sistema Ax = b tenga solucin y en
particular una solucin bsica, vamos a suponer que la matriz A es de orden m x n, con m < n, y
que su rango es mximo (igual a m). Tal supuesto recibe el nombre de hiptesis de rango
completo.6
Si se cumple la hiptesis de rango completo el sistema Ax = b tiene infinitas soluciones,
pero no necesariamente todas ellas sern soluciones factibles.
Definicin 2-22. Solucin bsica factible. Es toda solucin bsica en la cual todas sus
variables bsicas son no negativas. En general en desarrollos posteriores utilizaremos
frecuentemente la expresin solucin bsica para referirnos a una solucin bsica factible.
Definicin 2-23. Solucin bsica factible no degenerada. Es toda solucin bsica factible
con exactamente m componentes estrictamente positivas. Si la solucin posee menos de m
componentes estrictamente positivas (es decir, ms de n m componentes nulas) se denomina
solucin bsica factible degenerada.
Definicin 2-24. Regin de factibilidad. Es el conjunto de todas las soluciones factibles.
Teorema 2-5. El conjunto de todas las soluciones factibles de un programa lineal es un
conjunto convexo cerrado.
Demostracin. Si x es una solucin factible de un programa lineal satisface las condiciones
n

Ax = b y x 0. Cada una de las igualdades

ij x j

bi con i = 1, 2, , m, puede entenderse

j 1
n

como la interseccin de dos semiespacios cerrados en :

ij x j

bi con i = 1, 2, , m y

j 1
n

ij x j

bi con i = 1, 2, , m. Adems las desigualdades xj 0 con j = 1, 2, , n, tambin son

j 1

semiespacios cerrados en . La regin de factibilidad es entonces la intersecci n de un nmero


finito de semiespacios cerrados, concretamente un poltopo, siendo por tanto un conjunto
convexo cerrado.
La regin de factibilidad puede ser:

El conjunto vaco, en cuyo caso el programa lineal es no factible (no tiene solucin).

La hiptesis de rango completo equivale a suponer que las m ecuaciones que componen el sistema Ax = b son
linealmente independientes.
36

Norma Torrent

Conceptos Bsicos

Un conjunto formado por un nico punto, en cuyo caso dicho punto constituye la
solucin trivial.
Un conjunto con ms de un punto, en cuyo caso tiene infinitos puntos. En efecto, si x1 y
x2 son soluciones factibles, tambin lo son los puntos del segmento cerrado delimitado
por x1 y x2.
Este ltimo caso es el que nos interesa puesto que en los dos precedentes la solucin e s
trivial. Pretendemos encontrar entre los infinitos puntos de la regin de factibilidad
aquel a aquellos que optimicen la funcin objetivo del programa lineal.

Teorema 2-6. Teorema fundamental de la programacin lineal. Dado un programa lineal


en su forma estndar que verifica la hiptesis de rango completo:
.i. si hay una solucin factible tambin hay una solucin bsica factible;
ii. si hay una solucin factible ptima tambin hay una solucin bsica factible ptima.
Demostracin.
i. Si (x1, x2, , xn)T es una solucin factible se verifica que

x 1A1 x 2 A 2 ... x n A n b
con xj 0 j = 1, 2, , n.
Supongamos que las p primeras de tales variables son no nulas, es decir

x 1A1 x 2 A 2 ... x p A p 0A p 1 ... 0A n b


podemos entonces analizar dos casos:
1.

2.

Los vectores Ai con i = 1, 2, , p son linealmente independientes.


Como m es el rango de A, debe ser p m:
si p = m la solucin es bsica,
si p < m basta con tomar m p columnas de A tales que agregadas a las p dadas
formen una base de m vectores. Asignando el valor cero a las variables asociada a las m
p columnas agregadas se tiene una solucin bsica degenerada.
Los vectores Ai con i = 1, 2, , p son linealmente dependientes.
En este caso existen p escalares y1, y2, , yp, no todos nulos, tales que

y1A1 y 2 A 2 ... y p A p 0A p 1 ... 0A n 0


Supongamos que al menos uno de los yp es mayor que cero. Multiplicamos esta ltima
ecuacin por y realizamos la siguiente operacin

x 1A1 x 2 A 2 ... x p A p 0A p 1 ... 0A n b


y1A1 y 2 A 2 ... y p A p 0A p 1 ... 0A n 0

resultando

( x 1 y1 )A1 ( x 2 y 2 )A 2 ... ( x p y p )A p 0 ... 0 b


Luego, el vector [(x1 y1 ), (x 2 y 2 ), ..., (x p y p ), 0, ..., 0] T es solucin del sistema
Ax = b, sin embargo no podemos asegurar que todas sus componentes sean no
negativas (evidentemente, si obtenemos la solucin factible inicial). Eligiendo

min i , para los yi 0 con i 1, 2, ..., p


yi

37

Captulo 2

obtenemos una solucin factible que tiene como mximo p 1 variables positivas
(puesto que la o las componentes a las que corresponda el mnimo de las xi/yi se
anulan).
Si los correspondientes p 1 vectores son linealmente independientes se aplica el caso
1 y la solucin obtenida es bsica. En caso contrario, repitiendo el proceso anterior
podemos eliminar variables positivas en cada nueva solucin obtenida, hasta conseguir
una solucin factible a la que correspondan vectores linealmente independientes y
aplicar el caso 1.
Si en la expresin

( x 1 y1 )A1 ( x 2 y 2 )A 2 ... ( x p y p )A p 0 ... 0 b


no hubiera ningn yp > 0, podra tomar valores positivos muy grandes y la solucin
no estara acotada (el programa lineal no tiene solucin ptima finita.
Queda demostrado entonces el apartado i.
ii. Sea x = (x1, x2, , xn)T, una solucin factible ptima. Supongamos que las p primeras de
tales variables son no nulas, es decir,

x 1A1 x 2 A 2 ... x p A p 0A p 1 ... 0A n b


Si los vectores Ai con i = 1, 2, , p son linealmente independientes, la demostracin es
anloga al caso 1 de i. Ahora x = (x1, x2, , xp, 0, , 0)T es una solucin bsica (p m) y por
hiptesis es ptima, por tanto x es una solucin bsica factible ptima.
Si los vectores Ai con i = 1, 2, , p son linealmente dependientes existen p escalares y1, y2,
, yp, no todos nulos, tales que

y1A1 y 2 A 2 ... y p A p 0A p 1 ... 0A n 0


En forma similar al caso 2 de i., si a x1 A1 x 2 A2 ... x p A p b le sumamos
y1 A1 y 2 A2 ... y p A p 0 multiplicada por un real , tenemos que

( x 1 y1 )A1 ( x 2 y 2 )A 2 ... ( x p y p )A p b
por tanto, x + y es una solucin que satisface el sistema de restricciones.
Como las variables x1, x2, , xp son estrictamente positivas y los escalares y1, y2, , yp son
finitos, es posible hallar > 0 tal que para se tenga la factibilidad de la solucin
anterior.
Luego,
z c( x y) cx cy
Si cy 0, puede ser cy > 0 o cy < 0. Para el caso en que cy > 0 tomamos = entonces

cx cx cy
por lo tanto, x no es ptimo. Asimismo, cuando cy < 0 tomamos = resultando nuevamente

cx cx cy
es decir, x no es ptimo lo cual es un absurdo. As pues, ha de ser cy = 0. En conclusin x + y
tambin es una solucin ptima para cualquier valor de [, ], por lo que siguiendo los
mismos pasos del caso 2 de i., concluimos que es posible encontrar una solucin bsica factible
ptima.
38

Norma Torrent

Conceptos Bsicos

Teorema 2-7. Teorema de equivalencia. Dado un programa lineal en su forma estndar que
verifica la hiptesis de rango completo. Sea K el conjunto convexo de sus soluciones factibles
(poltopo). Un punto x es punto extremo de K si, y slo si, es una solucin bsica factible.
Demostracin. Sea x = (x1, x2, , xm, 0, , 0)T una solucin bsica factible, entonces

x 1A1 x 2 A 2 ... x m A m 0A m 1 ... 0A n b


siendo los vectores Ai con i = 1, 2, , m, linealmente independientes.
Si suponemos que x es combinacin lineal convexa de otros dos puntos y, q pertenecientes a
K, resultar

x y (1 )q, con 0 1
Dado que x, y y q tienen componentes no negativas y 0 1, las n m ltimas
componentes de y y q tienen que ser nulas, luego

y1A1 y 2 A 2 ... y m A m b
q1A1 q 2 A 2 ... q m A m b
Como los vectores Ai con i = 1, 2, , m son linealmente independientes debe ser y = q y
consecuentemente, x = y = q. Hemos probado que la solucin bsica factible es un punto
extremo de K.
Recprocamente, supongamos que x = (x1, x2, , xk, 0, , 0)T es un punto extremo de K que
posee las k primeras componentes no nulas (y por ende positivas). Por tanto

x 1A1 x 2 A 2 ... x k A k b
Si comprobamos que los vectores A1, A2, , Ak son linealmente independientes, el punto
extremo ser una solucin bsica factible.
Procederemos por el absurdo, suponiendo que A1, A2, , Ak son linealmente dependientes.
Existen entonces k escalares y1, y2, , yk, no todos nulos, tales que

y1A1 y 2 A 2 ... y k A k 0
Para el vector y = (y1, y2, , yk, 0, , 0)T se comprueba que, tomando un adecuado, los
vectores x + y y x y pertenecen al conjunto K de soluciones factibles. En efecto, si a la
ecuacin x1 A1 x 2 A2 ... x k Ak b le restamos y1 A1 y 2 A2 ... y k Ak 0 multiplicada por
un real mayor que cero, obtenemos

( x 1 y1 )A1 ( x 2 y 2 )A 2 ... ( x k y k )A k b
Si ahora a x1 A1 x 2 A2 ... x k Ak b le sumamos
multiplicada por un real mayor que cero, tenemos que

y1 A1 y 2 A2 ... y k Ak 0

( x 1 y1 )A1 ( x 2 y 2 )A 2 ... ( x k y k )A k b
Luego,
como
los
xi
son
todos
positivos,
escogiendo
x

min i , yi 0, yi valor absoluto de yi , los vectores x + y y x y son soluciones


yi

factibles del programa lineal. Por otra parte, x 0,5(x y) 0,5(x y) lo cual nos dice que x es
combinacin convexa de dos puntos distintos de K, contradiciendo la hiptesis original que
indica que x es un punto extremo de K. El absurdo provino de suponer que los vectores A1, A2,
, Ak eran linealmente dependientes.
39

Captulo 2

En consecuencia, tales vectores son linealmente independientes y el punto extremo es una


solucin bsica factible (que puede ser degenerada si k < m).
Teorema 2-8. La funcin objetivo de un programa lineal alcanza su ptimo en al menos un
punto extremo del conjunto de soluciones factibles. Si el ptimo se produce en ms de un punto
extremo, entonces tambin se produce en todo punto que es combinacin convexa de ellos.
Demostracin. Sea K la regin factible y x1, x2, , xq los puntos extremos de K. Sea x un
punto cualquiera perteneciente a K, entonces x puede expresarse como combinacin lineal
convexa de los puntos extremos. Esto es
q

x , con ,
i

0 i y

i 1

i 1

en consecuencia
q

z cx c

x (cx ) z
i

i 1

i i

i 1

i 1

donde zi es el valor que toma la funcin objetivo en xi, i = 1, 2, , q.


Sea z 0 maxz i , i 1, 2, ..., q, entonces z 0 cxi , i 1, 2, ..., q. Luego
q

z 0 1z 0 (

i )z 0

i 1

iz0

(cx ) cx z

i 1

i 1

es decir z0 z para todo x, por lo tanto z0 es el ptimo y se produce en al menos un punto


extremo.
Si el ptimo se produce en p puntos extremos x1, x2, , xp tenemos que

z* cx 1 cx 2 ... cx i ... cx p
si x es una combinacin convexa de ellos
p

x , con ,
i

0 i y

i 1

i 1

luego la funcin objetivo resulta


p

z cx c

i 1

i xi

i 1

i (cx i )

i 1

i z* z *

z*

i 1

con lo cual x tambin es ptimo.


CONCLUSIONES
Los teoremas anteriores nos permiten deducir las siguientes consecuencias inmediatas.

40

Si el conjunto de soluciones factibles de un programa lineal que verifica la


hiptesis de rango completo es no vaco, entonces tiene al menos un punto
extremo.

Cada solucin bsica factible de un programa lineal corresponde a un punto


extremo del conjunto de soluciones factibles (y viceversa).

Norma Torrent

Conceptos Bsicos

El conjunto de soluciones factibles de un programa lineal que verifica la hiptesis


de rango completo, tiene un nmero finito de puntos extremos.
Efectivamente, el nmero mximo de puntos extremos de una regin factible
proveniente de un programa lineal con n variables y m restricciones est dado por todas
las combinaciones de los n vectores de la matriz A tomados de a m.

n
n!
N mximo de puntos extremos C n, m
m (n m)! m!

Si un programa lineal tiene una solucin ptima finita la misma se produce en al


menos un punto extremo del conjunto de soluciones factibles.

En la Figura 2-1 se resumen los conceptos precedentes.


Figura 2-1. ELEMENTOS FUNDAMENTALES DE LA TEORA DE PROGRAMACIN
LINEAL

2.7 SOLUCIN CONCEPTUAL


En base a lo expuesto se deduce que para obtener la solucin ptima habr que calcular el valor
que toma la funcin econmica en cada punto extremo y seleccionar el mejor :
Para obtener un punto extremo podemos proceder de la siguiente manera:

Expresamos el programa lineal en su forma estndar.


De la matriz A seleccionamos una base (m vectores columna linealmente
independientes).
Resolvemos el sistema normal de Cramer que se obtiene haciendo cero las n m
incgnitas que no acompaan a la base.
Si todas las incgnitas que resultan de resolver el sistema de Cramer son no negativas,
esta solucin, con el agregado de los n m ceros anteriores, nos proporciona un punto
extremo.

Dado que el nmero de puntos extremos (soluciones bsicas factibles) es finito, repetimos el
proceso hasta agotar todos los casos posibles es decir, todas las combinaciones de n vectores de
la matriz A tomados de a m.
41

Captulo 2

Ejemplo 2-4 Solucin conceptual


Veamos como resolver conceptualmente el problema planteado en el Ejemplo 1 -1.

Max z 20x 1 45x 2 (maximizar contribucin marginal)


s. a
x 1 2 x 2 40 (restriccin debida a la mano de obra)
3x 1 1,5x 2 75 (restriccin debida a la materia prima)
x 2 15 (restriccin debida a la demanda)
x 1 ; x 2 0 (condicin de no negatividad de las variables)
Llevamos el problema a su forma estndar

Max z 20x 1 45x 2 0x 3 0x 4 0x 5


s. a
x 1 2x 2 x 3
40
3x 1 1,5x 2
x4
75
x2
x 5 15
x j 0 j 1; 2; ...; 5
Indiferentemente de cul sea la funcin econmica, para hallar un punto extremo debemos
encontrar una base, en este caso 3 vectores columna de la matriz A que resulten linealmente
independientes (m = 3). Probemos con (A1, A2, A3).

1
2 1
det(A1 , A 2 , A 3 ) 3 3 / 2 0 3 (A1 , A2 , A3 ) linealmente independientes
0
1 0
Luego, resolvemos por Cramer el sistema resultante de anular x4 y x5 (n m = 5 3 =2
variables que no acompaan a la base).

40

x1

2 1

1 40 1

75 3 / 2 0
15
1 0

3 75 0
0 15 0

3 3/2 75
0
1 15

35 / 2

x2

15

x3

2 40

15 / 2

Al ser x3 < 0, el punto (17,5; 15; 7,5; 0; 0)T no es solucin factible.


Intentemos ahora con (A1, A2, A4).

1
2
det(A1 , A 2 , A 4 ) 3 3 / 2
0
1
40

x1

0
1 1 (A1 , A2 , A4 ) linealmente independientes
0

2 0

1 40 0

75 3 / 2 1
15
1 0

3 75 1
0 15 0

3 3 / 2 75
0
1 15

10

x2

15

x4

2 40

45 / 2

El punto (10; 15; 0; 22,5; 0)T es un punto extremo. El valor de la funcin objetivo en dicho
punto es z 20 10 45 15 875 .
42

Norma Torrent

Conceptos Bsicos

En forma similar, debemos repetir este procedimiento hasta analizar todas las posib ilidades
que en este caso son C5, 3 = 10.
Observemos que tomando como base a los vectores A3, A4 y A5 que acompaan a las
variables de holgura, obtenemos una solucin bsica factible trivial. En efecto, haciendo x1 = 0
y x2 = 0, resulta inmediato x3 = 40, x4 = 75 y x5 = 15. Lgicamente para este punto z = 0.
La Tabla 2-1 resume los resultados obtenidos.
Tabla 2-1
Base

x1

x2

x3

x4

x5

Observaciones

A1, A2, A3

17,5

15

7,5

No factible

A1, A2, A4

10

15

22,5

Factible ptima

875

A1, A2, A5

20

10

Factible

850

A1, A3, A4

A1, A3, A4 no son base

A1, A3, A5

25

15

15

Factible

A1, A4, A5

40

45

15

No factible

A2, A3, A4

15

10

52,5

Factible

A2, A3, A5

50

60

35

No factible

A2, A4, A5

20

45

No factible

A3, A4, A5

40

75

15

Factible

500

675

Veamos ahora cmo podemos representar en forma estndar el espacio de soluciones que
obtuvimos al aplicar el mtodo grfico (Figura 2-2).
Puesto que x3, x4, y x5 son las holguras, cualquier punto perteneciente al polgono convexo
de soluciones factibles puede ser representado en trminos de las variables x1, x2, x3, x4 y x5.
Si x3 = 0 la restriccin de mano de obra se reduce a x1 + 2x2 = 40, luego cualquier punto
sobre la recta que incluye al segmento [Q2, Q3] debe tener x3 = 0. En forma similar, x4 = 0 y x5 =
0 definen los segmentos [Q1, Q2] y [Q3, Q4] respectivamente.
Si x3 = 15 la restriccin de mano de obra
x2
Figura 2-2
se transforma en x1 + 2x2 = 25 lo cual equivale
a bajar con una paralela a [Q2, Q3] hasta
50
satisfacer
esta
ltima
ecuacin.
Consecuentemente, x3 0 junto con las
restricciones de no negatividad x1 0 y x2 0
definen el rea del tringulo comprendido entre
los puntos (0; 0), (40; 0) y (0; 20). Podemos
PTIMO
hacer una interpretacin similar para x4 0 y x5
20
Demanda
0.
15 Q Q
4
3
Evidentemente el punto x1= 10; x2 = 10
10
Ma
Q2
no
de
puede representarse en trminos de x3; x4 y x5,
Ob
ra
Q0
Q1
bastar con reemplazar en las respectivas
0
20 25
40
x1
10
ecuaciones.
NECESIDAD DE UN PROCEDIMIENTO ALTERNATIVO DE SOLUCIN
Desde el punto de vista conceptual el problema de la programacin lineal ha quedado totalment e
resuelto.
43

Captulo 2

Sin embargo, el procedimiento antes descrito puede convertirse en una ardua tarea si
tenemos en cuenta por ejemplo, que una aplicacin pequea con 20 variables y 10 restricciones
podra tener C20, 10 = 184.756 puntos extremos. An empleando computadoras de ltima
generacin, el nmero de sistemas de ecuaciones lineales a resolver puede demandar tiempos de
clculo inadmisibles.
Afortunadamente, en 1947 George B. Dantzig (1914 2005) desarroll un mtodo
denominado Simplex. El mtodo o algoritmo Simplex, que estudiaremos en el captulo siguiente,
permite resolver problemas lineales sin necesidad de analizar el valor de la funcin econmica
en todos los puntos extremos. En la actualidad son numerosos los paquetes de software que
hacen uso del Simplex y de sus variantes.

44

Norma Torrent

Potrebbero piacerti anche