Sei sulla pagina 1di 32

Factorizaciones matriciales

Version Enero de 2010


Pontificia Universidad Catolica de Chile

Indice
1. Matrices elementales
1.1. Inversas y transpuestas de matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1
3

2. Factorizaci
on A = LU
2.1. Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. La factorizacion LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Relacion por filas de A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4
4
6
7

3. Factorizaci
on P A = LU
8
3.1. Aplicaciones de la factorizacion P A = LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4. Factorizaci
on de Cholesky
4.1. Factorizacion LU de matrices simetricas . . . . . . . .
4.2. Formas cuadraticas . . . . . . . . . . . . . . . . . . . .
4.2.1. Conceptos b
asicos . . . . . . . . . . . . . . . .
4.2.2. Clasificaci
on de las formas cuadraticas . . . . .
4.3. Matrices definidas positivas . . . . . . . . . . . . . . .
4.3.1. Propiedades de las matrices definidas positivas
4.3.2. Segunda Factorizacion de Cholesky . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

14
14
15
16
19
23
23
24

1.

Matrices elementales

Las factorizaciones matriciales permiten manejar matrices complicadas con metodos simples. Sus aplicaciones
principales se relacionan con los analisis de datos utilizando diversos programas computacionales en los cuales
se reduce tanto el tiempo de c
alculo como los errores que genera la aritmetica de punto flotante. Nuestra
intencion principal en este captulo es dividir un proceso complejo, representado por una transformaci
on lineal
T y su matriz can
onica A, en un cierto n
umero de subprocesos T1 , T2 , . . . , Tk cuyas matrices asociadas son
A1 , A2 , . . . , Ak , de modo que
Tk T2 T1 = T,
lo que en lenguaje de matrices significa factorizar A en un producto de matrices mas simples:
A = Ak A2 A1 .
En esta secci
on, nuestra meta sera establecer una interpretaci
on matricial de las operaciones elementales,
mediante las cuales realizamos el algoritmo de escalonamiento de Gauss.
Recordemos que las tres operaciones elementales (por filas) que generan matrices equivalentes son:
(i) de Permutaci
on: Fi Fj (intercambia de lugar la Fila i con la Fila j).
(ii) de Escalamiento: Fi c Fi , donde c 6= 0 (amplifica por una constante no nula c la Fila i).
elemento a eliminar
(permite hacer cero los elementos
pivote
bajo un pivote, al sumar a la Fila i un m
ultiplo de la Fila j)

(iii) de Eliminaci
on: Fi + cFj Fi , donde c =

Definici
on: Una matriz elemental es una matriz cuadrada (de n n para alg
un n N), que se obtiene al
realizar exactamente una operaci
on elemental a la matriz identidad de n n, In .
As, cada matriz elemental representar
a la operaci
on elemental que debe realizarse a In para obtenerla.
Ejemplos:

1
1. I2 =
0

1
0

2. I4 =
0
0

1
3. I3 = 0
0




0
0 1
= E1 =
es una matriz elemental de permutacion.
1 F1 F2
1 0

0 0 0
1 0 0 0
0 1 0 0
1 0 0

= E2 =

2 0 1 0 es una matriz elemental de eliminacion.


0 1 0
F3 2F1
0 0 1
0 0 0 1

1 0 0
0 0

1 0 F2 31 = E3 = 0 13 0 es una matriz elemental de escalamiento.
0 0 1
0 1

Notaci
on: Anotaremos las matrices elementales (sin importar de que orden sean) por:
(i) Pij representa la operaci
on elemental de permutacion Fi Fj . As, Pij es una matriz elemental de
permutaci
on.
(ii) Ei (c) representa la operaci
on elemental Fi c (c 6= 0). Luego, Ei (c) es una matriz elemental de escalamiento.
(iii) Eij (c) representa la operaci
on elemental Fi + cFj . As, Eij (c) es una matriz elemental de eliminaci
on.


En los ejemplos anteriores, tendremos que E1 = P12 , E2 = E31 (2) y E3 = E2 31 .
Nota : La matriz identidad In tambien es una matriz elemental, pues In = E1 (1) = E12 (0) = . . .
Es facil ver la forma general que tendra cada una de estas matrices. As:
columna

columna

1
0

..
.

Pij = .
..

.
..

0
1

0
0

..
.

..

..
.

0
0

..
.

1
0

..
.

..

..
.

..
.

1
0

0
1

..
.

..
.

..
.

..

.
1

0
0

..
.

0
fila i

..
.

fila j
0

..
.

Los unos que deben ir en las posiciones (i, i) y (j, j) de la identidad est
an ahora en las posiciones (i, j) y (j, i)
mientras que en las posiciones (i, i) y (j, j) ahora hay ceros.
columna

Ei (c) =

1 0
0 1
0 0
.. ..
. .
0 0
.. ..
. .

0
0
1
.. . .
.
.
0
..
.

0 0

0
0
0
..
.

0
0
0
..
.

c
..
.

0
..
.

..
.
0

fila i

S
olo el uno de la posicion (i, i) es reemplazado por c, todos los otros elementos coinciden con los de la identidad.

Eij (c) =

col.

col.

1 0
0 1
0 0
.. ..
. .
0 0
.. ..
. .

0
0
1
.. . .
.
.
0
..
.

0
0
0
..
.

0
0
0
..
.

0
0
0
..
.

1
..
.

0
..
.

0 0
.. ..
. .
0 0

0
..
.

0
..
.

..
.

0
..
.

..
.

fila i

El u
nico elemento distinto de los elementos de la matriz identidad es aquel que se ubica en la posicion (i, j) en
que que en vez de ser un cero es c. Es decir, esta matriz es la identidad con el elemento c en la posicion (i, j).

1.1.

Inversas y transpuestas de matrices elementales

Como la forma escalonada reducida de cualquier matriz elemental es la matriz identidad (basta deshacer la
operaci
on elemental), tenemos que todas las matrices elementales tienen inversas. Ademas, como conocemos la
forma de cada matriz elemental, podemos determinar su matriz transpuesta. Ambas matrices, la inversa de una
matriz elemental y la transpuesta de una matriz elemental, son, a su vez, matrices elementales. De hecho,
Matriz elemental

Matriz inversa

Matriz traspuesta

Pij

(Pij )1 = Pij

(Pij )T = Pji = Pij

(Ei (c))1 = Ei

Ei (c)

1
c

(Eij (c))1 = Eij (c)

Eij (c)

(Ei (c))T = Ei (c)


(Eij (c))T = Eji (c)

La principal propiedad de las matrices elementales se presenta en el siguiente teorema. La demostracion es


un ejercicio recomendable para el lector.
Teorema. Sean A una matriz de m n y M una matriz elemental de m m. Entonces
M A = A 0,
donde A 0 es la matriz que se obtiene al realizarle a A la operaci
on elemental que representa M .
Demostraci
on: La demostracion de este teorema queda propuesta. Como indicaci
on para realizar la demostraci
on, podemos decir que conviene considerar tres casos: (1) M = Pij , (2) M = Ei (c) y (3) M = Eij (c) y
realizar la multiplicaci
on M A.

1 4
1 0 0
Ejemplo: Sean A = 2 5
y M = E23 (3) = 0 1 3 . Entonces:
3 6 32
0 0 1 33

1 0
M A = 0 1
0 0
Por otro lado,

1
2
3

0
1
3 2
1
3

4
1
4
5 = 7 13 = A 0
6
3
6

4
1
4
5 F2 3F3 7 13 = A 0
6
3
6
3

1 1 1 1
1 2 2 2
1

Ejercicio: Sea A =
1 2 3 3. Escribamos A y A como producto de matrices elementales (lo que se
1 2 3 4
podra realizar si y solo si la matriz A es invertible).
Para esto, llevamos A a su forma escalonada reducida (que al ser invertible, debe ser la identidad I4 ):

F1 F2
1 1 1 1
1 1 1 1
1 0 0 0
0 1 1 1 F2 F3
1 2 2 2 F2 F1
0 1 0 0

0 0 1 1 F3 F4
1 2 3 3 F3 F2
0 0 1 0 = I4
F4 F3
0 0 0 1
1 2 3 4
0 0 0 1
Si escribimos este proceso usando matrices elementales, tendremos que
E34 (1) E23 (1) E12 (1) E21 (1) E32 (1) E43 (1)A = I4
{z
}
|
C

Luego, la matriz C es una matriz inversa por izquierda de A y como A es cuadrada, tenemos que C = A1 .
As,
A1 = E34 (1) E23 (1) E12 (1) E21 (1) E32 (1) E43 (1)
y, por tanto,
A = (A1 )1

1
E34 (1) E23 (1) E12 (1) E21 (1) E32 (1) E43 (1)

=
=

1
1
1
1
1
1
E43
(1) E32
(1) E21
(1) E12
(1) E23
(1) E34
(1)

E43 (1) E32 (1) E21 (1) E12 (1) E23 (1) E34 (1)

Nota : En general, las matrices elementales no conmutan. Por ejemplo,


E32 (1)E13 (4) 6= E13 (4)E32 (1).

Factorizaci
on A = LU

2.

Antes de definir la factorizacion LU , vamos a revisar un par de definiciones y propiedades.

2.1.

Matrices triangulares

Definici
on:
1. Una matriz A = (aij )mn es triangular superior si todos los elementos bajo la diagonal principal son
ceros, es decir, aij = 0 cuando i > j.
2. Una matriz A = (aij )mn es triangular inferior si AT es triangular superior, es decir, aij = 0 cuando
i < j.

Teorema. Considere las matrices A = (aij )mn , B = (bij )np y C = AB = (cij )mp .
1. Si aij = 0 y bij = 0 cuando i > j, entonces cij = 0 cuando i > j (El producto de dos matrices triangulares
superiores es triangular superior).
2. Si aij = 0 y bij = 0 cuando i < j, entonces cij = 0 cuando i < j (El producto de dos matrices triangulares
inferiores es triangular inferior).
3. Si A y B son matrices triangulares (ambas inferiores o ambas superiores) y si aii = 1 y bii = 1, entonces
C es matriz triangular (del mismo tipo que A y B) y cii = 1 (El producto de matrices triangulares con
unos en la diagonal tambien es triangular con unos en la diagonal).
Demostraci
on: La demostracion es directa de la definicion de producto de matrices. Queda propuesta.
Teorema. Sea Ann una matriz invertible.
1. Si A es triangular superior, entonces A1 es triangular superior.
2. Si A es triangular inferior, entonces A1 es triangular inferior.
3. Si A es triangular (superior o inferior) y tiene unos en la diagonal, entonces A1 tambien es triangular
y tiene unos en la diagonal.
Demostraci
on: Demostraremos la afirmaci
on 1.
Suponemos que A es una matriz triangular superior. Como A es invertible, tendremos que los elementos de
la diagonal de A son distintos de cero (A es invertible si y solo si r(A) ).
Para determinar A1 , deberemos resolver simult
aneamente los sistemas
=
A
x
1
=
A
x
2
..
.

Ax
=
n

e1

e2

e
n

1
donde
x
.
1 x2 , . . . , xn son las columnas de A

para
Es decir, debemos realizarun cierto n
umero de 
operaciones
elementales
a
la
matriz
ampliada
A
|
I
n


1
, digamos que son p operaciones elementales.
llevarla a la matriz ampliada In x1 x2 xn = In | A

Debido a las caractersticas de la matriz A (invertible triangular superior), es claro que las operaciones
elementales realizadas seran u
nicamente de eliminacion y de escalamiento. Las operaciones elementales de
eliminacion se realizar
an para hacer cero los elementos de cada columna que esten sobre cada pivote. Por
tanto, las matrices elementales que representan estas operaciones de eliminacion seran matrices triangulares
superiores (ser
an de la forma Eij (c) con i < j). Mientras que las matrices elementales que representan las
operaciones de escalamiento, seran matrices diagonales (los u
nicos elementos distintos de cero son los de la
diagonal), luego, tambien son triangulares superiores.
As, al representar matricialmente el proceso


A | In In | A1 ,
tendremos que

Ep E2 E1 A = In
1

y la matriz A = Ep E2 E1 , que es producto de matrices elementales triangulares superiores.


Luego, A1 es triangular superior.

2.2.

La factorizaci
on LU

Supongamos que la matriz A de m n puede llevarse a su forma escalonada realizando solo operaciones
elementales de eliminacion, es decir, al hacer cero los elementos bajo un pivote nunca es necesario realizar un
intercambio de fila.
De esta manera, si llamamos Umn a la matriz triangular superior que es la forma escalonada de A, resultante
del proceso de escalamiento de Gauss, tendremos que el proceso
A U
se representa matricialmente por
Ek Ek1 E2 E1 A = U,

donde cada una de las matrices elementales E1 , E2 , . . . , Ek son matrices elementales de eliminacion, es decir,
cada una es de la forma Eij (c) con i < j, pues como los elementos que se hacen cero est
an bajo la diagonal,
tendremos que cada matriz elemental de eliminacion sera triangular inferior con unos en la diagonal. Luego, la
matriz (Ek E2 E1 ) sera una matriz triangular inferior con unos en la diagonal y, ademas, sera invertible
con matriz inversa triangular inferior con unos en la diagonal. Llamemos
L = (Ek E2 E1 )1 = E11 E21 Ek1
De donde tendremos que
A = LU
donde L es una matriz triangular inferior
de A).

1
3
5 1
9
17 4
Ejemplo: Sea A = 3
1 3 9 2

1
3
5 1 0
3
9
17 4 1
1 3 9 2
2

con unos en la diagonal y U es triangular superior (forma escalonada

0
1. Encontremos su factorizacion LU .
2

1 3 5 1 0
F2 3F1
0 0 2 1 1
F3 (1)F1
0 0 4 1
2
F3 (2)F2

1 3 5 1 0
0 0 2 1 1 = U
0 0 0 1 0

Matricialmente, tendremos que

E32 (2) E31 (1) E21 (3) A = U


{z
}
|
L1

Luego,
L

1
E32 (2) E31 (1) E21 (3)

1
1
1
= E21
(3) E31
(1) E32
(2)

= E21 (3) E31 (1) E32 (2)

1 0 0
1 0 0
1
= 3 1 0 0 1 0 0
0 0 1
1 0 1
0

1
0 0
1 0
= 3
1 2 1
Por tanto,

1
0 0
1 3
1 0 0 0
A= 3
1 2 1
0 0
6

0 0
1 0
2 1

5 1 0
2 1 1
0 1 0

Nota : Los elementos bajo la diagonal de L corresponden a los n


umeros eliminadores de las operaciones
elementales que se realizan a A para obtener U . Recordemos que los elementos eliminadores son de la forma
elemento a eliminar
pivote
Esta observaci
on facilita

2 3
A = 1 2
0 4

la obtencion de la factorizacion LU de una matriz. Por ejemplo:

2 3
9
2 3 9
9
7
8 F2 21 F1 0 21 72
0 21
=U
2
0 4 1
F3 8F2
0 0 27
1
F3 0F1

Entonces,

L = 21
0

0 0
1 0
8 1

y podemos comprobar que A = LU .

2.3.

Relaci
on por filas de A = LU

Consideremos una matriz Amn que tiene una factorizacion LU . Si describimos por filas las matrices A y
U , tendremos que

U1
A1
U2
A2

A= . y U = .
..
..
Am
Um
y como A = LU ,

A1
A2
A3
..
.
Am

A1

= U1

A2
A3

= l21 U1 + U2
= l31 U1 + l32 U2 + U3
..
.
= lm1 U1 + lm2 U2 + lm3 U3 + + Um

l21


l31

=
..


.
lm1

1
l32
..
.

lm2

1
..
.

..

lm3

..
.

U1
U
2

U3
.
.
.

U
m
1

Entonces,

Am

Es decir, la fila iesima de A es combinaci


on lineal de las filas de U y los coeficientes de la c.l. son los
elementos de la iesima fila de L.

3.

Factorizaci
on P A = LU
Calculemos la factorizacion

1
2
A=
1
0

LU de la matriz A presentada a continuacion:

1 2 0
2 0 1 3
0 0 0
F

(2)F
4 0 1
1
2
1

0 1 1
3 1 0
2 F3 F1
0 2 1
2 1 1 1

1 3
1 7

1 1
1 1

Pero en este momento es obligatorio realizar una operaci


on elemental de intercambio. Por tanto, esta matriz
NO TIENE una factorizacion LU . En estos casos, realizaremos una factorizacion P A = LU .
Esta factorizacion es una modificacion del metodo por el cual se obtiene la factorizacion LU , en donde la
matriz P almacenar
a todos los cambios de fila que deben realizarse para llevar A a su forma escalonada U .
Retomemos el ejemplo, para determinar c
omo obtener esta nueva factorizacion matricial. Entonces

1
2 0 1 3
1 2 0 1 3

2 4 0 1

1
F2 (2)F1 0 0 0 1 7 F2 F3
A=

3 1 0
2
0 1 1 1 1
F3 F1
0
2 1 1 1
0 2 1 1 1

1 2 0 1 3
1 2 0 1 3
0 1 1 1 1
0 1 1
1 1

0 0 0 1 7
0 0 0 1 7 F3 F4
F4 2F2
0 2 1 1 1
0 0 1 3 1

1 2 0 1 3
0 1 1
1 1

0 0 1 3 1 = U
0 0 0 1 7
Matricialmente, este proceso se expresa con la igualdad:

P34 E42 (2) P23 E31 (1) E21 (2) A = U


|
{z
}
M

Pero las matrices elementales de permutacion presentes en la matriz M impiden que esta sea una matriz
triangular inferior (y, as no podemos construir la matriz L). Para solucionar este problema realizaremos las
operaciones de permutaci
on en primer lugar y una vez que tengamos ordenadas las filas de A de modo que
ya no se requieran intercambios de fila durante el proceso de escalonamiento, realizaremos las operaciones de
eliminacion necesarias. El problema de este ajuste es que, en general, las matrices elementales no conmutan, por
tanto, al trasladar las matrices de permutacion de lugar, no podemos garantizar que la igualdad se mantenga.
Por tanto, el procedimiento consistir
a en calcular la factorizacion LU de la matriz B = P34 P23 A, que es
una matriz con las mismas filas de A, pero ordenadas para que no sea necesario hacer intercambios de filas
durante el escalonamiento.
As,

1
2 0 1 3
1
2 0 1 3

2 4 0 1
3 1 0
2
1

= P34 1
B = P34 P23
2 4 0 1
1
1
3 1 0
2
0
2 1 1 1
0
2 1 1 1

1
2 0 1 3
1 2 0 1 3
1
0 1 1 1 1
3 1 0
2
F2 F1

0
0 2 1 1 1 F3 2F2
2 1 1 1
2 4 0 1
1
F4 (2)F1
0 0 0 1 7

1 2 0 1 3
0 1 1
1 1


0 0 1 3 1 = U
0 0 0 1 7
8

Y obtenemos la misma matriz U que habamos encontrado al comienzo. Este proceso se describe matricialmente por la igualdad
E32 (2) E41 (2) E21 (1) B = U
y en terminos de A, tenemos que
E32 (2) E41 (2) E21 (1) P34 P23 A = U

Ahora, tenemos que la matriz E32 (2) E41 (2) E21 (1) es triangular inferior con unos en la diagonal, por
1
tanto, llamamos L a la matriz L = E32 (2) E41 (2) E21 (1)
y P a la matriz P34 P23 con lo que tendremos
que
P A = LU
donde P es producto de matrices elementales de permutacion (la que se conoce como una matriz no elemental
de permutacion), L es una matriz triangular inferior con unos en la diagonal y U es una matriz triangular
superior (forma escalonada de A).
Nota 1: Las matrices P y L son producto de matrices elementales, por tanto, son matrices cuadradas e
invertibles.

Nota 2: Recordemos la igualdad que se obtena al escalonar A intercambiando filas en el medio del pivoteo:
P34 E42 (2) P23 E31 (1) E21 (2) A = U
y observemos el siguiente procedimiento:
intercambiamos

}|
{
z
P34 E42 (2) P23 E31 (1) E21 (2) A = U
intercambiamos

z }| {
= P34 E42 (2) E21 (1) P23 E21 (2) A = U
= P34 E42 (2) E21 (1) E31 (2) P23 A = U
intercambiamos

z
}|
{
= P34 E42 (2) E21 (1) E31 (2) P23 A = U
intercambiamos

}|
{
z
= E32 (2) P34 E21 (1) E31 (2) P23 A = U
= E32 (2) E21 (1) E41 (2) P34 P23 A = U
|
{z
}
conmutan

de donde obtenemos la igualdad


E32 (2) E41 (2) E21 (1) P34 P23 A = U
Lo que indica c
omo obtener la factorizacion P A = LU directamente del proceso mediante el cual llevamos A
a su forma escalonada U . En este procedimiento hemos usado algunas propiedades de las matrices elementales
que son facilmente demostrables:
1. Pij Eir (c) = Ejr (c) Pij y Pij Ejr (c) = Eir (c) Pij con r 6= i y r 6= j.
2. Pij Ers (c) = Ers (c) Pij con r, s 6= i y r, s 6= j
3. Eik () Ejk () = Ejk () Eik ()

Ejemplo: Calculemos la factorizacion P A = LU para la matriz

1 2 1
1 2 3

A=
2 1 0
1 3 1

A =

1
1 2
1

3
2
F2 F1 0 0

0 3 2 F4 F2
0 F3 2F1
1
F4 F1
0 1
0

2
1
1 2 1
0 1 0
1
0

0 0 2
3 2
F3 + 3F2
0
2
F4 + F3
0 0 2

2 1
1 0
=U
0 2
0 0

1
1

2
1

1
0

0
0

1
0

0
0

2
2
1
3

Escribimos el proceso matricialmente:


E43 (1) E32 (3) P42 E41 (1) E31 (2) E21 (1) A = U
y usando las propiedades de las matrices elementales, tenemos que la igualdad anterior es equivalente a
E43 (1) E32 (3) E21 (1) E31 (2) E41 (1) P42 A = U
De donde se tiene que
P = P42
y
L =
=
=

1
0
=
0
0

0
0
0
1

0
0
1
0

0
1

0
0

1
E43 (1) E32 (3) E21 (1) E31 (2) E41 (1)

E41 (1) E31 (2)

1 0
0
1 1
0

2 3 1
1 0 1

E21 (1) E32 (3) E43 (1)

0
0

0
1

donde hemos hecho coincidir los colores de cada elemento bajo la diagonal de L con la matriz elemental de la
cual proviene. Notemos que el elemento cero en la posicion (4, 2) se debe a que ninguna operaci
on elemental se
realizo entre las filas 4 y 2.
Por tanto,

1 0 0 0
1 2 1
1 0
0 0
1 2 1
0 0 0 1 1 2 3 1 1

0 0


0 1 0
0 0 1 0 2 1 0 = 2 3 1 0 0 0 2
0 1 0 0
1 3 1
1 0 1 1
0 0 0

10

3.1.

Aplicaciones de la factorizaci
on P A = LU

I. Resolver Ax = b
Supongamos que conocemos las matrices P , L y U de la factorizacion P A = LU de A. Usaremos el
siguiente proceso para resolver Ax = b a traves de la factorizacion:

P/

Ax = b
P Ax = P b

, pero P A = LU

L|{z}
Ux = Pb
y

= Resolvemos

1
2

Ly = P b
Ux = y

La ventaja de resolver un sistema de ecuaciones usando la factorizacion P A = LU consiste en una

reduccion notoria en el n
umero de operaciones que deben realizarse (ver Notas numericas, Lay, Algebra
Lineal y sus aplicaciones, p. 137), pues los sistemas que deben resolverse (Ly = P b y U x = y) tienen
matrices triangulares, por lo que se resuelven por sustitucion directa.
II. Encontrar A1 b
Para encontrar A1 b se resuelve Ax = b por el metodo anterior.
A pesar de que resolver los sistemas Ly = P b y U x = y obliga a hacer la misma cantidad de operaciones
(sumas y multiplicaciones) que calcular A1 b, tenemos que encontrar la factorizacion P A = LU requiere
menos trabajo que el c
alculo de A1 (pues ademas de las operaciones elementales que se realizan sobre A
para encontrar la factorizacion, deben realizarse las mismas operaciones sobre In para encontrar A1 ).
De esta manera, A1 solo se calcula cuando se necesitan explcitamente sus elementos.
III. Resolver AX = B (con X y B matrices)
Siendo concretos, supongamos que A es una matriz de m n y que conocemos la factorizacion P A = LU ,
por lo que P es de m m, L es de m m y U es de m n. Supongamos que B es una matriz de m p,
lo que implica que la matriz X que buscamos es de n p.
Entonces para resolver AX = B usando P A = LU , tendremos que

P/

AX = B

P AX = P B
LU
X = PB
|{z}
Y

1 LY = P B
= Resolvemos
2 U X = Y

, pero P A = LU

donde Y sera una matriz de m p.

En este caso, resolver LY = P B implica resolver p sistemas simult


aneos:
Ly1 = P b1
Ly2 = P b2
..
.
Lyp = P bp






donde Y = y1 |y2 | |yp y B = b1 |b2 | |bp , es decir, se debe operar la matriz ampliada L P B
hasta llevar L a su forma escalonada reducida (pero L es invertible, luego su escalonada reducida es Im ).
Entonces, la resolucion de LY = P B es:


 
L P B Im Y
11

Pero como L es triangular inferior con unos en la diagonal, solo se deben eliminar los elementos bajo los
pivotes.
 
De forma analoga, para resolver U X = Y se debe operar la matriz ampliada U Y hasta llevar U a su
forma escalonada reducida. Dependiendo de si U es invertible, tendremos una u
nica solucion para X o
infinitas soluciones para X.
IV. Resolver AT x = b
Asumimos conocida la factorizacion P A = LU .
Notemos que
P A = LU/( )T = AT P T = U T LT ,
pero P T = P 1 , luego,

AT = U T LT P.

As,
AT x = b = U T LT |{z}
P x = b = U T LT y = b = U T z = b
|{z}
y

y para resolver AT x = b, se resuelven tres sistemas (dos sistemas triangulares y uno extremadamente
simple):

1 UT z = b
2 LT y = z

3 Px = y

1
1
2 0 determine u
nicamente lo solicitado:
3 2


1. la solucion de Ax = b, donde bT = 1 1 1 .


2. la solucion de AT x = b, donde bT = 1 1 1 .

2
Ejemplo: Para la matriz A = 2
4

3. la tercera columna de A1 .
4. la segunda fila de A1 .

5. el elemento en la posicion (1, 1) de la matriz A1 .


n: Comenzamos calculando la factorizacion P A = LU para esta matriz.
Solucio

2
1
1
2 1
1
A = 2 2 0 F2 (1)F1 0 1 1
4
3 2
F3 2F1
0 1 4
F3 (1)F2

2 1
1
0 1 1 = U
0 0 3

1
0 0
2 1
1
Por tanto, en este caso, P = I3 , L = 1 1 0 y U = 0 1 1
2 1 1
0 0 3

1 Ly = P b
1. Para resolver Ax = b, debemos resolver
2 U x = y

1
y1
1
0 0
y1 = 1
y2 = 1 + y1 = 0
Ly = P b = 1 1 0 y2 = 1 =

y3 = 1 2y1 + y2 = 1
1
y3
2 1 1
12


2
U x = y = 0
0


1 1 1
Luego, x =
.
, ,
6 3 3


1
1
1
x1
x3 = 13

x2 = x3 = 31
x2 =
1 1
0
=

0 3
x3
1
x1 = 1x22 x3 =


1 UT z = b
T
2. Para resolver A x = b, debemos resolver
2 LT y = z

3 Px = y


2 0
0
1
z1
z1 = 12
T
z2 = 1 + z1 = 23
U z = b = 1 1 0 z2 = 1 =

1 z2
z3 = 1z3
=
1 1 3
z3
1


1 1 2
y1
1/2
y3 =
y2 =
LT y = z = 0 1 1 y2 = 3/2 =

0 0
1
y3
1/3
y1 =

5/3
P x = y = x = y = 11/6
1/3

1
3
3
2
1
2

1
6

1
3

+ y3 = 11
6
+ y2 2y3 =

5
3

3. Para obtener la tercera columna de A1 debemos resolver Ax = e3 , es decir, debemos resolver los sistemas
Ly = P e3 y U x = y. La solucion de Ly = P e3 es y = (0, 0, 1)T y la solucion de U x = y es x =

1
1
1 T
. Por tanto, la tercera columna de A1 es
3, 3, 3

1
3

1

3
13

4. Para obtener la segunda fila de A1 , recordemos que (A1 )T = (AT )1 . Luego, encontrar la segunda fila
de A1 equivale a encontrar la segunda columna de (AT )1 , es decir, hay que resolver el sistema AT x = e2 .
Entonces se deben resolver los sistemas U T z = e2 , LT y = z y P x = y. La solucion de U T z = e2 es
z = (0, 1, 1/3)T , la solucion de LT y = z es y = (2/3, 4/3, 1/3)T y x = y pues P = I3 . Por tanto,
la segunda fila de A1 es


4
1
2

3
3
3
5. Para encontrar el elemento en la posicion (1, 1) de A1 , llamemoslo b11 , notemos que este elemento
est
a dado por el producto
b11 = eT1 A1 e1 .
Pero como P A = LU y P = I3 , tenemos que
A = LU/( )1 = A1 = U 1 L1 .
Luego,
b11 = eT1 A1 e1 = eT1 U 1 L1 e1 = eT1 U 1
pero
eT1 U 1 =

U 1

Entonces
b11 = (U T )1 e1
13

T

T

e1

T

L1 e1


L1 e1 ,

y debemos calcular los vectores x = (U T )1 e1 e y = L1 e1 , es decir, debemos resolver los sistemas


triangulares U T x = e1 y Ly = e1 . La solucion de U T x = e1 es x = (1/2, 1/2, 1/3)T y la solucion de
Ly = e1 es y = (1, 1, 1)T . Por tanto,

 1

1 1 1 2
1
b11 =
=
3
2 2 3
1

4.

Factorizaci
on de Cholesky

4.1.

Factorizaci
on LU de matrices sim
etricas

Consideremos la matriz

2
2 2 0
2 1
7 3
.
A=
2
7 28 10
0
3 10 17

A es simetrica, es decir, AT = A. Veamos c


omo esta propiedad influye cuando calculamos su matriz escalonada:

2
2 2 0
2 2 2 0
2 1
0 1
7
3
5 3

F2 + F1


2
0 5 30 10
7 28 10 F3 F1
0 3 10 17
0
3 10 17
Notemos que la submatriz (con elementos rojos) que debemos considerar ahora para pivotear tambien es simetrica. Lo mismo ocurre al seguir pivoteando:

2
0

0
0

2
1
5
3

2
5
30
10

0
3

10 F3 5F2
F4 3F3
17

2
0

0
0

2
1
0
0

2
5
5
5

0
2
0
3

0
5
0
F4 + F3
8

2
1
0
0

2
5
5
0

0
3
=U
5
3

Ademas, tenemos que A tiene una factorizacion LU , pues no tuvo que hacerse ning
un intercambio de filas
para llegar a U . Observando las operaciones elementales realizadas, tenemos que

2 2 2
0
1 0
0 0
0 1
1 1
5
3
0 0

,
U =
L=
0 0
1 5
5 5
1 0
0 0
0
3
0 3 1 1
son tales que A = LU .
Por u
ltimo, notemos que si

2
0
U =
0
0

2
1
0
0

2 0 0 0
0 1 0 0

D=
0 0 5 0
0 0 0 3

2
0
2
0
5
3
=
5 5 0
0
3
0

, entonces

0
1
0
0

0
0
5
0

Es decir,
A = LDLT
Este resultado no es un caso particular.

14

0
1 1 1
0
0
1 5

0 0
0 1
3
0
0 0

0
3
= DLT
1
1

Teorema. Sea A una matriz simetrica de n n. Si A tiene una factorizaci


on LU (es decir, A puede ser
escalonada sin intercambios de filas), entonces A puede factorizarse como
A = LDLT ,
donde L es la matriz triangular inferior con unos en la diagonal de la factorizaci
on LU y D es una matriz
diagonal cuyos elementos diagonales coinciden con los elementos diagonales de la matriz U (de la factorizaci
on
LU ).
Demostraci
on: Por hip
otesis, tenemos que AT = A y que A = LU , con L triangular inferior con unos en la
diagonal y U es triangular superior y forma escalonada de A.
T
Entonces U L1 es un producto de matrices triangulares superiores, por tanto, es triangular superior. Pero,
por otro lado, tenemos que U = L1 A, de donde
U L1

T

= (L1 A) L1

T


T
T


T 
= L1 U T .
= L1 L1 A
= L1 L1 AT
= L1 A L1

T
Entonces, U L1 = L1 U T tambien es producto de matrices triangulares inferiores, por tanto, es triangular
inferior.
T
De esta manera, hemos probado que U L1
es una matriz diagonal (es triangular superior e inferior a la
vez) y, claramente, los elementos diagonales de esta matriz coinciden con los elementos diagonales de U (pues
T
la matriz (L1 )T tiene unos en la diagonal). Anotamos U L1 = D, de donde es directo que U = DLT y
A = LU = LDLT .

Nota 1: La factorizacion para matrices simetricas A = LDLT se conoce como la primera factorizaci
on de
Cholesky (o la factorizaci
on de Cholesky sin races).
Nota 2: No todas las matrices simetricas tienen una factorizacion de la forma A = LDLT , pues si al escalonar
A se deben hacer intercambios de fila por obligacion, generalmente
la matriz PA (que s tendra una factorizacion

0 1 3 1
1 2 0 1

LU ) dejara de ser simetrica. Por ejemplo, la matriz A =


3 0 7 1 no tiene una factorizacion LU ,
1 1 1 0
pues es obligatorio cambiar la primera fila de lugar para comenzar el pivoteo. Si intercambiamos las filas 1 y 2:


0 1 3 1
1 2 0 1
1 2 0 1
1 2 0
1
1 2 0 1 0 1 3 1 0 1 3 1 0 1 3 1


A=
3 0 7 1 3 0 7 1 0 6 7 2 0 0 25 8
1 1 1 0
1 1 1 0
0 3 1 1
0 0 8 4

1
0
0
0
0 1 0 0
1 2 0
1
0
1 0 0 0
0 1 3 1
1
0
0

=
P =

0 0 1 0 y L = 3 6
0 0 25 8 = U
1
0
8
36
1 3 25
0 0 0 1
1
0 0 0 25
Claramente, aqu no se tiene que U = DLT .

4.2.

Formas cuadr
aticas

A continuacion veremos una aplicacion de la primera factorizacion de Cholesky y, al mismo tiempo, desarrollaremos algunos elementos teoricos que nos permitiran obtener la factorizacion de Cholesky para matrices
definidas positivas.

15

4.2.1.

Conceptos b
asicos

Definici
on: Una funci
on Q : Rn R ser
a una forma cuadr
atica (fc) si para todo x = (x1 , x2 , x3 , . . . , xn )
n
en R se tiene que
j1
n
n X
X
X
rij xi xj ,
Q(x) =
mk x2k +
j=1 i=1

k=1

donde mk , rij R para k, i, j {1, 2, . . . , n} e i < j.


Es decir, las formas cuadraticas son un tipo especial de polinomios con n variables que solo tienen coeficientes
distintos de cero en los terminos cuya potencia es exactamente 2.
Ejemplos:
1. Las formas cuadraticas Q : R2 R tendran la siguiente estructura:
Q(x, y) = m1 x2 + m2 y 2 + r12 xy.
Entonces,
Q(x, y) = (x + y)2 = x2 + y 2 + 2xy es una fc
Q(x, y) = (x y)2 = x2 + y 2 2xy es una fc

Q(x, y) = (x 2y + 1)2 = x2 + 4y 2 + 1 4xy + 2x 4y no es una fc, pues tiene


terminos lineales (2x y 4y) y un termino libre (1).
Q(x, y) = 0

s es una fc, pues m1 = m2 = r12 = 0.

2. Q : R3 R es fc si es de la forma
Q(x, y, z) = m1 x2 + m2 y 2 + m3 z 2 + r12 xy + r13 xz + r23 yz
Entonces:
Q(x, y, z) = (x y + 2z)2 = x2 + y 2 + 4z 2 2xy + 4xz 4yz es una fc.

2 1 2
x

x y z 0
4 1 y
Q(x, y, z) =
1
2 3
z

2x y + 2z


x y z
4y + z
=
x + 2y + 3z
= 2x2 + 4y 2 + 3z 2 xy + 3xz + 3yz

es una fc.

El u
ltimo ejemplo, en el que se describe una forma cuadratica por una expresion del tipo xT Ax, con A
matriz cuadrada y x vector columna es el caso general.

16

De hecho, si consideramos una matriz A = (aij )nn y un

a11
a21


x1 x2 x3 xn a31
xT Ax =
..
.
an1

x1

x2

x3

vector x = (x1 , x2 , . . . , xn ) tenemos que

x1
a12 a13 a1n

a22 a23 a2n


x2

x
a32 a33 a3n 3

.. ..
..
..
..
.
. .
.
.
an2

X
n
a1r xr

r=1
X
n

a2r xr

r=1
 X
n

a3r xr

r=1

..

X
n

anr xr

xn

r=1

n
X
s=1

xs

n
X

asr xr =

r=1

n X
n
X

an3

ann

xn

asr xs xr

s=1 r=1

Entonces, xT Ax es un polinomio con n variables que solo contiene terminos de grado 2, es decir, xT Ax es
una forma cuadratica.
Los terminos con x2i se obtienen cuando s = r = i en la suma, luego el coeficiente de x2i es aii para
i = 1, 2, . . . , n. Ademas, la suma tiene dos terminos con xi xj (cuando s = i, r = j y cuando s = j, r = i), as que
el coeficiente de xi xj es (aij + aji ).
Ahora, al considerar una forma cuadratica dada por
Q(x1 , x2 , . . . , xn ) =

n
X

mk x2k +

k=1

j1
n X
X

rij xi xj ,

j=1 i=1

es directo ver que basta tomar una matriz A = (aij )nn que cumpla aii = mi para i = 1, 2, . . . , n y aij +aji = rij
para i, j = 1, 2, . . . , n con i < j, para tener que
x Rn Q(x) = xT Ax
Definici
on: Sea Q : Rn R una forma cuadr
atica. Diremos que una matriz A de n n representa a la fc
Q si y s
olo si
x Rn Q(x) = xT Ax

Nota : Dada una forma cuadratica Q, existen infinitas matrices que la representan. Por ejemplo, si Q : R3 R
es la forma cuadratica definida por
Q(x, y, z) = 2x2 + 4y 2 + 3z 2 xy + 3xz + 3yz
(ver el u
ltimo ejemplo), entonces todas las matrices

2 1 2
4 1 ,
A1 = 0
1
2 3

2 5
A2 = 6 4
4 1

1
2 ,
3

2
A3 = 0
0
17

1 3
4 3 ,
0 3

1
A4 =
2
3
2

12

3
2

3
2

3
2

representan a Q (Compruebelo!). Pero existe una u


nica matriz simetrica que representa a Q (en este caso, A4 ).

Teorema. Sea Q(x) = xT Ax una forma cuadr


atica de Rn (A es una matriz cualquiera que representa a Q).
Entonces existe una u
nica matriz simetrica S que representa a Q.
Demostraci
on: Dividiremos la demostracion en dos partes: (i) probaremos la existencia de una matriz simetrica
que representa a Q y (ii) probaremos que esta matriz simetrica es u
nica.
(i) Para demostrar la existencia, notemos que si A representa a Q, entonces AT tambien representa a Q. Es
decir, si Q(x) = xT Ax, entonces Q(x) = xT AT x.
Pero esto es claro, pues los elementos de la diagonal de AT coinciden con los elementos de la diagonal de
A (es decir, en ambos casos el coeficiente del termino x2i es aii ). El coeficiente del termino cruzado xi xj
es (aij + aji ), pero al transponer la matriz, el coeficiente de xi xj es (aji + aij ) y nuevamente coinciden.
De esta manera,

Y, por tanto,



2Q(x) = Q(x) + Q(x) = xT Ax + xT AT x = xT Ax + AT x = xT A + AT x

1
Q(x) = xT A + AT x = xT
2

A + AT
2

A + AT
representa a Q y, ademas, es simetrica, pues
2
T



1
1
1
A + AT
A + AT
= (A + AT )T = (AT + (AT )T ) = (AT + A) =
2
2
2
2
2

Entonces, la matriz

Entonces, existe al menos una matriz simetrica que representa a Q.


(ii) Ahora debemos probar la unicidad de la matriz simetrica que representa a Q.
Pero primero probaremos el siguiente hecho:
Si S es simetrica y x Rn xT Sx = 0, entonces S = O.

(*)

Si tomamos x = e1 , tendremos que 0 = eT1 Se1 = s11 .


Si tomamos x = e2 , tendremos que 0 = eT2 Se2 = s22 .
Si tomamos x = e3 , tendremos que 0 = eT3 Se3 = s33 .
..
.
Si tomamos x = en , tendremos que 0 = eTn Sen = snn .
Con esto, hemos probado que la diagonal de S solo contiene ceros.
Ahora probaremos que cualquier elemento de S que est
a fuera de la diagonal tambien es cero. Para esto,
notemos que sij = eTi Sej , pero no podemos saber cuanto vale este elemento.
Si tomamos x = (ei + ej ), tendremos que
0 = (ei + ej )T S(ei + ej ) =

(eTi + eTj )Sei + (eTi + eTj )Sej

eTi Sei + eTj Sei + eTi Sej + eTj Sej

0 + sji + sij + 0

18

Luego, tenemos que sij + sji = 0.


Pero como S T = S, se tiene que sij = sji , tenemos que 2sij = 0, de donde obtenemos que sij = 0.
Por tanto, S = O y hemos probado la afirmaci
on (*).
Ahora, concluimos la demostracion de unicidad.
Debemos probar que si Q(x) = xT S1 x y Q(x) = xT S2 x para todo x Rn , con S1 y S2 simetricas, entonces
S1 = S2 .
Pero si Q(x) = xT S1 x = xT S2 x para todo x Rn , entonces xT S1 x xT S2 x = 0 para todo x Rn . Es
decir,

x Rn xT S1 S2 x = 0

y ademas, tenemos que S1 S2 es simetrica, entonces por (*) se tiene que S1 S2 = O, es decir, S1 = S2 .

Con este teorema, hemos probado que a cada forma cuadratica Q : Rn R le corresponde una u
nica
matriz simetrica S y que a cada matriz simetrica le corresponde una u
nica forma cuadratica. Asociamos, de
ahora en adelante, las formas cuadraticas con las matrices simetricas.
Por tanto, desde ahora, anotamos cada forma cuadratica Q por su representacion con la matriz simetrica
asociada a Q, es decir,
Q(x) = xT Sx
y todas las propiedades de las formas cuadraticas que estudiaremos a continuacion se realizaran a traves de su
matriz simetrica asociada.
4.2.2.

Clasificaci
on de las formas cuadr
aticas

El metodo mas difundido para clasificar las formas cuadraticas, se basa en el estudio de su recorrido. Lo
primero que debemos notar es que si Q es una fc en Rn , entonces

Q( 0 ) = 0 T S 0 = 0 T 0 = 0 0 = 0 R
Definici
on: Sea Q : Rn R una forma cuadr
atica con matriz simetrica S. Entonces:

Q (y su matriz S) es definida positiva si para todo vector x 6= 0 de Rn se tiene que


Q(x) = xT Sx > 0
Q (y su matriz S) es semidefinida positiva si para todo vector x de Rn se tiene que
Q(x) = xT Sx 0

Q (y su matriz S) es definida negativa si para todo vector x 6= 0 de Rn se tiene que


Q(x) = xT Sx < 0
Q (y su matriz S) es semidefinida negativa si para todo vector x de Rn se tiene que
Q(x) = xT Sx 0
Q (y su matriz S) es no definida si existe un vector x1 tal que Q(x1 ) = xT1 Sx1 > 0 y existe otro vector
x2 tal que Q(x2 ) = xT2 Sx2 < 0.

Ejemplos: Clasifiquemos las siguientes formas cuadraticas:

19

1. Q1 (x, y, z) = 5x2 + 3y 2 + 9z 2 es semidefinida positiva, pues Q1 (x, y, z) 0 para cualquier vector (x, y, z).
Pero, ademas, se tiene que
Q1 (x) = 0 5x2 + 3y 2 + 9z 2 = 0 (x, y, z) = (0, 0, 0)
Por lo tanto, si (x, y, z) 6= (0, 0, 0), tendremos Q1 (x, y, z) > 0. Es decir, Q1 es definida positiva.

2. Q2 (x, y, z, t) = x2 9y 2 2z 2 7t2 es definida negativa, pues Q2 (x, y, z, t) 0 para todo vector de


R4 . Pero cuando analizamos d
onde se hace cero, tenemos que

Q2 (x, y, z, t) = 0 x2 9y 2 2z 2 7t2 = 0 (x, y, z, t) = (0, 0, 0, 0),


por tanto, para todo vector distinto del vector sera la fc sera estrictamente negativa.

Notemos que una fc Q(


x ) es definida negativa si y solo si Q(
x ) es definida negativa.
3. Q3 (x, y, z) = 8x2 3y 2 + 2z 2 es una forma cuadratica no definida, pues
Q3 (1, 0, 1) = 8 + 2 = 10 > 0 y

Q3 (0, 1, 0) = 3 < 0

4. Q4 (x, y) = x2 + y 2 + 2xy es semidefinida positiva, pues podemos reescribirla como Q4 (x, y) = (x + y)2 0.
Estudiemos d
onde se hace cero, para decidir si, ademas, es definida positiva:
Q4 (x, y) = 0 (x + y)2 = 0 x + y = 0 (x, y) = (y, y) = y(1, 1)
Entonces tenemos vectores distintos de cero en los cuales Q4 vale cero. Esto significa que Q4 no es definida
positiva, solo es semidefinida positiva.
Ademas, como funci
on de R2 en R, vemos que Q4 alcanza su valor mnimo, que es cero, en toda la recta
L = h(1, 1)i.
Las formas cuadraticas que consideramos en los ejemplos son bastante simples. De hecho, salvo en el ejemplo
4, las matrices simetricas asociadas a todas las formas cuadraticas son diagonales.
Clasificar este tipo de formas cuadraticas es muy simple.

d11
0

Teorema. Sean D = 0
..
.

0
d22
0
..
.

0
0
simetrica asociada D. Entonces:

0
0
d33
..
.

..
.

0
0
0
..
.

dnn

y Q : Rn R una forma cuadr


atica con matriz
nn

(i) Q (y su matriz D) es definida positiva si y s


olo si dii > 0 para i = 1, 2, . . . , n.
(ii) Q (y su matriz D) es semidefinida positiva si y s
olo si dii 0 para i = 1, 2, . . . , n.
(iii) Q (y su matriz D) es definida negativa si y s
olo si dii < 0 para i = 1, 2, . . . , n.
(iv ) Q (y su matriz D) es semidefinida negativa si y s
olo si dii 0 para i = 1, 2, . . . , n.
(v ) Q (y su matriz D) es no definida si y s
olo si existen i, j {1, 2, . . . , n} tales que dii > 0 y djj < 0.
Demostraci
on: Probaremos (i), el resto de las afirmaciones quedan propuestas.
Basta notar que para todo x = (x1 , x2 , . . . , xn ) Rn
Q(x) = d11 x21 + d22 x22 + + dnn x2n
Supongamos que Q es definida positiva. Entonces Q(x) > 0 para todo x 6= 0. En particular, Q(e1 ) = d11 > 0,
Q(e1 ) = d22 > 0, . . . , Q(en ) = dnn > 0.
20

Si ahora suponemos que d11 > 0, d22 > 0, . . . , dnn > 0, entonces dii x2i 0 para i = 1, 2, . . . , n y Q(x) 0 para
todo x Rn . Ademas, se tiene que

d11 x21 = 0
x1 = 0

2
d22 x2 = 0
x2 = 0
Q(x) = 0 d11 x21 + d22 x22 + + dnn x2n = 0

x = 0
.
..

..

dnn x2n = 0
xn = 0
Entonces, para todo x 6= 0 tendremos que Q(x) > 0. Por tanto, Q es definida positiva.

C
omo clasificamos una forma cuadr
atica cuya matriz sim
etrica no es diagonal?
Consideremos la forma cuadratica
Q(x, y, z) = 4x2 + 3y 2 + 5z 2 5xy 6yz + 3xz
Para clasificarla, usaremos su representacion matricial:

Q(x, y, z) = x y

 5
z
2
3
2

25
3
3

3
2


x

3
y
z
5

y calcularemos la primera factorizacion de Cholesky de la matriz de Q:

3
3
3
4 25
4 25
4 52
2
2
2

5
23
33
33
F2 + 85 F1 0 23
3 3
16

S=
16

0 16 16 = U

2
33
3
33
34
71
F2
F3 + 23
F3 83 F1
0 16
0 0
3 5
2
16
23

1
0
0
5

T
Entonces L =
1
0
8
y como S es una matriz simetrica con una factorizacion LU , entonces U = DL
3
33 1
8
23

4 0
0

23

con D =
0 16 0 .
0 0 34
23
Con esto, tenemos que


3
1
0
0
4 0
0
1 85
x
8


 5
23
33

1
0 0 16 0 0 1 23 y
Q(x, y, z) = x y z 8
33
3
z
23
1
0 0
1
0 0 34
8
23

4 0
0
x 85 y + 38 z


23
33
33

x 85 y + 83 z y 23
z z
=
0 16 0 y 23 z
34
0 0 23
z

2
2

33
3
23
34
5
y z + z2
= 4 x y+ z +
8
8
16
23
23
Y, ahora, es claro que Q(x, y, z) 0 para todo (x, y, z) R3 as que ya sabemos que Q es semidefinida
positiva. Estudiamos d
onde se hace cero esta funci
on para decidir si es definida positiva:

x 85 y + 83 z = 0

Q(x, y, z) = 0
y 33
23 z = 0 (x, y, z) = (0, 0, 0)

z = 0
21

Entonces Q es definida positiva.


Este procedimiento sera el est
andar. Lo resumimos en el siguiente teorema.
Teorema. Sea S una matriz simetrica que tiene una factorizaci
on de Cholesky sin raz, es decir, S = LDLT ,
donde L es una matriz triangular inferior con unos en la diagonal y D = (dij ) es una matriz diagonal y sea
Q(x) = xT Sx. Entonces:
(i) Q (y la matriz S) es definida positiva si y s
olo si dii > 0 para i = 1, 2, . . . , n.
(ii) Q (y la matriz S) es semidefinida positiva si y s
olo si dii 0 para i = 1, 2, . . . , n.
(iii) Q (y la matriz S) es definida negativa si y s
olo si dii < 0 para i = 1, 2, . . . , n.
(iv ) Q (y la matriz S) es semidefinida negativa si y s
olo si dii 0 para i = 1, 2, . . . , n.
(v ) Q (y la matriz S) es no definida si y s
olo si existen i, j {1, 2, . . . , n} tales que dii > 0 y djj < 0.
Demostraci
on: Como S = LDLT , tenemos que
Q(x) = xT Sx = xT LDLT x = (LT x)T D(LT x)
Y haciendo la sustituci
on de variables u = LT x. Entonces:
Q(x) = Q(u(x)) = Q(u) = uT Du, donde u(x) = LT x
Cuando u 6= 0, tendremos que:
uT Du > 0 dii > 0 para i = 1, 2, . . . , n.
uT Du 0 dii 0 para i = 1, 2, . . . , n.
uT Du < 0 dii < 0 para i = 1, 2, . . . , n.
uT Du 0 dii 0 para i = 1, 2, . . . , n.
Pero, como u = LT x y LT es una matriz invertible, tendremos que la u
nica solucion del sistema LT x = 0 es
x = 0, lo que significa que
u 6= 0 LT x 6= 0 x 6= 0
Con esto, hemos probado las afirmaciones (i), (ii), (iii) y (iv ).
Para la afirmaci
on (v ), supongamos que Q(x) es no definida, entonces existen dos vectores distintos x1 y x2
tales que Q(x1 ) > 0 y Q(x2 ) < 0. Entonces u1 = LT x1 y u2 = LT x2 son dos vectores distintos (pues LT es
invertible) tales que uT1 Du1 > 0 y uT2 Du2 < 0, luego, existen i, j {1, 2, . . . , n} tales que dii > 0 y djj < 0.
Si ahora suponemos que existen dii > 0 y djj < 0, entonces eTi Dei > 0 y eTj Dej < 0 y tomando x1 = (LT )1 ei ,
x2 = (LT )1 ej , habremos encontrado dos vectores distintos para los cuales tenemos que Q(x1 ) > 0 y Q(x2 ) < 0
y Q es no definida.
Nota 1: Usando la factorizacion S = LDLT , podremos escribir la fc Q(x) = xT Sx como una suma ponderada
de terminos al cuadrado. As, por ejemplo,

1
1 21

1
3
4
Q(x, y, z) = x2 3y 2 + z 2 + 2xy xz + 8yz Q(
x)=
xT

x
1
4
1
2
Y

S=
1
21

1
3
4

12

4
F2 F1 0 4
0 92
1
F3 + 12 F1
22

12
9
2
3
4

F3 + 89 F2

0
0

1
4
0

12
9
2

93
16

1
Luego, si L = 1
21

tenemos que

0
1
89

0
1
0 y D = 0
1
0

0
4
0

0
0 , entonces S = LDLT y tomando

93
16



x + y 21 z
x
u

u = v = LT y =
y 8z
z
w
z

93

2
Q(
x)=
x T S
x =
u T D
u = u2 4v 2 + w2 = (x + y 21 z)2 4(y 89 z)2 + 93
16 z
16
El proceso para escribir una forma cuadratica como suma ponderada de terminos cuadrados se conoce como
la diagonalizaci
on de la forma cuadr
atica.
Nota 2: No toda forma cuadratica puede ser diagonalizada.

De hecho, la forma cuadratica Q(x, y) = 2xy
0 1
no tiene diagonalizacion, pues su matriz simetrica S =
no tiene factorizacion LU . A pesar de esto,
1 0
podemos clasificar esta forma cuadratica que resulta ser no definida, pues Q(1, 3) > 0, pero Q(1, 2) < 0.

4.3.

Matrices definidas positivas

En esta secci
on vamos a estudiar las principales propiedades de las matrices definidas positivas y las caracterizaremos a traves de la Factorizacion de Cholesky con races.
4.3.1.

Propiedades de las matrices definidas positivas

Primero, recordemos dos hechos fundamentales que a menudo se olvidan:


1. Todas las matrices definidas positivas son simetricas, pues son las matrices asociadas a las formas cuadraticas
definidas positivas.
2. Una matriz S es definida negativa si y solo si S es definida positiva. Con esto, sera obvio que los siguientes
resultados tambien se extienden para matrices definidas negativas.
Teorema. Si S es una matriz definida positiva, entonces S es invertible.
Demostraci
on: Supongamos que S es definida positiva, pero no invertible. Entonces el sistema Sx = 0 tiene
infinitas soluciones. Es decir, existe un vector x0 6= 0 tal que Sx0 = 0 y, por tanto, xT0 Sx0 = xT0 (Sx0 ) = xT 0 = 0.
Esto contradice el hecho de que S es definida positiva.
As, es necesario que S sea invertible.
Para establecer el siguiente resultado, definiremos las submatrices principales de una matriz cuadrada.
Definici
on: Sea A = (aij ) una matriz de n n. Las submatrices pricipales de A son las matrices A1 , A2 , . . . ,
An tales que , para k = 1, 2, . . . , n, Ak es una matriz de k k y su elemento en la posici
on (i, j) es aij .

1 2
3 4 5 6
1 2 3 5 1 0



0 2
1 1 2 2
1 2

Es decir, las submatrices pricipales de A =


son: A1 = (1), A2 =
,
1 2 4 1
1 2
0 0

1 1
1 8 1 0
1 2
4 3 2 1

1 2 3 4 5

1 2 3 4
1 2 3 5 1
1 2 3
1 2 3 5

0 2 1 1 2 , A6 = A.

A3 = 1 2 3 , A4 =
,
A
=
5

0 2 1 1
0 0 1 2 4
0 2 1
0 0 1 2
1 1 1 8 1
23

Teorema. Si S es una matriz definida positiva, entonces todas las submatrices principales de S son definidas
positivas.
Demostraci
on: Sabemos que para todo x 6= 0 en Rn se tiene que xT Sx > 0. Para cada k {1, 2, . . . , n},
debemos probar que xTk Sk xk > 0, donde xk es cualquier vector no nulo de Rk .
Sea xk = (a1 , a2 , . . . , ak ) un vector no nulo de Rk . Entonces x = (a1 , a2 , . . . , ak , 0, . . . , 0) es un vector no nulo
de Rn y como es claro que
xT Sx = xTk Sk xk
, tenemos que Sk es una matriz definida positiva.
Una consecuencia directa de los dos teoremas anteriores.
Corolario. Todas las submatrices principales de una matriz definida positiva son invertibles.
Teorema. Si S es una matriz definida positiva, entonces S tiene una factorizaci
on LU (es decir, S se puede
escalonar sin hacer intercambios de filas).
Demostraci
on: Como S = (sij ) es definida positiva, todas sus submatrices principales son invertibles. Entonces, en particular, S1 = (s11 ) 6= O, es decir, s11 6= 0 y podremos pivotear para eliminar todos los elementos
bajo este primer pivote, sin necesidad de intercambiar filas.
21
F1 para eliminar el segundo elemento de la primera columna, al
Pero cuando hacemos la operaci
on F2 ss11
mismo tiempo estamos escalonando la submatriz S2 y como es invertible, el nuevo elemento ubicado en la
posicion (2, 2) de S y de S2 debe ser distinto de cero (de hecho, sabemos que debera ser positivo pues S2 es
definida positiva). Por tanto, no es necesario intercambiar filas para eliminar los elementos que est
an bajo el
segundo pivote.
Recursivamente, siguiendo este procedimiento, notamos que al escalonar S estamos escalonando todas las submatrices principales de S al mismo tiempo y siempre obtendremos pivotes positivos, por lo que nunca necesitaremos
intercambiar filas para terminar el pivoteo y llegar a U . Obteniendo la factorizacion LU de S.
4.3.2.

Segunda Factorizaci
on de Cholesky

Sea S una matriz definida positiva. Entonces, S = LU y, de hecho, por ser simetrica, S = LDLT . Ademas
sabemos que D tiene solo elementos estrictamente positivos en su diagonal.
Entonces, podemos hacer la siguiente factorizacion de D:

d11 0

0
d11 0

0
d11 0
0

0 d22
d22
0
d22
0
0
0
0

=
D= .

.
.
.
..
.
.
.
.
..
..
..
.. ..
..
.. ..
..
..

..
.
.
.
.

0
0 dnn
0
0

0
0

dnn
dnn

d11 0

0
0
d22
0
T

, tendremos que D = D y, por tanto,


Si ponemos D = .

.
.
.
..
..
.
..
.
0
0

dnn
D=

T
D D

Entonces obtendremos la Fractorizaci


on de Cholesky con races para S:
 T
T
S = L D D LT = L D L D

Llamamos K a la matriz L D, que es una matriz triangular inferior con n


umeros estrictamente positivos
en la diagonal.
24

Con esto, ya tenemos probado el siguiente teorema:


Teorema. Sea S una matriz simetrica. Entonces S es definida positiva si y s
olo si existe una matriz K
triangular inferior con elementos estrictamente positivos en la diagonal tal que
S = KK T .

El siguiente corolario refleja el u


ltimo teorema en lenguaje de formas cuadraticas.
Corolario. Sea Q una forma cuadr
atica. Entonces Q es definida positiva si y s
olo si Q(x) se puede escribir
como una suma de terminos cuadrados.
Ejemplo: Consideremos la forma cuadratica Q(x, y, z) = 3x2 + 7y 2 + 8z 2 6xy + 6xz 14yz. Entonces, su
matriz simetrica es:

3 3
3
3 3
3
3 3
3
7 7 F2 + F1 0
4 4
4 4
S = 3
0
F3 F1
3 7
8
0 4
5
F3 + F2
0
0
1

1
0 0
3 0 0
1 0 , D = 0 4 0 y podemos concluir que Q es definida positiva, la esLuego L = 1
0 1 1
0 0 1
cribiremos como una suma de terminos positivos. Para esto, calculamos la factorizacion de Cholesky con races
de S.

0 0
3 0 0

3
Tenemos que D = 0 2 0 y K = L D = 3
2 0 .
0 0 1
0 2 1
As,



x
0 0
3 3
0

3

y
Q(x, y, z) = x y z
0
2 2
3
2 0
z
0
0
1
0 2 1

2
2
=
3x 3y + 2y 2z + z 2
Concluimos con un ejercicio tipo prueba.
Ejercicio: Considere la funci
on f : R3 R definida por

f (a, b, c) = 9 5(a 3)2 + 20(a 3)(b + 2) + 30(a 3)c 22(b + 2)2 52(b + 2)c 53c2

a) Haciendo el cambio de variables (x, y, z) = (a 3, b + 2, c), demuestre que la forma cuadratica


q(x, y, z) = f (a, b, c) 9
es semidefinida negativa.
b) Encuentre el conjunto de todos los vectores (x, y, z) R3 para los cuales q(x, y, z) = 0 y, usando esto,
concluya que 9 es el valor maximo que alcanzar
a la funci
on f y determine todos los puntos (a, b, c) en los
cuales f alcanza este valor.

25

n:
Solucio
a)
q(x, y, z) =
=

5x2 + 20xy + 30xz 22y 2 52yz 53z 2


15
x
 5 10
x y z 10 22 26 y
15 26 53
z

5 10
15
Basta probar que la matriz A = 10 22 26 es semidefinida negativa.
15 26 53

5 10
15
10 22 26 F2 + 2F1
F3 + 3F1
15 26 53

5 10 15
0 2 4
0
4 8
F3 + 2F1

5 10 15
0 2 4 = U
0
0
0

Aqu, ya puede concluirse que A es semidefinida negativa, pues los elementos de la diagonal de U ( y de
D) son 5, 2 y 0. Por lo tanto, la forma cuadratica q(x, y, z) 0 para todo (x, y, z) 6= 0.
b) Para determinar los vectores pedidos, calculamos la factorizacion de Cholesky de A. Pero, por la parte
anterior,
A =
=

=
=

LU

5
1
0 0
2 1 0 0
0
3 2 1

5
1
0 0
2 1 0 0
0
3 2 1

10 15
2 4
0
0

1
0 0
2 0 0
0
0 0

LDLT

2 3
1 2
0
1

Luego, la forma cuadratica queda


q(x, y, z) = x y


x
z LDLT y
z


x
w1
x 2y 3z
y, poniendo w = w2 = LT y = y 2z , se tiene que
w3
z
z

q(w) = 5w12 2w22 = 5(x 2y 3z)2 2(y 2z)2 .


Por lo tanto, q(x, y, z) = 0 si y solo si

Es decir,

x 2y 3z
y 2z

= 0
= 0



x
7z
7
y = 2z = z 2
z
z
1
26

Por lo tanto, el conjunto de los vectores (x, y, z) para los cuales q(x, y, z) = 0 es la recta
h{(7, 2, 1)}i.

Ahora, como q(
x ) 0 para todo
x R3 , entonces
f (a, b, c) = 9 + q(x, y, z) 9

f (3, 2, 0) = 9.

De donde se concluye que 9 es el valor maximo de la funci


on f .
Ademas, f (a, b, c) = 9 si y solo si q(x, y, z) = 0. Luego,


x
7
f (a, b, c) = 9 y = z 2
z
1


a3
7
b + 2 = c 2
c
1


a
3
7
b = 2 + c 2
c
0
1
Entonces, el conjunto de puntos en que f alcanza su maximo es la recta
(3, 2, 0) + h{(7, 2, 1)}i.

27


MAT1203 Algebra
Lineal
Gua N 4 Matrices elementales y Factorizaciones matriciales

1. Sean A una matriz de m n y M una matriz elemental de orden n n. Determine como se relaciona la
matriz A0 = AM con A. (Recuerde que si E es una matriz elemental de orden m m, entonces la matriz
A00 = EA se obtiene al realizar en A la operaci
on elemental representada por E.) Sugerencia: Considere,
por separado, los casos: M = Pij , M = Ei(c) y M = Eij(c) .
2. Si P = P1 P2 Pk , donde las Pi son matrices elementales de permutacion, demuestre cada una de las
siguientes afirmaciones:
a) P es la matriz identidad con sus filas permutadas.
b) P 1 = P T .
c) Por medio de un ejemplo, pruebe que, en general, P 1 6= P (esto equivale a probar que, en general,
P T 6= P ).
3.

a) Demuestre que el producto de matrices triangulares inferiores con 1s en su diagonal es triangular


inferior con 1s en su diagonal y que el producto de triangulares superiores es triangular superior.
b) Demuestre que la inversa de un matriz triangular superior existe si y solo si los elementos de su
diagonal son no nulos.
c) Demuestre que la inversa de una triangular inferior con 1s en la diagonal es triangular inferior con
1s en la diagonal y que la inversa de una triangular superior es triangular superior (cuando existe).
d ) Usando todo lo anterior, demuestre que si A tiene inversa y A = L1 U1 = L2 U2 , entonces L1 = L2 y
U1 = U2 , es decir, la factorizacion A = LU es u
nica cuando A es invertible.

4. Sea

1
1

A=
0
1
1

2
2
0
1
0

0
1
1
1
1

1
2

1
1

a) Calcule la factorizacion P A = LU .
b) Escriba las filas de A como combinaciones lineales de las filas de U y las filas de U como combinaciones
lineales de las filas de A.
c) Escriba L y L1 como el producto de matrices elementales.
5. Si
A1

a
= d
g

b
e
h

c
f
i

y B es una matriz que se obtiene de A, sumando dos veces la primera fila a la tercera, luego, intercambiando
la segunda y la tercera filas y, por u
ltimo, amplificando la primera fila por 3. Determine B 1 .
6. Suponga que la matriz A se factoriza como P A = LU , donde

1 2 1 b
1 2
A = 2 a 1 8 y U = 0 0
c d e f
0 0

0 3
1 2
0 0

1
Determine la solucion de Ax = 1 y todos los vectores b R3 para los cuales el sistema Ax = b es
1
compatible.

28

7. Sean

U =

1 1
1 3

0
1 3
0

0
0
3
9
,
L
=

0
0
0
0
0
0
0
0

1
0
2
3
1

0
1
2
3
2

0
0
1
1
1

0
0
0
1
0

0
0
0
0
1

y A = LU . Determine todos los vectores de b R5 para los cuales el sistema Ax = b no tiene solucion.
8. Suponga que A satisface

1 0 0 0
0 0 0 1

0 1 0 0

0 0 1 0
0 0 0 0

la igualdad

0
1
1
0

0
A = 1
2
0
1
1

0
0
0
1
0
0
2
1
0
1 1
1
1
1 1

0
0
0
0
1

u11 u12 u13


0 u22 u23
0
0 u33
0
0
0
0
0
0

u14
u24
u34
u44
0

u15
u25
u35
u45
0

Si uii 6= 0 para i = 1, 2, 3, 4, encuentre todos los vectores b R5 para los cuales el sistema Ax = b no tiene
solucion.
9. Suponga que A de m n se factoriza como A = LU , con L triangular inferior con 1s en la diagonal y U es
triangular superior. Demuestre que U tiene inversa por izquierda si y solo si A tiene inversa por izquierda.
10. Sea A una matriz tal que P A = LU , donde

0 0 1
1 0
P = 1 0 0 , L = 2 1
0 1 0
3 2

0
0 ,
1

2
U = 0
0

1
1
1
2 .
0 1

2
a) Determine la solucion de Ax = 1 .
1

2
b) Determine la solucion de AT x = 1 .
1

c) Determine solamente la segunda columna de A1 .

d ) Determine el elemento de A1 ubicado en la segunda fila y en la tercera columna.


11.

a) Sean A y B dos matrices simetricas tales que A es definida positiva y B es semidefinida positiva.
Demuestre que si > 0 y > 0 entonces la matriz A + B es simetrica definida positiva.
b) Sea C una matriz invertible. Demuestre que la matriz A es simetrica y definida positiva si y solo si
la matriz C T AC es simetrica y definida positiva.
c) Sea A una matriz invertible. Demuestre que A es simetrica y definida positiva si y solo si A1 es
simetrica y definida positiva.
d ) Demuestre que si A es una matriz simetrica y definida positiva, entonces An tambien es simetrica y
definida positiva para todo n N.

e) Sea F una matriz cualquiera de orden m n. Demuestre que las matrices F T F y F F T son simetricas
y semidefinidas positivas. Determine condiciones sobre F para que se garantice que F T F y F F T sean
definidas positivas.
f ) Sea G una matriz simetrica e invertible. Demuestre que G2k es simetrica y definida positiva para
todo k Z.

12. Sea A simetrica y definida positiva de orden n y sea B una matriz de n 1. Pruebe que C = 2A3 + 3BB T
es simetrica y definida positiva.

29

13. El siguiente metodo permite, mediante la factorizacion de Cholesky, encontrar la inversa de cualquier
matriz invertible. Justifique o demuestre, seg
un corresponda, cada paso y aplique el metodo para calcular
la inversa de

1 1 1 4
3 7 11 14

A=
1 3 5 6
2 4 5 8
Sea A una matriz invertible de orden n y sea B = AT A.
i) Existe una matriz K triangular inferior con elementos positivos en la diagonal, tal que B = KK T .
ii) El sistema matricial KX = AT tiene solucion u
nica.
iii) El sistema matricial K T Y = X tiene solucion u
nica.
iv) La matriz Y encontrada en el punto anterior es la inversa de A.
14. Sea A una matriz simetrica de orden n que puede factorizarse A = LU . Demuestre que A es definida
positiva si y solo si todos los pivotes de U son positivos. Como son los pivotes de U cuando A es
semidefinida positiva, definida negativa o semidefinida negativa?
15. Sean y dos n
umeros reales distintos de cero. Determine los valores de x para los cuales la matriz

x
1

4
+
B = 1
2
+ 5 + 2
es definida positiva independientemente de los valores de y .
16. Determine condiciones para x e y de modo que

1 0 0
0 1 0

0 0 1

0 0 0

0 0 0

0 0 0
x x x

la matriz
0 0
0 0
0 0
1 0
0 1
0 0
x x

0
y
0
y

0
y

0
y

0
y

1
y
x 1 + 6y

sea definida positiva.


17. Clasifique las siguientes formas cuadraticas. Determine la escritura diagonal de cada forma .
a) q(x) = 2x21 4x1 x2 + 4x1 x3 + 5x22 + 8x2 x3 + 16x23

b) q(x) = x21 + 4x1 x2 + 6x1 x3 + 8x1 x4 + 6x22 + 20x2 x3 + 12x2 x4 + 19x23 + 8x3 x4 + 28x24
c) q(x) = 2x21 8x1 x2 + 8x1 x3 + 10x22 8x2 x3 + 4x2 x4 + 19x23 + 8x3 x4 + 3x24

d ) q(x, y, z, t) = x2 + 5y 2 + 4z 2 + 3t2 2xy 2xt 6yt + 4yz 2zt

e) q(x, y, z, t) = 16x2 + 5y 2 + 67z 2 + 46t2 16xy 24xz + 8xt + 26yz + 4yt + 38zt


1 1 1
18. Sea A =
, a R. Diagonalice la forma cuadratica asociada a AAT .
0 1 a
19. Considere la forma cuadratica Q(x, y, z) = x2 + 2axy + y 2 + 2yz + 4z 2 .
a) Determine todos los valores de a para los cuales Q es definida positiva.
b) Para los valores de a encontrados, escriba Q como suma de cuadrados.
20. Determine todas las formas cuadraticas Q : R2 R que son definidas positivas.

30

Respuestas:

4.a.

1
0

P = 0
0
0

4.b. Si

0 0
0 0
0 1
0 0
1 0

A1
A2

A = A3
A
4
A5

0
1
0
0
0

1 0
0
0
0
0
1 1

1
0, L = 0 0

1 2 1
1
1 0
1
0

U1
U2

U = U3 , entonces
U
4
U5

0
0
0
1
0

0
0

0
0
1

1
0

U = 0
0
0

2
1
0
0
0

0
1
1
0
0

1
0

1
1
0

A1 = U1 , A2 = U1 + U3 + U5 , A3 = U3 , A4 = U1 + U2 y A5 =

U1 + 2U2 U3 + U4 . Ademas, U1 = A1 , U2 = A4 A1 , U3 = A3 , U4 = A1 + A3 2A4 + A5 .


4.c. L = E21(1) E41(1) E51(1) E42(2) E43(1) E53(1) y L1 = E53(1) E43(1) E42(2) E51(1) E41(1) E21(1) .
1


3 a + 23 c c b
1

2
1
6. El sistema Ax = 1 no tiene soluci
5. B 1 =
d
+
f
f
e

on y el sistema Ax = b es compatible si y
3
3

1
1
2
g+ i
i h
3

solo si b h{(1, 0, 1), (0, 1, 1)}i. 7. Ax = b no tiene solucion si y solo si b


/ h{(1, 0, 1, 2, 0), (0, 1, 0, 1, 0), (0, 0, 1, 1, 1)}i.
8. Ax = b no tiene solucion si y solo si b
/ h{(1, 0, 0, 0, 3), (0, 1, 0, 0, 0), (0, 0, 1, 0, 1), (0, 0, 0, 1, 2)}i. 10.a.
x = ( 72 , 4, 2)
10.b. x = (10, 6, 1) 10.c. La segunda columna de A1 se obtiene resolviendo Ax = e2 y es el vector
( 32 , 2, 1)T . 10.d. El elemento buscado es 0.
15. No existen valores de x que hagan la matriz definida positiva para todo valor de y de .
16. 16 > y(x 1). 17.a. q es definida positiva y q(x) = 2(x1 x2 + x3 )2 + 3(x2 + 2x3 )2 + 2x23 b. q es
definida positiva y q(x) = (x1 + 2x2 + 3x3 + 4x4 )2 + 2(x2 + 2x3 x4 )2 + 2(x3 2x4 )2 + 2x24 c. q es definida
positiva y q(x) = 2(x1 2x2 + 2x3 )2 + 2(x2 + 2x3 + x4 )2 + 3x23 + x24 d. q no puede ser clasificada, pues
q(x) = (x1 x2 x4 )2 + 4(x2 + 12 x3 x4 )2 + 3(x3 + 13 x4 )2 37 x24 e. q es definida positiva y q(x) = 16(x1
3
1
2
1
2
2
2
2
2 x2 4 x3 + 4 x4 ) + (x2 + 7x3 + 4x4 ) + 9(x3 3 x4 ) + 25x
h
i 4
18. Q(x, y) = 3(x +
1
2
1a2 z)

34a
1a2

z2.

1+a 2
3 y)

+ 23 (a2 a + 1)y 2 . 19.a. a

31

3
3
,
2
2

b. Q(x, y, z) = (x + ay)2 + (1 a2 )(y +

Potrebbero piacerti anche