Sei sulla pagina 1di 73

Apuntes de algebra lineal

Eduardo Liz Marz

an
Noviembre de 2012.

Indice general
1. Introduccion 5
1.1. Operaciones internas y estructura de cuerpo. . . . . . . . . . . . . . . . . . . . . 5
1.2. N umeros complejos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2. Matrices y determinantes 11
2.1. Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Denicion y tipos de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Operaciones con matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4. Propiedades de la trasposicion de matrices. . . . . . . . . . . . . . . . . . . . . . 16
2.5. Traza de una matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6. Matrices elementales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7. Forma escalonada y rango de una matriz. . . . . . . . . . . . . . . . . . . . . . . 19
2.8. Calculo de la inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.9. Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.10. Formas cuadraticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3. Sistemas de ecuaciones lineales 29
3.1. Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2. Expresion matricial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3. Existencia de soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4. Conjuntos de soluciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5. Matrices cuadradas y uso de la factorizacion LU. . . . . . . . . . . . . . . . . . . 33
3.6. Mnimos cuadrados. Ajuste. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4. Espacios vectoriales y aplicaciones lineales 41
4.1. Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2. Espacios y subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3. Independencia lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4. Bases y dimension. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.5. Cambio de base en R
n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.6. Bases ortonormales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.7. Denicion de aplicacion lineal y propiedades. . . . . . . . . . . . . . . . . . . . . 49
4.8. N ucleo e imagen de una aplicacion lineal. . . . . . . . . . . . . . . . . . . . . . . 50
3
4.9. Transformaciones ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.10. Proyeccion ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5. Diagonalizacion y funciones de matrices 55
5.1. Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2. Autovalores y autovectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3. Matrices diagonalizables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.4. Diagonalizacion ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.5. Clasicacion de formas cuadraticas usando la diagonalizacion ortogonal. . . . . . 63
5.6. Descomposicion Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.7. Descomposicion en valores singulares. . . . . . . . . . . . . . . . . . . . . . . . . 64
5.8. Teorema de Cayley-Hamilton. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.9. Funciones de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
Referencias 73
Captulo 1
Introducci on
1.1. Operaciones internas y estructura de cuerpo.
Una operacion interna en un conjunto A es una correspondencia que asigna a cada par
de elementos a, b A un elemento c = a b A.
Consideraremos dos tipos de operaciones internas, que denotaremos por suma (+) y pro-
ducto (). Si A es un conjunto con una o dos operaciones internas, A puede tener distintas
estructuras seg un las propiedades que veriquen estas operaciones. Consideraremos las siguien-
tes propiedades:
1. Propiedad asociativa: (a b) c = a (b c) , a, b, c A. Esta propiedad permite operar
mas de dos elementos. En este caso escribiremos simplemente a b c.
2. Elemento neutro: Se dice que (A, ) tiene elemento neutro si existe e A tal que a e =
e a = a , a A. En la suma, el elemento neutro se llama cero (0) y en el producto se
llama uno (1). El elemento neutro, si existe, es unico.
3. Elemento simetrico: Se dice que a A tiene elemento simetrico si existe a

A tal que
a a

= a

a = e. En el caso de la suma, el elemento simetrico se llama elemento opuesto


y se denota por a (a + (a) = (a) + a = 0). En el caso del producto, se llama inverso
y se denota por a
1
(a a
1
= a
1
a = 1).
4. Propiedad conmutativa: a b = b a , a, b A. Si una operacion producto verica la
propiedad conmutativa entonces el elemento inverso se denota por 1/a.
5. Propiedad distributiva. Si A tiene denida una suma y un producto, se dice que el producto
es distributivo con respecto a la suma si
a (b +c) = a b +a c
(a +b) c = a c +b c ,
para todo a, b, c A.
5
6 1. Introduccion
Se dice que un conjunto con una operacion interna (A, ) es un grupo conmutativo si verica
las propiedades asociativa y conmutativa, tiene elemento neutro y todo elemento tiene simetrico.
Dos ejemplos de grupos conmutativos son (R, +), (C, +), (R 0, ) y (C 0, ).
Observacion. Si B es un subconjunto de A, se denota A B = x A/ x , B. En particular,
si a A, A a = x A/ x ,= a.
Se dice que un conjunto con dos operaciones internas (A, +, ) es un cuerpo conmutativo
si (A, +) y (A0, ) son grupos conmutativos y se verica la propiedad distributiva del produc-
to respecto a la suma. Los conjuntos de n umeros reales y n umeros complejos (R, +, ), (C, +, )
son cuerpos conmutativos.
1.2. N umeros complejos.
Un n umero complejo es un par de n umeros reales z = (a, b). El n umero real a se llama
parte real de z y b se llama parte imaginaria.
Si denotamos 1 = (1, 0), i = (0, 1), se escribe z = (a, b) = a(1, 0) + b(0, 1) = a + bi
(Forma binomica). El n umero complejo i = (0, 1) se llama unidad imaginaria. As, denotaremos
el conjunto de los n umeros complejos como C = a +bi : a, b R.
Los n umeros complejos se representan en un plano bidimensional. El eje horizontal se llama
eje real
2
el eje vertical se llama eje imaginario.
Operaciones en C
Suma. Sean z
1
= a
1
+ b
1
i, z
2
= a
2
+ b
2
i dos n umeros complejos. Se dene z
1
+ z
2
=
(a
1
+a
2
) + (b
1
+b
2
)i.
Producto. El producto de n umeros complejos se realiza en forma binomica, teniendo en
cuenta que i
2
= 1, es decir, (a
1
+b
1
i)(a
2
+b
2
i) = (a
1
a
2
b
1
b
2
) + (a
1
b
2
+b
1
a
2
)i.
Con estas dos operaciones, (C, +, ) tiene estructura de cuerpo conmutativo: El elemento neutro
de la suma es 0 = 0 + 0i, y el elemento opuesto de z = a +bi es z = a bi.
El elemento neutro del producto es 1 = 1 +0i. Todo elemento distinto de cero tiene inverso
para el producto. Para denir el inverso se suele usar el conjugado, que se dene del siguiente
modo: si z = a +bi C, se dene su conjugado como z = a bi. Observese que z z = a
2
+b
2
y
por tanto
z
1
=
1
z
=
a bi
a
2
+b
2
,
que esta bien denido para z ,= 0.
Modulo y argumento
Sea z = a+bi C. Se dene el modulo de z como el n umero real [z[ = +

a
2
+b
2
. Observese
que [z[ 0 , z C y [z[ = 0 z = 0. Ademas, z z = [z[
2
, y z
1
= z/[z[
2
, z ,= 0.
El modulo de z representa su distancia al origen en el plano complejo. Se dene el argumento
de z = a + bi como el angulo (, ] que verica [z[ cos() = a y [z[ sen() = b. De este
1.3. Vectores. 7
modo, z = [z[(cos() + sen()i), que es la llamada forma trigonometrica de z. El argumento
representa el angulo que forma el vector (a, b) en el plano complejo con el eje real.
Utilizando las formulas trigonometricas para el seno y el coseno de la suma, se obtiene que si
z
1
= [z
1
[(cos(
1
) +sen(
1
)i) y z
2
= [z
2
[(cos(
2
) +sen(
2
)i) son dos n umeros complejos entonces
z
1
z
2
= [z
1
[[z
2
[(cos(
1
+
2
) + sen(
1
+
2
)i),
es decir el modulo del producto es el producto de los modulos y el argumento del producto es la
suma de los argumentos. De este modo, se obtiene inmediatamente que si z = [z[(cos()+sen()i)
entonces z
n
= [z[
n
(cos(n) + sen(n)i), n N.
Forma exponencial
Si b R, se dene e
bi
= cos(b) + sen(b)i. De este modo, se extiende la funcion exponencial
real a C manteniendo sus propiedades principales; en particular, si z = a + bi entonces e
z
=
e
a+bi
= e
a
e
bi
= e
a
(cos(b) + sen(b)i).
Teniendo en cuenta esto, si z = [z[(cos() + sen()i), tambien se puede representar en la
forma z = [z[e
i
, que se llama forma exponencial de z.
Ejemplo: 1 +i =

2(cos(/4) +i sen(/4)) =

2 e

4
i
.
1.3. Vectores.
Se dene R
2
como el conjunto de los pares ordenados de n umeros reales, es decir:
R
2
= (x
1
, x
2
) / x
1
, x
2
R .
Cada elemento (x
1
, x
2
) de R
2
es un punto en el plano bidimensional; la proyeccion sobre el
eje horizontal es la coordenada x
1
y la proyeccion sobre el eje vertical es la coordenada x
2
. El
punto (x
1
, x
2
) se llama vector de R
2
y se puede representar por una echa con origen en (0, 0)
y extremo en (x
1
, x
2
).
La suma de dos vectores de R
2
se realiza coordenada a coordenada; si x = (x
1
, x
2
) e
y = (y
1
, y
2
) entonces
x +y = (x
1
, x
2
) + (y
1
, y
2
) = (x
1
+y
1
, x
2
+y
2
).
El producto de un escalar R por un vector (x
1
, x
2
) de R
2
proporciona otro vector x dado
por
x = (x
1
, x
2
) = (x
1
, x
2
).
Tanto el conjunto R
2
como las operaciones de suma y producto por escalares se generalizan
a dimensiones mayores. As,
R
3
= (x
1
, x
2
, x
3
) / x
1
, x
2
, x
3
R ,
y, en general, para cada n umero natural n 2, se dene
R
n
= (x
1
, x
2
, . . . , x
n
) / x
i
R, i = 1, 2, . . . , n .
8 1. Introduccion
Por ejemplo, x = (2, 1, 0, 2) es un vector de R
4
.
Un vector v R
n
es una combinacion lineal de vectores v
1
, v
2
, . . . , v
k
de R
n
si se obtiene
de los anteriores mediante sumas y productos por escalares, es decir:
v =
1
v
1
+
2
v
2
+
k
v
k
.
Por ejemplo,
(5, 2, 8) = 2(1, 1, 1) + 3(1, 0, 2),
de modo que v = (5, 2, 8) es una combinacion lineal de v
1
= (1, 1, 1) y v
2
= (1, 0, 2).
Se dice que k vectores v
1
, v
2
, . . . , v
k
de R
n
son linealmente independientes si ninguno
de ellos es combinacion lineal del resto. Por ejemplo, v
1
= (1, 1, 1) y v
2
= (1, 0, 2) son vectores
de R
3
linealmente independientes.
El conjunto de todas las combinaciones lineales de k vectores v
1
, v
2
, . . . , v
k
de R
n
se llama
subespacio generado por v
1
, v
2
, . . . , v
k
y se denota por < v
1
, v
2
, . . . , v
k
>. Por ejemplo, en R
4
,
< (1, 2, 1, 1), (3, 0, 1, 1) > = x
1
(1, 2, 1, 1) +x
2
(3, 0, 1, 1) / x
1
, x
2
R =
= (x
1
3x
2
, 2x
1
, x
1
+x
2
, x
1
x
2
) / x
1
, x
2
R .
Producto escalar
Se dene el producto escalar usual de dos vectores x = (x
1
, x
2
, . . . , x
n
) e y = (y
1
, y
2
, . . . , y
n
)
de R
n
como
x, y = x y = x
1
y
1
+x
2
y
2
+ x
n
y
n
=
n

i=1
x
i
y
i
.
El producto escalar cumple las siguientes propiedades:
1) v
1
+v
2
, w = v
1
, w +v
2
, w , v
1
, v
2
, w R
n
.
2) v, w = v, w , v, w R
n
, R.
3) v, w = w, v , v, w R
n
.
4) v, v > 0 , v R
n
, v ,= (0, 0, . . . , 0).
El producto escalar permite denir una norma (o modulo). Si x = (x
1
, x
2
, . . . , x
n
) R
n
,
se dene
|x| = +
_
x, x = +
_
x
2
1
+x
2
2
+ +x
2
n
.
Si x, y son dos vectores de R
n
entonces |xy| representa la distancia de x a y. En particular,
la norma de x representa su distancia al origen de coordenadas.
En R
2
el producto escalar usual de dos vectores x, y coincide con la denicion clasica en
funcion del angulo que forman x e y:
x, y = x y = |x| |y| cos().
1.3. Vectores. 9
El concepto de angulo se extiende a R
n
usando el producto escalar. Si x = (x
1
, x
2
, . . . , x
n
)
e y = (y
1
, y
2
, . . . , y
n
) son dos vectores no nulos de R
n
entonces se dene el angulo que forman
como el angulo [0, ] que cumple la formula:
cos() =
x, y
|x| |y|
.
Por ejemplo, si x = (1, 1, 1) e y = (1, 0, 1) entonces cos() = 0 y por tanto x e y forman un
angulo de /2.
Un coseno proximo a 1 indica que las direcciones de x e y estan proximas.
Se dice que dos vectores x e y de R
n
son ortogonales si x, y = 0. Un conjunto de vectores
v
1
, v
2
, . . . , v
k
de R
n
es ortogonal si v
i
, v
j
= 0 , i ,= j.
Un conjunto de vectores v
1
, v
2
, . . . , v
k
de R
n
es ortonormal si es ortogonal y |v
i
| =
1 , i = 1, 2, . . . k.
Por ejemplo, el conjunto
_
(1, 0, 0) ,
_
0, 1/

2, 1/

2
_
,
_
0, 1/

2, 1/

2
__
es un conjunto ortonormal de R
3
.
Los vectores de norma uno se llaman vectores unitarios. De cada vector v distinto de cero
se puede obtener un vector unitario con su misma direccion y sentido sin mas que dividir por
su norma.
10 1. Introduccion
Captulo 2
Matrices y determinantes
2.1. Introducci on.
En este captulo se introducen los conceptos basicos de la teora de matrices, con especial
atencion a las operaciones elementales, que seran de mucha utilidad a lo largo del curso. Sus
primeras aplicaciones (incluidas en este tema) son el calculo del rango, la matriz inversa y el
determinante.
2.2. Denici on y tipos de matrices.
Iniciaremos esta seccion deniendo lo que entenderemos por una matriz.
Denicion 2.1 Se llama matriz real de p las y n columnas a cualquier agrupacion de la forma
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
,
donde a
ij
R para todo i = 1, 2, . . . , p, j = 1, 2, . . . , n.
Tambien diremos que A es una matriz de tama no p n o de orden p n.
Denotaremos por /
pn
(R) el conjunto de todas las matrices de p las y n columnas con
elementos en R. En notacion reducida, escribiremos A = (a
ij
) /
pn
(R).
Si A = (a
ij
), B = (b
ij
) son dos matrices de tama no p n, diremos que A = B si a
ij
= b
ij
para todo i = 1, 2, . . . , p, j = 1, 2, . . . , n.
Son especialmente importantes las matrices cuadradas, que se caracterizan por tener el
mismo n umero de las que de columnas.
11
12 2. Matrices y determinantes
Las matrices cuadradas mas simples son las diagonales. Una matriz cuadrada A /
nn
(R)
es diagonal si a
ij
= 0 para todo i ,= j, es decir,
A =
_
_
_
_
_
a
11
0 0
0 a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
.
Observacion: Se llama diagonal de una matriz A = (a
ij
) /
pn
(R) al vector de R
m
diag(A) =
(a
11
, a
22
, . . . , a
mm
), donde m = mnp, n.
Tambien seran importantes las matrices triangulares.
Una matriz A /
pn
(R) es triangular superior si a
ij
= 0 para todo i > j, es decir, si
los elementos que estan por debajo de la diagonal son todos cero. Por ejemplo,
A =
_
_
1 2 4
0 3 4
0 0 2
_
_
.
Una matriz A /
pn
(R) es triangular inferior si a
ij
= 0 para todo i < j, es decir, si
los elementos que estan por encima de la diagonal son todos cero.
Sea A /
pn
(R). Se dene su traspuesta y se denota A
t
como la matriz cuyas columnas
son las las de A, es decir, si A = (a
ij
) /
pn
(R), entonces A
t
= (b
ij
) /
np
(R), con
b
ij
= a
ji
para todo i = 1, . . . , n, j = 1, . . . , p.
En general, cuando hagamos operaciones con matrices que incluyan vectores, estos se re-
presentaran en forma de columna. Si v R
n
es un vector columna, el correspondiente vector la
es v
t
:
v =
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
/
n1
(R) = v
t
= (v
1
, v
2
, . . . , v
n
) /
1n
(R).
2.3. Operaciones con matrices.
Suma de matrices.
La suma es una operacion interna en /
pn
(R). Dadas dos matrices A = (a
ij
) /
pn
(R),
B = (b
ij
) /
pn
(R), se dene su suma como la matriz A + B = (a
ij
+ b
ij
) /
pn
(R), es
decir,
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
+
_
_
_
_
_
b
11
b
12
b
1n
b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
b
p1
b
p2
b
pn
_
_
_
_
_
=
_
_
_
_
_
a
11
+b
11
a
12
+b
12
a
1n
+b
1n
a
21
+b
21
a
22
+b
22
a
2n
+b
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
+b
p1
a
p2
+b
p2
a
pn
+b
pn
_
_
_
_
_
.
2.3. Operaciones con matrices. 13
Es facil comprobar que (/
pn
(R), +) tiene estructura de grupo conmutativo. El elemento
neutro es la matriz nula
0 =
_
_
_
_
_
0 0 0
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
/
pn
(R).
Producto de una matriz por un escalar.
Dada una matriz A = (a
ij
) /
pn
(R) y un escalar R, se dene A = (a
ij
) = (a
ij
),
es decir,

_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
.
Es facil vericar las siguientes propiedades:
1. (A+B) = A+B, A, B /
pn
(R) , R.
2. ( +)A = A+A, A /
pn
(R) , , R.
3. ()A = (A) , A /
pn
(R) , , R.
Producto de matrices.
Dadas dos matrices A = (a
ij
) /
pn
(R), B = (b
ij
) /
nq
(R), se dene su producto
como la matriz AB = (c
ij
) /
pq
(R) dada por:
c
ij
=
n

k=1
a
ik
b
kj
= a
i1
b
1j
+a
i2
b
2j
+ +a
in
b
nj
, i = 1, 2, . . . , p , j = 1, 2, . . . , q.
Observese que para poder realizar el producto AB es necesario que el n umero de columnas
de A coincida con el n umero de las de B. Un caso especialmente interesante se presenta cuando
ambas matrices son vectores de R
n
. Sean
u =
_
_
_
_
_
u
1
u
2
.
.
.
u
n
_
_
_
_
_
/
n1
(R) ; v =
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
/
n1
(R).
Entonces:
u
t
v = (u
1
, u
2
, . . . , u
n
)
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= u
1
v
1
+u
2
v
2
+ +u
n
v
n
R
14 2. Matrices y determinantes
representa el producto escalar, mientras que
uv
t
=
_
_
_
_
_
u
1
u
2
.
.
.
u
n
_
_
_
_
_
(v
1
, v
2
, . . . , v
n
) =
_
_
_
_
_
u
1
v
1
u
1
v
2
u
1
v
n
u
2
v
1
u
2
v
2
u
2
v
n
.
.
.
.
.
.
.
.
.
.
.
.
u
n
v
1
u
n
v
2
u
n
v
n
_
_
_
_
_
/
nn
(R).
Propiedades:
El producto de matrices es asociativo, es decir, si A /
pn
(R), B /
nq
(R) y C
/
qr
(R), se cumple que (AB)C = A(BC).
El producto de matrices verica la propiedad distributiva respecto a la suma, es decir, si
A, B /
pn
(R), C, D /
nq
(R) entonces A(C+D) = AC+AD, (A+B)C = AC+BC.
El producto de matrices tiene elemento neutro, llamado matriz identidad.
I =
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
/
nn
(R).
Se tiene que AI = A, A /
pn
(R) e IB = B, B /
nq
(R).
No se cumple la propiedad conmutativa, es decir, si A, B /
nn
(R), en general AB ,=
BA.
Ejemplo:
_
1 2
3 4
__
0 1
1 0
_
=
_
2 1
4 3
_
,=
_
3 4
1 2
_
=
_
0 1
1 0
__
1 2
3 4
_
.
Si A, B /
nn
(R), en general AB = 0 , A = 0 o B = 0.
Ejemplo:
_
0 0
0 1
__
0 1
0 0
_
=
_
0 0
0 0
_
.
Interpretaci on del producto con vectores la y vectores columna.
Sea A /
pn
(R). Si denotamos sus columnas por u
1
, u
2
, . . . , u
n
y sus las como v
t
1
, v
t
2
, . . . , v
t
p
,
entonces podemos escribir A en las dos siguientes formas:
A = (u
1
[u
2
[ [u
n
) ; A =
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
p
_
_
_
_
_
.
En ocasiones se puede describir el producto de matrices de forma mas conveniente usando
sus vectores la y sus vectores columna.
2.3. Operaciones con matrices. 15
1. Sea A = (u
1
[u
2
[ [u
n
) /
pn
(R). Sea
b =
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
/
n1
(R).
Entonces:
Ab = (u
1
[u
2
[ [u
n
)
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
= b
1
u
1
+b
2
u
2
+ +b
n
u
n
/
p1
(R).
2. Sean A /
pn
(R) y B = (u
1
[u
2
[ [u
q
) /
nq
(R). Entonces:
AB = A(u
1
[u
2
[ [u
q
) = (Au
1
[Au
2
[ [Au
q
) /
pq
(R).
3. Sean A /
pn
(R) y B /
nq
(R). Denotemos por u
1
, u
2
, . . . , u
n
las columnas de A y
por v
t
1
, v
t
2
, . . . , v
t
n
las las de B. Entonces:
AB = (u
1
[u
2
[ [u
n
)
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
n
_
_
_
_
_
= u
1
v
t
1
+u
2
v
t
2
+ +u
n
v
t
n
/
pq
(R).
Matriz inversa y potencia de una matriz.
Para matrices cuadradas tiene sentido denir el concepto de matriz inversa y el de potencia
de una matriz.
Denicion 2.2 Una matriz cuadrada A /
nn
(R) se dice inversible si existe una matriz
B /
nn
(R) tal que AB = BA = I, donde I es la matriz identidad. En caso de existir, B
se llama matriz inversa de A y se denota por A
1
. Las matrices inversibles tambien se llaman
regulares o no singulares.
La siguiente propiedad se deduce inmediatamente de la denicion:
Propiedad: Sean A, B /
nn
(R). Si A y B son inversibles entonces AB tambien lo es y
ademas (AB)
1
= B
1
A
1
.
Denicion 2.3 Sea A /
nn
(R) y k N. Se dene A
k
por induccion del siguiente modo:
A
2
= AA, y, en general, A
k+1
= A
k
A, para todo k 2, es decir A
k
resulta de multiplicar A por
s misma k veces. Por convenio, A
0
= I, A
1
= A.
16 2. Matrices y determinantes
En general es difcil encontrar la expresion general de A
k
en funcion de k. Sin embargo, es
sencillo para matrices diagonales:
Propiedad: Si A es diagonal entonces A
k
tambien es diagonal. Ademas,
_
_
_
_
_
a
11
0 0
0 a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
k
=
_
_
_
_
_
a
k
11
0 0
0 a
k
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
k
nn
_
_
_
_
_
.
Denicion 2.4 Sea A /
nn
(R). Se dice que B /
nn
(R) es una raz k-esima de A si
B
k
= A.
Ejemplo:
La matriz B =
_
0 1
1 0
_
es una raz cuadrada de la matriz identidad I /
22
(R) ya que
B
2
= I.
2.4. Propiedades de la trasposicion de matrices.
Recordemos que si A /
pn
(R) entonces A
t
es la matriz cuyas columnas son las las de
A.
Se cumplen las siguientes propiedades:
1. (A
t
)
t
= A, A /
pn
(R).
2. (A+B)
t
= A
t
+B
t
, A, B /
pn
(R).
3. (A)
t
= A
t
, A /
pn
(R), R.
4. (AB)
t
= B
t
A
t
, A /
pn
(R), B /
nq
(R).
5. Si A es inversible entonces (A
t
)
1
= (A
1
)
t
.
6. (A
t
)
k
= (A
k
)
t
, A /
nn
(R), k N.
En relacion con la trasposicion de matrices tenemos las siguientes matrices especiales:
Denicion 2.5 Una matriz A = (a
ij
) /
nn
(R) es simetrica si A
t
= A, es decir, si a
ij
=
a
ji
, i, j = 1, . . . , n.
Ejemplo:
La matriz A =
_
_
0 1 1
1 2 3
1 3 1
_
_
es simetrica.
2.5. Traza de una matriz. 17
Propiedades:
1. Si A /
pn
(R) entonces A
t
A /
nn
(R) es simetrica.
2. Si A es simetrica entonces A
k
es simetrica para todo k N.
Denicion 2.6 Una matriz A = (a
ij
) /
nn
(R) es antisimetrica si A
t
= A, es decir, si
a
ij
= a
ji
, i, j = 1, . . . , n.
Es inmediato comprobar que si una matriz A = (a
ij
) /
nn
(R) es antisimetrica, entonces
a
ii
= 0, i = 1, . . . , n.
Ejemplo:
La matriz A =
_
0 1
1 0
_
es antisimetrica.
Denicion 2.7 Una matriz A = (a
ij
) /
nn
(R) es ortogonal si AA
t
= A
t
A = I, es decir,
si A es inversible y A
t
= A
1
.
Ejemplo:
Si es cualquier n umero real, la siguiente matriz es ortogonal:
A =
_
cos() sen()
sen() cos()
_
.
2.5. Traza de una matriz.
Sea A = (a
ij
) /
nn
(R). Se llama traza de A, y se denota tr (A), a la suma de sus
elementos diagonales, es decir, tr (A) =
n

i=1
a
ii
= a
11
+a
22
+ +a
nn
.
Propiedades:
1. tr (A+B) = tr (A) + tr (B), A, B /
nn
(R).
2. tr (A) = tr (A), A /
nn
(R), R.
3. tr (AB) = tr (BA), A /
pn
(R), B /
np
(R).
2.6. Matrices elementales.
Denicion 2.8 Sea A = (a
ij
) /
pn
(R). Se llaman operaciones elementales sobre las
las o columnas de A a cualquiera de las siguientes transformaciones:
1. Permutar dos las o dos columas de A.
2. Sumar a una la (o columna) de A un m ultiplo de otra la (o columna) de A.
18 2. Matrices y determinantes
3. Multiplicar una la o columna de A por un escalar no nulo.
Denicion 2.9 Una matriz A /
nn
(R) es una matriz elemental si se obtiene como re-
sultado de efectuar una operaci on elemental sobre las las o columnas de la matriz identidad.
Tipos de matrices elementales.
Distinguiremos seis tipos de matrices elementales seg un los tipos de operaciones elementales
denidos arriba y dependiendo de si la operacion se realiza sobre las las o sobre las columnas
de I. As,
1. F
ij
es la matriz obtenida al permutar las las i y j en I.
2. F
i
() es la matriz obtenida al multiplicar la la i de I por un escalar ,= 0.
3. F
ij
() es la matriz obtenida al sumar a la la i de I la la j multiplicada por el escalar .
4. K
ij
es la matriz obtenida al permutar las columnas i y j en I.
5. K
i
() es la matriz obtenida al multiplicar la columna i de I por un escalar ,= 0.
6. K
ij
() es la matriz obtenida al sumar a la columna i de I la columna j multiplicada por
el escalar .
Ejemplos:
Tomando I /
33
(R), tenemos
F
23
= K
23
=
_
_
1 0 0
0 0 1
0 1 0
_
_
, K
2
(3) = F
2
(3) =
_
_
1 0 0
0 3 0
0 0 1
_
_
F
13
(2) =
_
_
1 0 2
0 1 0
0 0 1
_
_
, K
13
(2) =
_
_
1 0 0
0 1 0
2 0 1
_
_
.
Efectos de las matrices elementales.
Las operaciones elementales sobre las las y columnas de una matriz A pueden obtenerse
como resultado de multiplicar por una matriz elemental:
1. Realizar una operacion elemental sobre las las de A /
pn
(R) es equivalente a multi-
plicar A por la izquierda por la correspondiente matriz elemental de las F /
pp
(R).
2. Realizar una operacion elemental sobre las columnas de A /
pn
(R) es equivalente a
multiplicar A por la derecha por la correspondiente matriz elemental de columnas K
/
nn
(R).
Ejemplos:
Sea A =
_
1 2 3
4 5 6
_
.
2.7. Forma escalonada y rango de una matriz. 19
1. Permutar las columnas 1 y 3 de A es equivalente a multiplicar A por la derecha por K
13
:
AK
13
=
_
1 2 3
4 5 6
_
_
_
0 0 1
0 1 0
1 0 0
_
_
=
_
3 2 1
6 5 4
_
.
2. Restar a la la 2 de A la la 1 multiplicada por 3 es equivalente a multiplicar A por la
izquierda por F
21
(3):
F
21
(3)A =
_
1 0
3 1
__
1 2 3
4 5 6
_
=
_
1 2 3
1 1 3
_
.
Inversas de las matrices elementales.
Es muy sencillo comprobar que todas las matrices elementales son inversibles y ademas su
inversa es la matriz elemental equivalente a la transformacion inversa. As,
1. Por las:
(F
ij
)
1
= F
ij
, (F
i
())
1
= F
i
(1/) , (F
ij
())
1
= F
ij
() .
2. Por columnas:
(K
ij
)
1
= K
ij
, (K
i
())
1
= K
i
(1/) , (K
ij
())
1
= K
ij
() .
2.7. Forma escalonada y rango de una matriz.
Denicion 2.10 Sea A = (a
ij
) /
pn
(R). Supongamos que la la i de A no tiene todos los
elementos iguales a cero. Se llama entrada principal de la la i al primer elemento de dicha
la distinto de cero, es decir, al elemento a
ij
tal que a
ij
,= 0, a
ik
= 0 k < j.
Denicion 2.11 Se dice que la matriz A /
pn
(R) esta en forma escalonada si cumple
las dos siguientes condiciones:
1. Si hay alguna la de ceros, esta al nal.
2. Si hay varias las distintas de cero, entonces la entrada principal de cada la no nula
esta mas a la izquierda que la de la siguiente la.
Denicion 2.12 Se dice que la matriz A /
pn
(R) esta en forma escalonada reducida si
cumple las siguientes condiciones:
1. Esta en forma escalonada.
2. Todas las entradas principales son iguales a 1.
3. En cada columna donde hay una entrada pricipal, el resto de los elementos son ceros.
20 2. Matrices y determinantes
Ejemplo: La matriz
A =
_
_
_
_
1 1 0 2 0
0 0 1 3 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
esta en forma escalonada reducida. Se han resaltado sus entradas principales.
El siguiente resultado es clave para las aplicaciones de las operaciones elementales:
Teorema 2.1 (Reduccion de Gauss-Jordan) Toda matriz se puede transformar en una ma-
triz en forma escalonada reducida mediante operaciones elementales por las.
Denicion 2.13 Para cada matriz A /
pn
(R), la matriz obtenida mediante el teorema
anterior es unica y recibe el nombre de forma escalonada reducida de A. La denotaremos
por rref (A).
Ejemplo: Hallar la forma escalonada reducida de
A =
_
_
_
_
1 1 0 3 2
3 3 2 1 0
3 3 2 1 0
2 2 3 0 2
_
_
_
_
.
A =
_
_
_
_
1 1 0 3 2
3 3 2 1 0
3 3 2 1 0
2 2 3 0 2
_
_
_
_
F
21
(3)

F
31
(3), F
41
(2)
_
_
_
_
1 1 0 3 2
0 0 2 8 6
0 0 2 8 6
0 0 3 6 6
_
_
_
_
F
32
(1)

F
42
(3/2)
_
_
_
_
1 1 0 3 2
0 0 2 8 6
0 0 0 0 0
0 0 0 6 3
_
_
_
_
F
34

_
_
_
_
1 1 0 3 2
0 0 2 8 6
0 0 0 6 3
0 0 0 0 0
_
_
_
_
F
1
(1)

F
2
(1/2), F
3
(1/6)
_
_
_
_
1 1 0 3 2
0 0 1 4 3
0 0 0 1 1/2
0 0 0 0 0
_
_
_
_
F
23
(4)

F
13
(3)
_
_
_
_
1 1 0 0 1/2
0 0 1 0 1
0 0 0 1 1/2
0 0 0 0 0
_
_
_
_
.
Por tanto,
rref (A) =
_
_
_
_
1 1 0 0 1/2
0 0 1 0 1
0 0 0 1 1/2
0 0 0 0 0
_
_
_
_
.
2.7. Forma escalonada y rango de una matriz. 21
Rango de una matriz.
Denicion 2.14 Sea A /
pn
(R). Se dene el rango de A como el n umero de las no nulas
de la forma escalonada reducida de A. Se denota rg (A).
Ejemplo: En el ejemplo anterior, rg (A) = 3.
Observacion: En la practica no es preciso calcular la forma escalonada reducida de A. El rango
de las de A coincide con el n umero de las no nulas de cualquier matriz escalonada obtenida
realizando operaciones elementales sobre las las de A. De hecho, para calcular el rango de A se
pueden combinar operaciones elementales por las y por columnas hasta obtener una matriz en
forma escalonada.
Proposicion 2.1 El rango de una matriz A coincide con el n umero de las linealmente inde-
pendientes de A.
Demostracion. Es consecuencia de que la independencia lineal de un conjunto de vectores no
vara por operaciones elementales y el conjunto de las no nulas de una matriz escalonada es
linealmente independiente. .
La siguiente propiedad proporciona un metodo para deteminar si una matriz tiene inversa
usando operaciones elementales.
Proposicion 2.2 Sea A /
nn
(R) una matriz cuadrada. Las siguientes armaciones son
equivalentes:
(1) A es inversible.
(2) rref (A) = I.
(3) rg (A) = n.
Demostracion. Recordemos que rref (A) se obtiene haciendo operaciones elementales sobre las
las de A. Por tanto, rref (A) = FA, donde F es una matriz que resulta de multiplicar matrices
elementales. En particular, F es inversible. Veamos que se cumplen las equivalencias:
(1)=(2): Como A es inversible, rref (A) = FA tambien es inversible y por tanto no tiene las
de ceros. Necesariamente rref (A) = I.
(2)=(3): Como rref (A) = I, rref (A) tiene n las no nulas y por tanto rg (A) = n.
(3)=(1): Como rg (A) = n, rref (A) tiene n las no nulas y por tanto rref (A) = I. Esto quiere
decir que existe una matriz F tal que FA = rref (A) = I. Por denicion, A es inversible y
F = A
1
. .
22 2. Matrices y determinantes
2.8. Calculo de la inversa.
Como consecuencia de que la forma escalonada reducida de las matrices inversibles es la
identidad, se tiene el siguiente resultado:
Proposicion 2.3 Toda matriz inversible A /
nn
(R) se puede transformar en la matriz
identidad mediante operaciones elementales por las.
Esta proposicion permite calcular la inversa de A utilizando operaciones elementales del
siguiente modo: sean F
1
, F
2
, . . . , F
k
las matrices elementales de las por las que debemos multi-
plicar A para llegar a la identidad, es decir, F
k
. . . F
2
F
1
A = I. Entonces A
1
= F
k
. . . F
2
F
1
.
En la practica, se procede del siguiente modo: si escribimos la matriz ampliada (A[I), el
resultado de aplicar F
1
, F
2
, . . . F
k
sobre esta matriz es (I[A
1
):
(A[I)
F
1
,F
2
,...,F
k
(F
k
. . . F
2
F
1
A[F
k
. . . F
2
F
1
I) = (I[A
1
).
Ejemplo:
Para calcular la inversa de
A =
_
_
1 1 1
1 2 0
1 0 3
_
_
,
realizamos las siguientes operaciones elementales:
(A[I) =
_
_
1 1 1 1 0 0
1 2 0 0 1 0
1 0 3 0 0 1
_
_
F
21
(1)

_
_
1 1 1 1 0 0
0 1 1 1 1 0
1 0 3 0 0 1
_
_
F
31
(1)

_
_
1 1 1 1 0 0
0 1 1 1 1 0
0 1 2 1 0 1
_
_
F
32
(1)

_
_
1 1 1 1 0 0
0 1 1 1 1 0
0 0 1 2 1 1
_
_
F
23
(1)

_
_
1 1 1 1 0 0
0 1 0 3 2 1
0 0 1 2 1 1
_
_
F
13
(1)

_
_
1 1 0 3 1 1
0 1 0 3 2 1
0 0 1 2 1 1
_
_
F
12
(1)

_
_
1 0 0 6 3 2
0 1 0 3 2 1
0 0 1 2 1 1
_
_
= (I[A
1
) .
Por tanto,
A
1
=
_
_
6 3 2
3 2 1
2 1 1
_
_
.
Observacion: En ning un caso se pueden combinar operaciones elementales de las y columnas
para calcular la inversa.
2.9. Determinantes. 23
2.9. Determinantes.
Las operaciones elementales tambien se usan como un metodo ecaz para calcular el deter-
minante de una matriz A /
nn
(R), teniendo en cuenta las siguientes propiedades:
a) Sumar a una la o columna de una matriz un m ultiplo de otra la o columna no vara el
valor del determinante.
b) Permutar dos las o dos columnas de una matriz hace que su determinante cambie de
signo.
c) Si A es una matriz triangular entonces su determinante es el producto de los elementos de
la diagonal.
De este modo, realizando operaciones elementales en A obtenemos una matriz en forma
triangular cuyo determinante se calcula haciendo uso de la propiedad c).
Ejemplo:

1 1 2
1 1 0
2 1 2

F
21
(1)
=
F
31
(2)

1 1 2
0 0 2
0 1 2

F
23
=

1 0 2
0 1 2
0 0 2

= 2.
En ocasiones conviene combinar este metodo con el desarrollo por los elementos de una la
o una columna (regla de Laplace).
Sea A = (a
ij
) /
nn
(R). Sea

A
ij
la matriz que se obtiene suprimiendo en A la la i y la
columna j. Entonces, para cada la i de A, se tiene:
det(A) =
n

j=1
(1)
i+j
a
ij
det(

A
ij
).
Esta formula permite expresar el determinante de una matriz de orden n en funcion del
determinante de n matrices de orden (n1). Tambien se verica una formula analoga para cada
columna de A. En particular, se tienen las siguientes consecuencias:
1. Si n=2,

a b
c d

= ad bc.
2. Si A tiene una la o una columna de ceros entonces [A[ = 0.
3. Si el unico elemento no nulo de la la i es a
ik
entonces det(A) = (1)
i+k
a
ik
det(

A
ik
).
Otras propiedades de los determinantes:
1. [AB[ = [A[ [B[, A, B /
nn
(R).
24 2. Matrices y determinantes
2. [A
t
[ = [A[, A /
nn
(R).
3. Si R entonces

a
11
a
12
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
i2
a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

a
11
a
12
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
i2
a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

La misma propiedad es valida si una columna esta multiplicada por el escalar .


4. [A[ =
n
[A[, A /
nn
(R), R. En particular, [ A[ = (1)
n
[A[.
5. Si A /
nn
(R) entonces A es inversible si y solo si [A[ , = 0. Ademas, en ese caso,
[A
1
[ = 1/[A[.
Prueba de la propiedad 5.
Si A es inversible, entonces A
1
A = I y por tanto [A
1
[ [A[ = [A
1
A[ = [I[ = 1. De aqu se
obtiene que [A[ , = 0 y ademas [A
1
[ = 1/[A[.
Supongamos ahora que [A[ , = 0 y consideremos su forma escalonada reducida rref (A). Existe
una matriz inversible F tal que rref (A) = FA, y por tanto [rref (A)[ = [F[ [A[ , = 0.
En consecuencia, rref (A) no puede tener las de ceros y se concluye que A es inversible. .
2.10. Formas cuadraticas.
Denicion 2.15 Una forma cuadratica sobre R
n
es una aplicacion : R
n
R denida por
(x) = x
t
Ax, x R
n
,
donde A /
nn
(R) es una matriz simetrica.
Observacion: Si A = (a
ij
) /
nn
(R) entonces la forma cuadratica (x) = x
t
Ax se expresa
como:
(x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
)
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
n

i,j=1
a
ij
x
i
x
j
.
Recprocamente, si tenemos una expresi on extendida de la forma cuadratica como la anterior,
podemos encontrar una unica matriz simetrica A /
nn
(R) tal que (x) = x
t
Ax, x R
n
.
2.10. Formas cuadraticas. 25
Ejemplo:
Sea (x
1
, x
2
, x
3
) = 2x
2
1
+ 3x
2
2
+x
2
3
4x
1
x
2
+ 2x
1
x
3
2x
2
x
3
. Entonces:
(x
1
, x
2
, x
3
) = (x
1
, x
2
, x
3
)
_
_
2 2 1
2 3 1
1 1 1
_
_
_
_
x
1
x
2
x
3
_
_
= x
t
Ax.
Formas cuadraticas degeneradas y no degeneradas
Denicion 2.16 Sea A /
nn
(R) una matriz simetrica y sea : R
n
R la forma cuadratica
denida por (x) = x
t
Ax, x R
n
. Se dice que es no degenerada si rg (A) = n, es decir,
si [A[ , = 0.
Si [A[ = 0 entonces se dice que la forma cuadratica es degenerada .
Por ejemplo, la forma cuadratica (x
1
, x
2
, x
3
) = 2x
2
1
+3x
2
2
+x
2
3
4x
1
x
2
+2x
1
x
3
2x
2
x
3
es
no degenerada porque (x) = x
t
Ax, con
[A[ =

2 2 1
2 3 1
1 1 1

= 1 ,= 0.
Clasicacion de formas cuadraticas no degeneradas.
Denicion 2.17 Las formas cuadraticas no degeneradas : R
n
R pueden ser de tres tipos.
(a) es denida positiva si (x) = x
t
Ax > 0 , x ,= 0,
(b) es denida negativa si (x) = x
t
Ax < 0 , x ,= 0,
(c) es indenida si existen dos vectores x, y R
n
tales que (x) > 0 , (y) < 0.
Denicion 2.18 Una matriz simetrica A /
nn
(R) se dice denida positiva, denida nega-
tiva o indenida seg un lo sea la forma cuadratica
A
: R
n
R denida por
A
(x) = x
t
Ax.
Ejemplos:
1. (x, y, z) = x
2
+ y
2
+ z
2
es denida positiva ya que x
2
+ y
2
+ z
2
0, (x, y, z) R
3
y
ademas x
2
+y
2
+z
2
= 0 x = y = z = 0.
2. (x, y, z) = x
2
+y
2
z
2
es indenida ya que, por ejemplo, (1, 0, 0) = 1 > 0 y (0, 0, 1) =
1 < 0. Ademas es no degenerada ya que
(x, y, z) = (x, y, z)
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
x
y
z
_
_
= x
t
Ax,
con [A[ = 1 ,= 0.
26 2. Matrices y determinantes
Sin embargo, en general es difcil determinar la clasicacion de si aparecen terminos
cruzados. Por ejemplo, la forma cuadratica
(x
1
, x
2
, x
3
) = 2x
2
1
+ 3x
2
2
+x
2
3
4x
1
x
2
+ 2x
1
x
3
2x
2
x
3
es denida positiva, pero no es inmediato deducirlo a simple vista.
Uso de los menores principales.
Las formas cuadraticas no degeneradas se pueden clasicar analizando el signo de los me-
nores principales de la matriz.
Denicion 2.19 Sea A = (a
ij
) /
nn
(R). Para cada k = 1, 2, . . . , n, se llama menor prin-
cipal de orden k de A y se denota
k
al siguiente determinante:

k
=

a
11
a
12
a
1k
a
21
a
22
a
2k
.
.
.
.
.
.
.
.
.
.
.
.
a
k1
a
k2
a
kk

Teorema 2.2 Sea A /


nn
(R) una matriz simetrica. Entonces A es denida positiva si y
solo si todos los menores diagonales principales de A son mayores que cero.
Ejemplo: Consideremos la forma cuadratica : R
3
R denida por (x) = x
t
Ax, donde
A =
_
_
2 2 1
2 3 1
1 1 1
_
_
Los menores principales de A son:

1
= 2 > 0

2
=

2 2
2 3

= 2 > 0

3
=

2 2 1
2 3 1
1 1 1

= 1 > 0.
Como todos son positivos, A es denida positiva.
El resultado anterior se puede aplicar tambien a matrices denidas negativas, teniendo en
cuenta que A es denida negativa si y solo si B = A es denida positiva y que si A
k
/
kk
(R)
entonces det(A
k
) = (1)
k
det(A
k
). De este modo se obtiene el siguiente resultado:
Proposicion 2.4 Sea A /
nn
(R) una matriz simetrica. A es denida negativa si y solo si
los menores diagonales principales de orden impar son menores que cero y los de orden par son
mayores que cero, es decir,
1
< 0,
2
> 0,
3
< 0, . . .
2.10. Formas cuadraticas. 27
El uso de los menores pricipales se puede resumir en el siguiente resultado:
Teorema 2.3 Sea A /
nn
(R) una matriz simetrica tal que [A[ , = 0. Entonces la forma
cuadratica (x) = x
t
Ax se clasica en funcion de los menores principales del siguiente modo:
(a) Si todos los menores principales de A son positivos entonces es denida positiva.
(b) Si los menores principales de orden impar son negativos y los de orden par son positivos
entonces es denida negativa.
(c) En cualquier otro caso, es indenida.
Ejemplo: Consideremos la matriz
A =
_
_
0 1 1
1 0 1
1 1 0
_
_
.
Como [A[ = 2 ,= 0, estamos en el caso no degenerado y solo puede ser denida positiva, denida
negativa o indenida. Como el primer menor principal es
1
= 0, A no puede ser denida posi-
tiva ni denida negativa. En consecuencia, A es indenida.
Formas cuadraticas degeneradas.
Denicion 2.20 Las formas cuadraticas degeneradas : R
n
R pueden ser de tres tipos.
1. es semidenida positiva si (x) = x
t
Ax 0 , x R
n
,
2. es semidenida negativa si (x) = x
t
Ax 0 , x R
n
,
3. es indenida si existen dos vectores x, y R
n
tales que (x) > 0 , (y) < 0.
En este caso la clasicacion no se puede deducir directamente de los menores principales.
Volveremos sobre esta cuestion en el tema 5.
28 2. Matrices y determinantes
Captulo 3
Sistemas de ecuaciones lineales
3.1. Introducci on.
Este captulo esta dedicado a la resolucion de sistemas de ecuaciones lineales, lo que inclu-
ye el estudio de la compatibilidad del sistema (existencia de soluciones), la determinacion del
conjunto de soluciones y la interpretacion geometrica de dicho conjunto. El metodo principal de
resolucion es el metodo de Gauss, basado en operaciones elementales sobre las las de la matriz
ampliada del sistema.
3.2. Expresion matricial.
Un sistema de p ecuaciones lineales con n incognitas en R es un conjunto de expresiones:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
=
=
a
p1
x
1
+a
p2
x
2
+ +a
pn
x
n
= b
p
,
donde los elementos a
ij
R se llaman coecientes del sistema, b
i
R se llaman terminos
independientes y x
i
se llaman incognitas.
El sistema es homogeneo si b
i
= 0 , i = 1, 2, . . . , p. En otro caso diremos que es no
homogeneo.
El sistema se puede expresar en la forma matricial Ax = b, donde
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
_
_
_
_
_
/
pn
(R) ; b =
_
_
_
_
_
b
1
b
2
.
.
.
b
p
_
_
_
_
_
R
p
; x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
.
La matriz A se llama matriz de coecientes del sistema y b es el termino independiente.
29
30 3. Sistemas de ecuaciones lineales
La matriz
(A[b) =
_
_
_
_
_
a
11
a
12
a
1n
b
1
a
21
a
22
a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pn
b
p
_
_
_
_
_
/
p(n+1)
(R)
se llama matriz ampliada del sistema. Cada una de las ecuaciones se puede identicar con la
correspondiente la de la matriz (A[b). Observese que el n umero de columnas de A coincide con
el n umero de incognitas del sistema.
3.3. Existencia de soluciones.
Denicion 3.1 Un vector v = (v
1
, v
2
, . . . , v
n
) R
n
es una solucion del sistema si Av = b.
Resolver el sistema es determinar el conjunto de sus soluciones (que es un subconjunto
de R
n
). Si no existe ninguna solucion, el sistema es incompatible. Si existe alguna solucion,
diremos que el sistema es compatible determinado si la solucion es unica y compatible
indeterminado si existe mas de una solucion.
Eliminacion gaussiana.
La siguiente propiedad permitira estudiar con facilidad si un sistema es compatible y calcular
el conjunto de sus soluciones.
Proposicion 3.1 Sea Ax = b un sistema de p ecuaciones lineales con n incognitas. Si efec-
tuamos operaciones elementales sobre las las de la matriz ampliada (A[b) hasta obtener una
nueva matriz (A

[b

) entonces los sistemas Ax = b y A

x = b

son equivalentes, es decir, tienen


el mismo conjunto de soluciones.
Demostracion. Sea F = F
k
. . . F
2
F
1
, donde F
1
, F
2
, . . . , F
k
son las matrices elementales correspon-
dientes a las operaciones por las sobre (A[b). Entonces (A

[b

) = (FA[Fb) y el nuevo sistema


es FAx = Fb, que es equivalente a Ax = b ya que F es inversible. .
Utilizando esta proposicion, para resolver un sistema se realizan operaciones elementales
sobre las las de (A[b) hasta obtener su forma escalonada reducida (A

[b

). Sea r = rg (A[b) =
rg (A

[b

). El sistema A

x = b

se resuelve de forma inmediata, despejando las r incognitas


correspondientes a las entradas principales en funcion de las (n r) restantes. De este modo,
tenemos:
Si rg (A) ,= rg (A[b) entonces el sistema es incompatible porque en el sistema A

x = b

hay
una ecuacion 0 = 1.
Si rg (A) = rg (A[b) = n (n = n umero de incognitas =n umero de columnas de A) entonces
el sistema es compatible determinado.
Si rg (A) = rg (A[b) < n entonces el sistema es compatible indeterminado y el conjunto de
soluciones se puede escribir en funcion de (n r) parametros.
3.4. Conjuntos de soluciones. 31
3.4. Conjuntos de soluciones.
Una de las caractersticas especiales de los sistemas de ecuaciones lineales es que aunque el
conjunto de soluciones puede ser innito, siempre queda determinado por un conjunto nito de
vectores de R
n
.
Comenzamos analizando el caso de sistemas homogeneos.
Sistemas homogeneos.
Consideremos un sistema homogeneo Ax = 0, donde A /
pn
(R). En primer lugar,
observemos que un sistema homogeneo siempre es compatible, ya que x = 0 es solucion. El
conjunto de soluciones se denomina n ucleo de A y se denota por Ker (A), es decir,
Ker (A) = x R
n
/ Ax = 0.
Por tanto solo hay dos posibilidades:
Si rg (A) = n entonces el sistema es compatible determinado y su unica solucion es el
vector cero (Ker (A) = 0).
Si rg (A) = r < n entonces el sistema es compatible indeterminado y el n ucleo de A es el
conjunto de todas las combinaciones lineales de k = nr vectores de R
n
u
1
, u
2
, . . . , u
k
, es
decir,
Ker (A) =
1
u
1
+
2
u
2
+ +
k
u
k
/
i
R, i = 1, . . . , k.
Se dice que Ker (A) esta generado por los vectores u
1
, u
2
, . . . , u
k
y se denota
Ker (A) =< u
1
, u
2
, . . . , u
k
> .
Estos vectores se determinan despejando las incognitas correspondientes a las entradas
principales de la forma escalonada reducida de A en funcion del resto.
Ejemplo: Consideremos el sistema
_
_
1 1 1 1
1 2 0 0
1 0 2 2
_
_
_
_
_
_
x
y
z
t
_
_
_
_
=
_
_
0
0
0
_
_
Realizando operaciones elementales sobre las las de la matriz A, tenemos:
A =
_
_
1 1 1 1
1 2 0 0
1 0 2 2
_
_
F
21
(1)

_
_
1 1 1 1
0 1 1 1
1 0 2 2
_
_
F
31
(1)

_
_
1 1 1 1
0 1 1 1
0 1 1 1
_
_
F
32
(1)

_
_
1 1 1 1
0 1 1 1
0 0 0 0
_
_
F
12
(1)

_
_
1 0 2 2
0 1 1 1
0 0 0 0
_
_
= A

= rref (A).
32 3. Sistemas de ecuaciones lineales
Como rg (A) = rg (A

) = 2 < 4 = n umero de incognitas, el sistema es compatible indeter-


minado. Ademas, el conjunto de soluciones de Ax = 0 coincide con el conjunto de soluciones del
sistema equivalente A

x = 0, es decir, del sistema


x + 2z + 2t = 0
y z t = 0 .
Despejando las incognitas x e y en funcion de z y t, tenemos que el conjunto de soluciones es:
Ker (A) =
_
(x, y, z, t) R
4
/ x = 2z 2t , y = z +t
_
= (2z 2t, z +t, z, t) / z, t R =
= z(2, 1, 1, 0) +t(2, 1, 0, 1) / z, t R =< (2, 1, 1, 0), (2, 1, 0, 1) > .
El conjunto de soluciones esta formado por las combinaciones lineales de u
1
= (2, 1, 1, 0) y
u
2
= (2, 1, 0, 1).
Sistemas no homogeneos.
Consideremos ahora un sistema no homogeneo Ax = b, con A /
pn
(R), b R
p
.
El sistema es compatible indeterminado si rg (A) = r = rg (A[b) < n. En este caso el
conjunto de soluciones esta determinado por los k = n r generadores del n ucleo de A y un
vector p llamado solucion particular. En concreto, se tiene el siguiente resultado:
Proposicion 3.2 Si rg (A) = r = rg (A[b) < n, el conjunto de soluciones del sistema Ax = b es
S = p +
1
u
1
+
2
u
2
+ +
k
u
k
/
i
R, i = 1, . . . , k := p+ < u
1
, u
2
, . . . , u
k
>,
donde p es una soluci on de Ax = b (es decir, Ap = b) y < u
1
, u
2
, . . . , u
k
>= Ker (A). En
notacion abreviada, escribiremos el conjunto de soluciones en la forma S = p + Ker (A).
Demostracion. Como el conjunto de soluciones es S = x R
n
/ Ax = b, se tiene:
z S Az = b = Ap A(z p) = Az Ap = 0 z p Ker (A)
z = p +u, u Ker (A) z p + Ker (A).
.
Ejemplo: Consideremos el sistema
_
_
1 1 1
1 2 0
1 0 2
_
_
_
_
x
y
z
_
_
=
_
_
1
1
1
_
_
.
Realizando operaciones elementales sobre las las de la matriz ampliada (A[b), tenemos:
(A[b) =
_
_
1 1 1 1
1 2 0 1
1 0 2 1
_
_
F
21
(1)

_
_
1 1 1 1
0 1 1 0
1 0 2 1
_
_
F
31
(1)

_
_
1 1 1 1
0 1 1 0
0 1 1 0
_
_
3.5. Matrices cuadradas y uso de la factorizacion LU. 33
F
32
(1)

_
_
1 1 1 1
0 1 1 0
0 0 0 0
_
_
F
12
(1)

_
_
1 0 2 1
0 1 1 0
0 0 0 0
_
_
= (A

[b

).
En primer lugar, rg (A[b) = rg (A

[b

) = 2 < 3 = n umero de incognitas, y por tanto el


sistema es compatible indeterminado. Ademas, el conjunto de soluciones de Ax = b coincide con
el conjunto de soluciones de A

x = b

, es decir, del sistema


x + 2z = 1
y z = 0 .
Despejando x = 1 2z, y = z, tenemos que el conjunto de soluciones en funcion del parametro
z es
S =
_
(x, y, z) R
3
/ y = z , x = 1 2z
_
= (1 2z, z, z) / z R =
= (1, 0, 0) +z(2, 1, 1) / z R = (1, 0, 0)
. .
p
+< (2, 1, 1) >
. .
Ker (A)
.
3.5. Matrices cuadradas y uso de la factorizaci on LU.
Cuando A es una matriz cuadrada, es mas sencillo determinar si el sistema Ax = b es
compatible determinado:
Proposicion 3.3 Sean A /
nn
(R) y b R
n
. El sistema Ax = b tiene solucion unica si y
solo si rg (A) = n.
Demostracion. Si rg (A) = n entonces tambien se cumple que rg (A[b) = n, ya que la matriz
(A[b) tiene n las y, por tanto, n = rg (A) rg (A[b) n. .
Observese que en este caso la unica solucion del sistema homogeneo asociado Ax = 0 es
la solucion trivial, es decir, Ker (A) = 0. En consecuencia, las siguientes propiedades son
equivalentes para una matriz A /
nn
(R):
1. El sistema Ax = b es compatible determinado para cada b R
n
.
2. Ker (A) = 0.
3. rg (A) = n.
4. A es inversible.
5. det(A) ,= 0.
6. rref (A) = I.
34 3. Sistemas de ecuaciones lineales
Observacion: Si A /
nn
(R) es inversible, entonces la unica solucion del sistema Ax = b se
puede escribir en la forma x = A
1
b. Sin embargo, en la practica no se suele calcular la inversa
de A para resolver el sistema.
Factorizacion LU.
La factorizacion LU consiste en descomponer una matriz A /
nn
(R) en el producto
A = LU, donde L /
nn
(R) es una matriz triangular inferior con todos los elementos dia-
gonales iguales a 1, y U /
nn
(R) es una matriz triangular superior. Diremos que A admite
factorizacion LU si es posible encontrar estas dos matrices.
El metodo de calculo de L y U se basa en la eliminacion gaussiana. Para poder obtener L
y U por este procedimiento sera necesario pedir condiciones adicionales a la matriz A.
Proposicion 3.4 Si todos los menores principales de A son distintos de cero entonces A admite
factorizacion LU. Ademas, en este caso, dicha factorizacion es unica.
Calculo de la factorizacion LU.
Sea A /
nn
(R) una matriz en las condiciones de la proposicion anterior. Entonces
es posible transformar la matriz A en una matriz triangular superior U mediante operaciones
elementales sobre las las de A del tipo F
ij
(), con i > j, es decir, sin efectuar permutaciones
de las y utilizando solo las las superiores para modicar las inferiores.
Sean F
1
, F
2
, . . . , F
k
las correspondientes matrices elementales de las tales que F
k
. . . F
2
F
1
A =
U. Entonces L = (F
k
. . . F
2
F
1
)
1
= F
1
1
F
1
2
. . . F
1
k
es triangular inferior, sus elementos diago-
nales son iguales a 1 y ademas A = LU.
Ejemplo: Consideremos la matriz:
A =
_
_
_
_
2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1
_
_
_
_
/
44
(R) .
Veamos que A admite factorizacion LU.
Los menores principales de la matriz A son:

1
= 2 ,= 0

2
=

2 1
4 4

= 4 ,= 0

3
=

2 1 0
4 4 1
2 1 1

= 4 ,= 0

4
=

2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1

= 16 ,= 0.
3.5. Matrices cuadradas y uso de la factorizacion LU. 35
Todos los menores principales de A son no nulos y por tanto admite factorizacion LU. Para
calcular dicha factorizacion, en primer lugar determinaremos la matriz triangular superior U
mediante operaciones elementales sobre las las de la matriz A del tipo F
ij
(), con i > j. As,
_
_
_
_
2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1
_
_
_
_
F
21
(2), F
31
(1)

F
41
(1)
_
_
_
_
2 1 0 1
0 2 1 3
0 0 1 1
0 4 4 0
_
_
_
_
F
42
(2)

_
_
_
_
2 1 0 1
0 2 1 3
0 0 1 1
0 0 2 6
_
_
_
_
F
43
(2)

_
_
_
_
2 1 0 1
0 2 1 3
0 0 1 1
0 0 0 4
_
_
_
_
= U .
De esto se deduce que
[F
43
(2)F
42
(2)F
41
(1)F
31
(1)F
21
(2)] A = U
y entonces
L = [F
43
(2)F
42
(2)F
41
(1)F
31
(1)F
21
(2)]
1
=
= F
21
(2)F
31
(1)F
41
(1)F
42
(2)F
43
(2) .
Calcular el producto de ests matrices elementales es equivalente a realizar las correspondientes
operaciones elementales a la matriz identidad:
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
F
43
(2), F
42
(2)

F
41
(1)
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
1 2 2 1
_
_
_
_
F
31
(1)

_
_
_
_
1 0 0 0
0 1 0 0
1 0 1 0
1 2 2 1
_
_
_
_
F
21
(2)

_
_
_
_
1 0 0 0
2 1 0 0
1 0 1 0
1 2 2 1
_
_
_
_
= L.
Observacion: En la practica no es necesario comprobar previamente que todos los menores prin-
cipales de A son no nulos. Esto es equivalente a que se pueda obtener la matriz U mediante
operaciones elementales sobre las las de A del tipo F
ij
(), con i > j, y ademas los elementos
diagonales de U sean distintos de cero.
36 3. Sistemas de ecuaciones lineales
Uso de la factorizacion LU.
Sea A /
nn
(R) una matriz cuadrada de rango n. Supongamos que A admite factoriza-
cion LU. Entonces resolver el sistema de ecuaciones lineales Ax = b es equivalente a resolver
consecutivamente los sistemas Lz = b, Ux = z. (En efecto, Ax = LUx = Lz = b).
Ejemplo: Sean
A =
_
_
_
_
2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1
_
_
_
_
; b =
_
_
_
_
5
14
1
1
_
_
_
_
.
Vamos a resolver el sistema Ax = b usando la factorizacion LU.
Ya hemos calculado la factorizacion LU de la matriz A:
A =
_
_
_
_
2 1 0 1
4 4 1 5
2 1 1 0
2 5 4 1
_
_
_
_
=
_
_
_
_
1 0 0 0
2 1 0 0
1 0 1 0
1 2 2 1
_
_
_
_
_
_
_
_
2 1 0 1
0 2 1 3
0 0 1 1
0 0 0 4
_
_
_
_
= LU .
Como A = LU, la resolucion del sistema Ax = b es equivalente a la resolucion sucesiva de
dos sistemas triangulares:
Ax = b L Ux
..
z
= b
_
Lz = b
Ux = z
La solucion z = (z
1
, z
2
, z
3
, z
4
)
t
del sistema Lz = b viene dada por
z
1
= 5
2z
1
+z
2
= 14 = z
2
= 4
z
1
+z
3
= 1 = z
3
= 4
z
1
2z
2
+ 2z
3
+z
4
= 1 = z
4
= 4
Calculamos ahora la solucion del sistema Ux = z:
4x
4
= 4 = x
4
= 1
x
3
+x
4
= 4 = x
3
= 3
2x
2
+x
3
+ 3x
4
= 4 = x
2
= 2
2x
1
x
2
+x
4
= 5 = x
1
= 1
Se puede comprobar que x = (x
1
, x
2
, x
3
, x
4
) = (1, 2, 3, 1) es la solucion del sistema
original Ax = b.
3.6. Mnimos cuadrados. Ajuste. 37
3.6. Mnimos cuadrados. Ajuste.
Consideremos un sistema de ecuaciones lineales Ax = b, donde A /
pn
(R) y b R
p
. Se
dene la imagen de A, y se denota por Im(A), como el subespacio generado por las columnas
de A.
La compatibilidad del sistema Ax = b se caracteriza en terminos de la imagen de A de
forma sencilla.
Proposicion 3.5 El sistema Ax = b es compatible si y solo si b Im(A).
La proposicion anterior dice que Ax = b es compatible solo cuando b es combinacion lineal
de las columnas de A. En el caso de que el sistema sea incompatible, se puede buscar una
solucion aproximada. Una posibilidad es determinar el vector y Im(A) cuya distancia al
termino independiente b sea la menor posible. Los vectores x R
n
tales que Ax = y seran lo
que llamaremos soluciones del sistema Ax = b en el sentido de mnimos cuadrados. As, se tiene
la siguiente denicion:
Denicion 3.2 Sean A /
pn
(R) y b R
p
. Se dice que x
0
R
n
es una solucion en el
sentido de mnimos cuadrados del sistema Ax = b si se verica:
|Ax
0
b| = mn|Ax b| / x R
n
.
La distancia mnima de b a la imagen de A es la distancia de b a la proyeccion ortogonal
de b sobre Im(A), es decir, al unico vector u
b
Im(A) tal que (b u
b
) es ortogonal a todos los
vectores de la imagen de A. Por tanto x
0
es una solucion de Ax = b en el sentido de mnimos
cuadrados si y solo si v = Ax
0
b es ortogonal a las columnas de A. Esto es equivalente a la
relacion
A
t
(Ax
0
b) = 0.
Por lo tanto, se cumple el siguiente resultado:
Teorema 3.1 Sean A /
pn
(R) y b R
p
. Un vector x
0
es una solucion en el sentido de
mnimos cuadrados de Ax = b si y solo si
A
t
Ax
0
= A
t
b.
Denicion 3.3 El sistema de ecuaciones lineales A
t
Ax = A
t
b cuyas soluciones son las solucio-
nes en el sentido de mnimos cuadrados del sistema Ax = b se conoce con el nombre de sistema
de ecuaciones normales del sistema Ax = b.
El siguiente resultado es una consecuencia de que en R
n
siempre es posible calcular la
proyeccion ortogonal de un vector v sobre un subespacio U. Ademas, si v U entonces la
proyeccion ortogonal es el propio v.
Teorema 3.2 Sean A /
pn
(R) y b R
p
. El sistema de ecuaciones lineales A
t
Ax = A
t
b es
un sistema compatible. Ademas:
38 3. Sistemas de ecuaciones lineales
(1) Si Ax = b es compatible entonces el conjunto de soluciones de A
t
Ax = A
t
b coincide con
el conjunto de soluciones de Ax = b.
(2) Si Ax = b es incompatible entonces el conjunto de soluciones de A
t
Ax = A
t
b coincide con
el conjunto de soluciones de Ax = b en el sentido de mnimos cuadrados.
(3) El sistema A
t
Ax = A
t
b tiene solucion unica si y solo si rg (A) = n.
Ajuste polinomico de datos mediante mnimos cuadrados.
Supongamos que se calcula experimentalmente el valor de una cierta cantidad y que se
supone que es funcion polinomica de otra cantidad x:
y = p(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
.
Si se realizan k experimentos en los que se obtienen las mediciones y
1
, y
2
, . . . , y
k
para los datos
de entrada respectivos x
1
, x
2
, . . . , x
k
, los coecientes del polinomio p(x) vendran dados por las
soluciones del sistema de ecuaciones lineales
y
1
= a
0
+a
1
x
1
+a
2
x
2
1
+ +a
n
x
n
1
y
2
= a
0
+a
1
x
2
+a
2
x
2
2
+ +a
n
x
n
2
.
.
.
y
k
= a
0
+a
1
x
k
+a
2
x
2
k
+ +a
n
x
n
k
,
o, en forma matricial,
_
_
_
_
_
1 x
1
x
2
1
x
n
1
1 x
2
x
2
2
x
n
2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
k
x
2
k
x
n
k
_
_
_
_
_
. .
A
_
_
_
_
_
_
_
a
0
a
1
a
2
.
.
.
a
n
_
_
_
_
_
_
_
. .
x
=
_
_
_
_
_
y
1
y
2
.
.
.
y
k
_
_
_
_
_
. .
b
.
Si el sistema Ax = b es compatible entonces la graca del polinomio cuyos coecientes son
la solucion del sistema pasa por todos los puntos (x
1
, y
1
), (x
2
, y
2
), . . . , (x
k
, y
k
). Si no es compati-
ble, la solucion del sistema de ecuaciones normales A
t
Ax = A
t
b proporciona los coecientes del
polinomio de grado n que mejor ajusta los datos en el sentido de mnimos cuadrados.
Observacion: Si el polinomio p(x) que buscamos es de grado 1 se dice que el ajuste es lineal. Si
p(x) es de grado 2, se dice que el ajuste es cuadratico.
Ejemplo: Encontrar la recta y la parabola de ajuste en el sentido de mnimos cuadrados para los
siguientes datos:
x 2 1 1 2
y 3 1 1 5
3.6. Mnimos cuadrados. Ajuste. 39
La recta tiene la forma y = a
0
+a
1
x, de modo que buscamos la solucion de mnimos cuadrados
del sistema
_
_
_
_
1 2
1 1
1 1
1 2
_
_
_
_
_
a
0
a
1
_
=
_
_
_
_
3
1
1
5
_
_
_
_
.
Denotando por
A =
_
_
_
_
1 2
1 1
1 1
1 2
_
_
_
_
, b =
_
_
_
_
3
1
1
5
_
_
_
_
,
el sistema de ecuaciones normales A
t
Ax = A
t
b es
_
4 0
0 10
__
a
0
a
1
_
=
_
10
4
_
.
Por tanto, a
0
= 5/2, a
1
= 2/5 y la recta es y =
5
2
+
2
5
x.
Figura 3.1: Aproximaciones lineal y cuadratica de los datos.
Si ahora buscamos la parabola y = a
0
+ a
1
x + a
2
x
2
que ajusta mejor estos datos en el
sentido de mnimos cuadrados, planteamos el sistema
_
_
_
_
1 2 4
1 1 1
1 1 1
1 2 4
_
_
_
_
_
_
a
0
a
1
a
2
_
_
=
_
_
_
_
3
1
1
5
_
_
_
_
.
El sistema de ecuaciones normales es
_
_
4 0 10
0 10 0
10 0 34
_
_
_
_
a
0
a
1
a
2
_
_
=
_
_
10
4
34
_
_
,
y tiene como solucion (a
0
, a
1
, a
2
) = (0, 2/5, 1). En consecuencia, la ecuacion de la parabola de
ajuste es
y = a
0
+a
1
x +a
2
x
2
=
2
5
x +x
2
.
En la gura 3.1 se representan los puntos y las aproximaciones lineal y cuadratica. Se observa
que esta ultima es mucho mas precisa.
40 3. Sistemas de ecuaciones lineales
Captulo 4
Espacios vectoriales y aplicaciones
lineales
4.1. Introducci on.
En este captulo introduciremos la denicion de espacio vectorial y los principales conceptos
relacionados, como la independencia lineal, generadores, base y dimension, que generalizan a los
ya conocidos para R
n
. Tambien se interpretan las matrices como aplicaciones lineales.
4.2. Espacios y subespacios vectoriales.
Denicion 4.1 Se llama espacio vectorial sobre R o espacio vectorial real a un conjunto V
dotado de dos operaciones:
Una operaci on interna (suma), de tal forma que (V, +) es un grupo conmutativo.
Una operacion externa (producto por escalares) que asigna a cada escalar R y a cada
elemento v V un nuevo elemento v V , de tal forma que se cumplen las siguientes
propiedades:
1. (v +w) = v +w, R, v, w V .
2. ( +)v = v +v , , R, v V .
3. ()v = (v) , , R, v V .
4. 1v = v , v V , donde 1 es el elemento neutro del producto en R.
A los elementos de V los llamaremos vectores y a los elementos de R los llamaremos escala-
res. Generalmente denotaremos a estos ultimos con letras del alfabeto griego. Si hay posibilidad
de confusion, al elemento neutro de la suma en V lo denotaremos por para distinguirlo del
cero de R.
41
42 4. Espacios vectoriales y aplicaciones lineales
Ejemplos:
1. R
n
es un espacio vectorial real con las operaciones usuales de suma y producto por esca-
lares.
2. El conjunto /
pn
(R) de las matrices reales de p las y n columnas es un espacio vectorial
sobre R con las operaciones denidas en el captulo 1.
3. El conjunto
n
(R) de los polinomios en una variable de grado menor o igual que n y con
coecientes en R es un espacio vectorial real con las operaciones habituales de suma de
polinomios y producto de un escalar por un polinomio.

n
(R) = a
0
+a
1
x + +a
n
x
n
/ a
0
, a
1
, . . . , a
n
R.
Subespacios vectoriales.
Denicion 4.2 Sea V un espacio vectorial. Un subconjunto U de V es un subespacio vecto-
rial de V si cumple las siguientes propiedades:
(1) 0 U.
(2) u
1
+u
2
U , u
1
, u
2
U.
(3) u U , R, u U.
Las propiedades (2) y (3) de la denicion se pueden sustituir por la siguiente:
(4)
1
u
1
+
2
u
2
U ,
1
,
2
R, u
1
, u
2
U.
Ejemplos:
1. El conjunto U =
_
A /
nn
(R) / A
t
= A
_
es un subespacio vectorial de /
nn
(R).
Es evidente que 0 U, ya que 0
t
= 0. Veamos que se cumple la propiedad (4): si A, B U
entonces A
t
= A, B
t
= B, y por tanto, si , R entonces:
(A+B)
t
= A
t
+B
t
= A+B,
es decir, (A+B) U, , R.
2. El conjunto W = A /
22
(R) / det(A) = 0 no es un subespacio vectorial de /
22
(R).
Aunque 0 W, veamos que no se cumple la propiedad (2); para ello basta tomar
A
1
=
_
1 0
0 0
_
, A
2
=
_
0 0
0 1
_
.
Es claro que A
1
y A
2
pertenecen a W ya que det(A
1
) = det(A
2
) = 0. Sin embargo,
det(A
1
+A
2
) =

1 0
0 1

= 1 ,= 0 = A
1
+A
2
, W.
4.2. Espacios y subespacios vectoriales. 43
Al igual que en R
n
, si v
1
, v
2
, . . . , v
n
son n vectores de un espacio vectorial V y
1
, . . . ,
n
son n umeros reales, entonces cualquier vector de la forma
v =
1
v
1
+
2
v
2
+
n
v
n
se llama combinacion lineal de v
1
, v
2
, . . . , v
n
.
Tenemos la siguiente caracterizacion de los subespacios vectoriales:
Proposicion 4.1 Un subconjunto no vaco U de un espacio vectorial V es un subespacio vec-
torial si y solo si todas las combinaciones lineales de vectores de U pertenecen a U.
Denicion 4.3 Sea U un subespacio vectorial de un espacio vectorial V . Se dice que un sub-
conjunto S de U es un conjunto de generadores de U si todo vector de U es combinacion
lineal de vectores de S. Se denota U =< S >. Si S es un conjunto de generadores de U, diremos
que U es el subespacio generado por S.
Proposicion 4.2 Si A /
pn
(R), entonces Ker (A) = x R
n
/ Ax = 0 es un subespacio
vectorial de R
n
.
Demostracion. Es claro que 0 Ker (A) ya que A0 = 0. Ademas, si x
1
, x
2
Ker (A) y
1
,
2
R,
entonces
A(
1
x
1
+
2
x
2
) =
1
Ax
1
+
2
Ax
2
=
1
0 +
2
0 = 0,
de modo que
1
x
1
+
2
x
2
Ker (A). .
Hallar un conjunto de generadores de Ker (A) es equivalente a resolver el sistema homogeneo
Ax = 0.
Ejemplo:
Sea U =
_
(x, y, z) R
3
/ x +y +z = 0
_
. Podemos escribir:
U = (y z, y, z) / y, z R = y(1, 1, 0) +z(1, 0, 1) / y, z R
=< (1, 1, 0), (1, 0, 1) > .
En muchas ocasiones la forma mas sencilla de probar que un subconjunto U de un espacio
vectorial V es un subespacio consiste en encontrar un conjunto de generadores.
Ejemplo: Sea U = p(x)
2
(R) / p(1) = 0.
Consideremos un polinomio arbitrario p(x) = a +bx +cx
2

2
(R). Entonces:
p(x) U p(1) = 0 a +b +c = 0.
Podemos reescribir U como:
U =
_
a +bx +cx
2

2
(R) / a +b +c = 0
_
=
_
a +bx +cx
2

2
(R) / c = a b
_
=
=
_
a +bx + (a b)x
2
/ a, b R
_
=
_
a(1 x
2
) +b(x x
2
) / a, b R
_
=< 1 x
2
, x x
2
> .
Por tanto, U es el subespacio vectorial de
2
(R) generado por 1 x
2
y x x
2
.
44 4. Espacios vectoriales y aplicaciones lineales
4.3. Independencia lineal.
Sea V un espacio vectorial y S un subconjunto de V . Se dice que un vector v V depende
linealmente de los vectores de S si v es combinacion lineal de vectores de S, es decir, si existen

1
, . . . ,
n
R, v
1
, v
2
, . . . , v
n
S tales que v =
1
v
1
+
2
v
2
+
n
v
n
.
Un conjunto de vectores es linealmente independiente o libre si ninguno de ellos es combina-
cion lineal del resto. Se llama rango de un conjunto de vectores al n umero de vectores linealmente
independientes que contiene. Por tanto, un conjunto de n vectores es linealmente independiente
si y solo si su rango es n.
Si V = R
n
entonces estudiar si un conjunto de vectores S es libre se reduce a calcular el
rango de la matriz que tiene como las los vectores de S: un conjunto S = v
1
, v
2
, . . . , v
p
de
vectores de R
n
es libre si y solo si
rg
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
p
_
_
_
_
_
= p.
Ejemplo: Sea S = (1, 2, 1, 1), (1, 1, 0, 0), (1, 5, 2, 2). Entonces:
rg (S) = rg
_
_
1 2 1 1
1 1 0 0
1 5 2 2
_
_
F
21
(1)
=
F
31
(1)
rg
_
_
1 2 1 1
0 3 1 1
0 3 1 1
_
_
F
32
(1)
= rg
_
_
1 2 1 1
0 3 1 1
0 0 0 0
_
_
= 2.
Por tanto, S no es libre.
Observacion: Si solo se realizan operaciones elementales por las en A para determinar una
matriz escalonada A

y obtener el rango de S entonces el subespacio generado por S coincide


con el subespacio generado por las las no nulas de A

. Esta propiedad no es cierta si se combinan


operaciones de las y columnas para calcular el rango.
En el ejemplo anterior,
U =< S >=< (1, 2, 1, 1), (1, 1, 0, 0), (1, 5, 2, 2) >=< (1, 2, 1, 1), (0, 3, 1, 1) > .
Para otros espacios vectoriales, resulta util la siguiente caracterizacion de la independencia
lineal:
Proposicion 4.3 Un conjunto S = v
1
, v
2
, . . . , v
n
de vectores es linealmente independiente si
y solo si se cumple la siguiente propiedad:
Si
1
, . . . ,
n
son n umeros reales tales que
1
v
1
+
2
v
2
+ +
n
v
n
= 0 entonces necesa-
riamente
1
=
2
= =
n
= 0.
Por ejemplo, el conjunto
S =
__
2 1
3 1
_
,
_
0 1
2 1
_
,
_
1 1
4 0
__
4.4. Bases y dimension. 45
es libre porque

_
2 1
3 1
_
+
_
0 1
2 1
_
+
_
1 1
4 0
_
=
_
0 0
0 0
_

_
_
_
_
2 0 1
1 1 1
3 2 4
1 1 0
_
_
_
_
_
_

_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
y la unica solucion del sistema es (, , ) = (0, 0, 0) porque el rango de la matriz de coecientes
es 3.
4.4. Bases y dimensi on.
Denicion 4.4 Un conjunto linealmente independiente de generadores de un espacio vectorial
V se llama base de V .
Ejemplos:
1. El conjunto ( = (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1) es una base de R
n
llamada
base canonica.
2. El conjunto B = 1, x, x
2
, . . . , x
n
es una base del espacio de polinomios
n
(R).
3. El conjunto
B =
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
es una base de /
22
(R).
Dimension.
Aunque un espacio vectorial tiene innitas bases, todas ellas tienen el mismo n umero de
vectores. Se llama dimension de V al n umero de vectores de cualquier base de V . Se denota
dim(V ).
Ejemplos:
Para los espacios vectoriales que hemos mencionado anteriormente, se tiene:
dim(R
n
) = n , dim(
n
(R)) = n + 1 , dim(/
22
(R)) = 4.
Observacion: Si V = 0 entonces no existe ninguna base de V y, por convenio, deniremos
dim(V ) = 0.
Calculo de la dimension.
En primer lugar, si V =< v
1
, v
2
, . . . , v
p
> entonces dim(V ) = rg (v
1
, v
2
, . . . , v
p
).
Ejemplo: Sea U =< (1, 2, 1, 1), (0, 1, 1, 1), (0, 0, 0, 1) >. Entonces
dim(U) = rg
_
_
1 2 1 1
0 1 1 1
0 0 0 1
_
_
= 3.
46 4. Espacios vectoriales y aplicaciones lineales
Si U = Ker (A), con A /
pn
(R), entonces U es un subespacio de R
n
de dimension
d = n rg (A).
Ejemplo:
Sea U =
_
_
_
(x, y, z, t) R
4
/
x + 2y +z +t = 0
x y = 0
x + 5y + 2z + 2t = 0
_
_
_
= Ker
_
_
1 2 1 1
1 1 0 0
1 5 2 2
_
_
.
dim(U) = 4 rg
_
_
1 2 1 1
1 1 0 0
1 5 2 2
_
_
F
21
(1)
=
F
31
(1)
4 rg
_
_
1 2 1 1
0 3 1 1
0 3 1 1
_
_
=
F
32
(1)
= 4 rg
_
_
1 2 1 1
0 3 1 1
0 0 0 0
_
_
= 4 2 = 2.
Esta propiedad se puede extender a cualquier espacio vectorial de dimension nita V : Si
U es un subespacio de V entonces la dimension de U es igual a la dimension de V menos
el n umero de ecuaciones linealmente independientes que denen a U.
Por ejemplo, si U = A = (a
ij
) /
nn
(R) / a
ii
= 0, i = 1, 2, . . . , n entonces
dim(U) = dim(/
nn
(R)) n = n
2
n.
4.5. Cambio de base en R
n
.
La siguiente propiedad es una consecuencia inmediata de la denicion de base y permite
introducir el concepto de vector de coordenadas:
Proposicion 4.4 Sea B = u
1
, u
2
, . . . , u
n
una base de R
n
. Cada x R
n
se puede escribir de
modo unico como
x =
1
u
1
+
2
u
2
+ +
n
u
n
.
El vector (
1
,
2
, . . . ,
n
) se llama vector de coordenadas de x respecto de la base B y se
suele denotar x = (
1
,
2
, . . . ,
n
)
B
.
Ejemplo: En R
3
se considera la base B = (1, 1, 1), (1, 2, 0), (0, 0, 1).
Calculamos las coordenadas de x = (1, 0, 0) respecto de B:
Si (1, 0, 0) = (, , )
B
entonces:
(1, 0, 0) = (1, 1, 1) +(1, 2, 0) +(0, 0, 1) = ( +, + 2, +)

_
_
_
+ = 1
+ 2 = 0
+ = 0
_
_
_

_
_
_
= 2
= 1
= 2.
Por tanto, (1, 0, 0) = (2, 1, 2)
B
.
4.5. Cambio de base en R
n
. 47
Si B es una base de un espacio vectorial V y x = (
1
,
2
, . . . ,
n
)
B
entonces denotaremos
x
B
=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
/
n1
(R).
Observemos que si consideramos la base canonica (, entonces las coordenadas de un vector
x = (x
1
, x
2
, . . . , x
n
) R
n
respecto de ( son precisamente (x
1
, x
2
, . . . , x
n
), es decir,
x
C
= x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
/
n1
(R).
A continuacion veremos como cambian las coordenadas de un vector x al cambiar de base.
Sea B = u
1
, u
2
, . . . , u
n
una base de R
n
. Se llama matriz de cambio de base de B a la
base canonica ( a la matriz P /
nn
(R) cuyas columnas son los vectores de B, es decir,
P = (u
1
[u
2
[ [u
n
) .
Ejemplo: Sea B = (1, 1, 1), (1, 2, 0), (0, 0, 1). La matriz de cambio de base de B a ( es
P = P
BC
=
_
_
1 1 0
1 2 0
1 0 1
_
_
.
La propiedad que caracteriza a la matriz de cambio de base es la siguiente:
Proposicion 4.5 Si P = P
BC
es la matriz de cambio de base de B a ( entonces
P
BC
x
B
= x
C
, x R
n
.
Demostracion. Sea x = (x
1
, x
2
, . . . , x
n
) R
n
y (
1
,
2
, . . . ,
n
) su vector de coordenadas respecto
de B. Entonces:
x = x
C
=
1
u
1
+
2
u
2
+ +
n
u
n
= (u
1
[u
2
[ [u
n
)
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
= P x
B
.
El cambio de base de ( a B se puede hacer utilizando la sigiente propiedad:
Proposicion 4.6 Sea B una base de R
n
. Entonces P
BC
es inversible y ademas (P
BC
)
1
= P
CB
.
48 4. Espacios vectoriales y aplicaciones lineales
Demostracion. Como las columnas de P
BC
son los vectores de la base B, claramente son lineal-
mente independientes y por tanto P
BC
es inversible.
Por otra parte, para cada x R
n
, se tiene:
P
BC
x
B
= x
C
= x
B
= (P
BC
)
1
x
C
.
De aqu se deduce que (P
BC
)
1
= P
CB
. .
Ejemplo:
La matriz de cambio de base de ( = (1, 0, 0), (0, 1, 0), (0, 0, 1) a B = (1, 1, 1), (1, 2, 0), (0, 0, 1)
es
P
CB
= (P
BC
)
1
=
_
_
1 1 0
1 2 0
1 0 1
_
_
1
=
_
_
2 1 0
1 1 0
2 1 1
_
_
.
4.6. Bases ortonormales.
Una base B = u
1
, u
2
, . . . , u
n
de R
n
es una base ortonormal si todos los vectores son
unitarios y ortogonales entre s, es decir, u
i
, u
j
= 0 si i ,= j y u
i
, u
i
= 1 para todo i =
1, 2, . . . , n.
El siguiente resultado muestra como obtener un conjunto ortonormal de un conjunto libre:
Teorema 4.1 (Ortonormalizacion de Gram-Schmidt) Sea S = v
1
, v
2
, . . . , v
p
un con-
junto libre de vectores de R
n
. Existe un conjunto ortonormal T = u
1
, u
2
, . . . , u
p
tal que
< S >=< T >. Es m as,
< v
1
, . . . , v
k
>=< u
1
, . . . , u
k
>, k = 1, . . . , p.
Descripcion del proceso de ortonormalizacion de Gram-Schmidt.
Sea S = v
1
, v
2
, . . . , v
p
el conjunto libre de vectores de R
n
que queremos ortonormalizar.
Se procede del siguiente modo:
(1) Se construye u
1
dividiendo v
1
por su norma:
u
1
=
1
|v
1
|
v
1
.
(2) Para cada i 2 se construye u
i
en dos etapas:
(2.1) Se calcula un vector u
i
dado por:
u
i
= v
i

i1

j=1
v
i
, u
j
u
j
= v
i
v
i
, u
1
u
1
v
i
, u
i1
u
i1
.
4.7. Denicion de aplicacion lineal y propiedades. 49
(2.2) Se normaliza el vector u
i
:
u
i
=
1
| u
i
|
u
i
.
Ejemplo:
Vamos a ortonormalizar el subconjunto S = (1, 0, 1), (1, 1, 1) de R
3
.
Denotemos por v
1
= (1, 0, 1), v
2
= (1, 1, 1). Entonces:
u
1
=
v
1
|v
1
|
=
1

2
(1, 0, 1) =
_
1

2
, 0,
1

2
_
;
u
2
= v
2
v
2
, u
1
u
1
= (1, 1, 1)
2

2
_
1

2
, 0,
1

2
_
= (1, 1, 1) (1, 0, 1) = (0, 1, 0);
u
2
=
u
2
| u
2
|
= (0, 1, 0).
El conjunto T = u
1
, u
2
=
__
1

2
, 0,
1

2
_
, (0, 1, 0)
_
es ortonormal y genera el mismo subespacio
vectorial que S.
4.7. Denici on de aplicacion lineal y propiedades.
Una matriz A /
pn
(R) se puede identicar con la aplicacion L : R
n
R
p
denida por
L(x) = Ax, donde x R
n
es un vector columna.
Esta aplicacion recibe el nombre de aplicacion lineal. En general, una aplicacion L : R
n
R
p
es lineal si cumple las siguientes propiedades:
1. L(x +y) = L(x) +L(y) , x, y R
n
.
2. L(x) = L(x) , R, x R
n
.
De estas propiedades se obtiene por induccion que
L(
1
v
1
+
2
v
2
+ +
n
v
n
) =
1
L(v
1
) +
2
L(v
2
) + +
n
L(v
n
) ,
para todo
1
,
2
, . . . ,
n
R, y v
1
, v
2
, . . . , v
n
R
n
.
En otras palabras, L : R
n
R
p
es una aplicacion lineal si la imagen de la combinacion
lineal de n vectores de R
n
es igual a la combinacion lineal de las imagenes.
Matriz asociada a una aplicacion lineal.
Al igual que una matriz dene una aplicacion lineal, veremos que una aplicacion lineal
L : R
n
R
p
siempre se puede escribir en la forma L(x) = Ax para una matriz A /
pn
(R).
Teorema 4.2 Sea L : R
n
R
p
una aplicacion lineal. Entonces existe una matriz A /
pn
(R)
tal que L(x) = Ax, x R
n
.
50 4. Espacios vectoriales y aplicaciones lineales
Demostracion. Denotemos por C = e
1
, e
2
, . . . , e
n
la base canonica de R
n
.
Sea x = (x
1
, x
2
, . . . , x
n
) = x
1
e
1
+x
2
e
2
+ +x
n
e
n
R
n
. Como L es una aplicacion lineal:
L(x) = L(x
1
e
1
+x
2
e
2
+ +x
n
e
n
) = x
1
L(e
1
) +x
2
L(e
2
) + +x
n
L(e
n
) =
= (L(e
1
)[L(e
2
)[ [L(e
n
))
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= Ax.
.
La matriz A del teorema anterior se llama matriz asociada a L. Sus columnas son las
imagenes de los vectores de la base canonica. En la practica, la matriz asociada a una aplicacion
lineal se puede obtener directamente.
Ejemplo: Sea L : R
3
R
2
denida por L(x, y, z) = (x + 2y z, y + 4z). Entonces:
L(x, y, z) =
_
x + 2y z
y + 4z
_
=
_
1 2 1
0 1 4
_
_
_
x
y
z
_
_
.
La matriz asociada a L es
A =
_
1 2 1
0 1 4
_
/
23
(R).
4.8. N ucleo e imagen de una aplicacion lineal.
Sea L : R
n
R
p
una aplicacion lineal. Se dene el n ucleo de L como
Ker (L) = x R
n
/ L(x) = 0.
Es claro que si A es la matriz asociada a L entonces Ker (L) = Ker (A) = x R
n
/ Ax = 0.
La imagen de L se dene como el subespacio formado por todos los vectores de R
p
que son
imagen de alg un vector de R
n
por la aplicacion L:
Im(L) = L(x) / x R
n
.
Si B = u
1
, u
2
, . . . , u
n
es una base de R
n
entonces Im(L) =< L(u
1
), L(u
2
), . . . , L(u
n
) > .
En particular, tomando la base canonica, se obtiene que la imagen de L esta generada por
las columnas de la matriz asociada A, es decir, Im(L) = Im(A).
Ejemplo: Se considera la aplicacion lineal L : R
4
R
3
denida por
L(x, y, z, t) = (x +y +z, y 2z +t, 2x +y + 4z t).
4.8. N ucleo e imagen de una aplicacion lineal. 51
Vamos a calcular una base de Ker (L) y otra de Im(L).
La matriz asociada es
A =
_
_
1 1 1 0
0 1 2 1
2 1 4 1
_
_
.
Por tanto, Ker (L) = Ker (A) = x R
4
/ Ax = 0. Para resolver el sistema, hacemos
operaciones elementales sobre las las de la matriz de coecientes:
_
_
1 1 1 0
0 1 2 1
2 1 4 1
_
_
F
31
(2)

_
_
1 1 1 0
0 1 2 1
0 1 2 1
_
_
F
32
(1)

_
_
1 1 1 0
0 1 2 1
0 0 0 0
_
_
F
12
(1)

_
_
1 0 3 1
0 1 2 1
0 0 0 0
_
_
.
As,
Ker (L) =
_
(x, y, z, t) R
4
/
x = 3z +t
y = 2z t
_
= (3z +t, 2z t, z, t) / z, t R =
= z(3, 2, 1, 0) +t(1, 1, 0, 1) / z, t R =< (3, 2, 1, 0), (1, 1, 0, 1) > .
Por tanto, dim(Ker (L)) = 2 y una base de Ker (L) es
B
1
= (3, 2, 1, 0), (1, 1, 0, 1) .
Por otra parte, la imagen de L esta generada por las columnas de A:
Im(L) = Im(A) =< (1, 0, 2), (1, 1, 1), (1, 2, 4), (0, 1, 1) > .
Para calcular una base de la imagen de L hacemos operaciones elementales para eliminar
los vectores linealmente dependientes:
_
_
_
_
1 0 2
1 1 1
1 2 4
0 1 1
_
_
_
_
F
21
(1)

F
31
(1)
_
_
_
_
1 0 2
0 1 1
0 2 2
0 1 1
_
_
_
_
F
32
(2)

F
42
(1)
_
_
_
_
1 0 2
0 1 1
0 0 0
0 0 0
_
_
_
_
.
Por tanto, dim(Im(L)) = 2 y una base de Im(L) es
B
2
= (1, 0, 2), (0, 1, 1) .
Inversas de aplicaciones lineales.
El siguiente resultado muestra que aplicaciones lineales son inversibles y como calcular la
aplicacion inversa.
52 4. Espacios vectoriales y aplicaciones lineales
Proposicion 4.7 Sea L : R
n
R
n
una aplicacion lineal y sea A /
nn
(R) su matriz
asociada. Entonces L es inversible si y solo si A es inversible. Ademas, la matriz asociada a
L
1
es A
1
.
Ejemplo:
Consideremos la aplicacion lineal L : R
2
R
2
dada por L(x, y) = (x+y, 2x+y). Su matriz
asociada es
A =
_
1 1
2 1
_
.
Como [A[ = 1 ,= 0, A es inversible y por tanto L es inversible.
La matriz asociada a L
1
es
A
1
=
_
1 1
2 1
_
,
y en consecuencia la aplicacion inversa L
1
: R
2
R
2
esta denida por
L
1
(x, y) = A
1
_
x
y
_
=
_
1 1
2 1
__
x
y
_
=
_
x +y
2x y
_
.
4.9. Transformaciones ortogonales.
Se dice que una aplicacion lineal L : R
n
R
n
es una transformacion ortogonal si conserva
el producto escalar, es decir, si para cada par de vectores x e y de R
n
se cumple que
L(x), L(y) = x, y.
Observemos que si A es la matriz asociada a la aplicacion L entonces
L(x), L(y) = Ax, Ay = (Ax)
t
Ay = x
t
A
t
Ay.
De esta relacion se obtiene el siguiente resultado que caracteriza las transformaciones orto-
gonales:
Proposicion 4.8 Sea L : R
n
R
n
una aplicacion lineal y sea A /
nn
(R) su matriz
asociada. Entonces L es una transformacion ortogonal si y solo si A es una matriz ortogonal.
Es facil probar que las transformaciones ortogonales conservan la norma, la distancia y el
angulo. Por esta razon se suelen llamar movimientos rgidos. En R
2
las unicas transformaciones
ortogonales son giros o simetras respecto a un eje.
4.10. Proyeccion ortogonal. 53
4.10. Proyecci on ortogonal.
Sea x R
n
y sea U un subespacio de R
n
con dim(U) = p < n. Se llama proyeccion
ortogonal de x sobre el subespacio U al unico vector u
x
U tal que (xu
x
) es ortogonal a U.
El vector v
x
= x u
x
se llama componente normal de x respecto a U y su norma representa
la mnima distancia de x al subespacio U, es decir, d(x, U) = |x u
x
|.
La proyeccion ortogonal se puede considerar como una aplicacion lineal de R
n
en R
n
cuya
matriz asociada se llama matriz de proyeccion ortogonal. El siguiente resultado permite construir
la matriz de proyeccion ortogonal sobre un subespacio U a partir de una base ortonormal.
Proposicion 4.9 Sea U un subespacio vectorial de R
n
y B = u
1
, . . . u
p
una base ortonormal
de U. Entonces la proyeccion ortogonal de un vector x sobre U es
u
x
= u
1
u
t
1
x +u
2
u
t
2
x + +u
p
u
t
p
x = Px,
donde
P = u
1
u
t
1
+u
2
u
t
2
+ +u
p
u
t
p
= (u
1
[u
2
[ [u
p
)
_
_
_
_
_
u
t
1
u
t
2
.
.
.
u
t
p
_
_
_
_
_
/
nn
(R)
se llama matriz de proyecci on ortogonal.
Demostracion. En primer lugar, u
x
= u
1
(u
t
1
x) +u
2
(u
t
2
x) + +u
p
(u
t
p
x) U por ser combinacion
lineal de vectores de una base de U.
Por otra parte, (x u
x
) es ortogonal a U ya que es ortogonal a los vectores de la base B.
Por ejemplo, usando que B es ortonormal, se tiene:
u
t
1
u
x
= u
t
1
(u
1
u
t
1
x +u
2
u
t
2
x + +u
p
u
t
p
x) = (u
t
1
u
1
)u
t
1
x + (u
t
1
u
2
)u
t
2
x + + (u
t
1
u
p
)u
t
p
x = u
t
1
x.
Por tanto, u
t
1
(x u
x
) = u
t
1
x u
t
1
u
x
= 0.
Del mismo modo se prueba para u
2
, . . . , u
p
.
Ejemplo: Hallar la matriz de proyeccion ortogonal sobre el subespacio
U = (x, y, z) R
3
/ x +y z = 0.
En primer lugar, calculamos una base de U:
U = (x, y, z) R
3
/ x +y z = 0 = (x, y, x +y) / x, y R =< (1, 0, 1), (0, 1, 1) > .
Una base de U es B

U
= (1, 0, 1), (0, 1, 1).
54 4. Espacios vectoriales y aplicaciones lineales
Aplicamos el proceso de Gram-Schmidt a los vectores v
1
= (1, 0, 1), v
2
= (0, 1, 1) para
obtener una base ortonormal B
U
= u
1
, u
2
de U:
u
1
=
v
1
|v
1
|
=
1

2
_
_
1
0
1
_
_
=
_
_
1/

2
0
1/

2
_
_
;
u
2
= v
2
v
2
, u
1
u
1
=
_
_
0
1
1
_
_

_
_
1/2
0
1/2
_
_
=
_
_
1/2
1
1/2
_
_
;
u
2
=
u
2
| u
2
|
=
_
_
1/

6
2/

6
1/

6
_
_
.
La matriz de proyeccion ortogonal sobre U es:
P = u
1
u
t
1
+u
2
u
t
2
= (u
1
[u
2
)
_
u
t
1
u
t
2
_
=
_
_
1/

2 1/

6
0 2/

6
1/

2 1/

6
_
_
_
1/

2 0 1/

2
1/

6 2/

6 1/

6
_
=
=
_
_
1/2 + 1/6 0 2/6 1/2 1/6
0 2/6 0 + 4/6 0 + 2/6
1/2 1/6 0 + 2/6 1/2 + 1/6
_
_
=
_
_
2/3 1/3 1/3
1/3 2/3 1/3
1/3 1/3 2/3
_
_
.
Caso particular:
Sea u un vector unitario y sea U =< u >. La matriz de proyeccion ortogonal sobre U es
P
U
= uu
t
. Es facil comprobar que P
U
tiene rango 1, ya que todas sus las son m ultiplos de u.
En el caso general, el rango de P
U
coincide con la dimension de U.
Ejemplo: Construir la matriz de proyecci on ortogonal sobre W =< (2, 2, 1) >.
Para ello calculamos un vector unitario u en la direccion de v = (2, 2, 1) dividiendo por su
norma:
u =
v
|v|
=
_
_
2/3
2/3
1/3
_
_
.
Por tanto,
P = uu
t
=
_
_
2/3
2/3
1/3
_
_
(2/3, 2/3, 1/3) =
1
9
_
_
4 4 2
4 4 2
2 2 1
_
_
.
Captulo 5
Diagonalizaci on y funciones de
matrices
5.1. Introducci on.
Los conceptos principales de este captulo son los de autovalor y autovector de una ma-
triz cuadrada. Se introduce el polinomio caracterstico para el calculo de autovalores y se dan
aplicaciones a la diagonalizacion de matrices y al calculo de funciones de matrices. Tambien se
introduce el concepto de valos singular y su aplicacion en la obtencion de la mejor aproximacion
de rango k de una matriz.
5.2. Autovalores y autovectores.
Denicion 5.1 Sea A /
nn
(R). Un vector x es un autovector de A si x ,= 0 y existe un
escalar tal que Ax = x. El escalar se llama autovalor de A asociado al autovector x.
Aunque en la mayora de las aplicaciones que veremos este curso trabajaremos con autova-
lores reales y por tanto el autovector es un vector de R
n
, veremos que es posible que el escalar
sea complejo. En ese caso el autovector asociado sera un vector x C
n
.
Denicion 5.2 El conjunto de todos los autovalores de una matriz A /
nn
(R) se llama
espectro de A y se denota Sp(A).
Ejemplo 1:
Consideremos la matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
/
33
(R).
55
56 5. Diagonalizacion y funciones de matrices
Veamos que = 3 es una autovalor de A y v = (1, 1, 1) es un autovector asociado a dicho
autovalor :
Av =
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
1
1
1
_
_
=
_
_
3
3
3
_
_
= 3
_
_
1
1
1
_
_
.
Ejemplo 2:
La matriz
A =
_
0 1
1 0
_
no tiene autovalores reales. Sin embargo, = i Sp(A):
_
0 1
1 0
__
i
1
_
=
_
1
i
_
= i
_
i
1
_
.
Calculo de autovalores: polinomio caracterstico.
La forma de calcular los autovalores de una matriz la proporciona el siguiente resultado:
Teorema 5.1 Sea A /
nn
(R) y sea un escalar. Entonces Sp(A) det(AI) = 0.
En consecuencia, Sp(A) = C/ det(AI) = 0.
Demostracion.
Observemos que
Ax = x Ax x = 0 (AI)x = 0 x Ker (AI).
Por tanto,
Sp(A) Ker (AI) ,= 0 [AI[ = 0.
.
Si A /
nn
(R), se llama polinomio caracterstico de A al polinomio denido por
q
A
(x) = det(A xI). El teorema anterior dice que los autovalores de A son las races de su
polinomio caracterstico.
Ejemplo: Sea
A =
_
1 2
2 1
_
/
33
(R).
El polinomio caracterstico de A es
q
A
(x) = [AxI[ =

1 x 2
2 1 x

= x
2
2x 3.
Los autovalores de A son las races q
A
(x). En este caso, como
x
2
2x 3 = 0 x =
2

16
2
,
5.2. Autovalores y autovectores. 57
los autovalores de A son
1
= 3,
2
= 1.
Si A /
nn
(R) entonces su polinomio caracterstico tiene grado exactamente n y su
coeciente principal es (1)
n
. Es decir,
q
A
(x) = (1)
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
.
Recordamos ahora algunas notas sobre races de polinomios necesarias para enunciar otros
resultados sobre el polinomio caracterstico.
Denicion 5.3 Sea p(x) un polinomio de grado n con coecientes en R. Se dice que es una
raz de p(x) de multiplicidad k si existe un polinomio p
1
(x) tal que p(x) = (x )
k
p
1
(x) y
p
1
() ,= 0.
Es bien sabido que un polinomio p(x) de grado n con coecientes reales tiene exactamente
n races en C contadas con su multiplicidad, es decir,
p(x) = c(x
1
)

1
(x
2
)

2
. . . (x
r
)
r
,
donde c R,
1
,
2
, . . . ,
r
C,
1
,
2
, . . . ,
r
N y
1
+
2
+ +
r
= n.
Denicion 5.4 Sea A /
nn
(R) y sea Sp(A). Se llama multiplicidad algebraica de
a la multiplicidad de como raz de q
A
(x), es decir al n umero natural tal que q
A
(x) =
(x )

p(x), p() ,= 0. Se denota m.a. ().


Por tanto, una matriz A /
nn
(R) tiene exactamente n autovalores (contados con su
multiplicidad), aunque algunos de ellos pueden no ser reales.
Calculo de autovectores. Subespacios propios.
Denicion 5.5 Sea A /
nn
(R) y sea Sp(A). Si R entonces los autovectores asocia-
dos son vectores de R
n
. Se llama subespacio propio asociado a al conjunto
V () = x R
n
/ Ax = x = Ker (AI).
Denicion 5.6 Se llama multiplicidad geometrica de a la dimension del subespacio propio
V (), es decir,
m.g. () = dim(V ()) = dim(Ker (AI)).
Observacion: Recordemos que si A /
nn
(R) entonces dim(Ker (A)) = n rg (A). Por tanto,
m.g. () = dim(Ker (AI)) = n rg (AI).
Si Sp(A), tanto la multiplicidad algebraica como la multiplicidad geometrica de son
al menos 1. De hecho se tiene el siguiente resultado:
Proposicion 5.1 Sea A /
nn
(R) y sea Sp(A). Entonces 1 m.g. () m.a. () n.
58 5. Diagonalizacion y funciones de matrices
Corolario 5.1 Si Sp(A) y m.a. () = 1 entonces m.g. () = m.a. () = 1.
Ejemplo:
Se considera la matriz
A =
_
_
0 1 1
1 1 0
1 0 1
_
_
.
Calculamos el polinomio caracterstico de A:
[AxI[ =

x 1 1
1 1 x 0
1 0 1 x

F
32
(1)
=

x 1 1
1 1 x 0
0 1 x 1 x

=
K
23
(1)
=

x 0 1
1 1 x 0
0 0 1 x

= (1 x)

x 0
1 1 x

= x(1 x)
2
.
Por tanto, Sp(A) = 0, 1, con m.a. (0) = 1, m.a. (1) = 2.
Como m.a. (0) = 1, se tiene que m.g. (0) = m.a. (0) = 1.
A continuacion calculamos la multiplicidad geometrica del autovalor = 1:
m.g. (1) = 3 rg (AI) = 3 rg
_
_
1 1 1
1 0 0
1 0 0
_
_
= 3 2 = 1.
Los subespacios propios asociados a 0 y 1 son:
V (0) = Ker (A) = (x, y, z) R
3
/ y = x, z = x =< (1, 1, 1) > .
V (1) = Ker (AI) = (x, y, z) R
3
/ x = 0, z = y =< (0, 1, 1) > .
Propiedades:
1. Si D = (d
ij
) /
nn
(R) es una matriz diagonal entonces los autovalores de D son los
elementos diagonales d
1
, d
2
, . . . , d
n
.
2. Si A /
nn
(R) y Sp(A) =
1
,
2
, . . . ,
n
(cada autovalor aparece tantas veces como
indica su multiplicidad algebraica), entonces:
det(A) =
n

i=1

i
=
1

2

n
tr (A) =
n

i=1

i
=
1
+
2
+ +
n
.
Esta propiedad es util para comprobar si los autovalores se han calculado correctamente,
ya que su suma debe coincidir con la traza de la matriz.
5.3. Matrices diagonalizables. 59
5.3. Matrices diagonalizables.
Denicion 5.7 Sea A /
nn
(R). Se dice que A es diagonalizable si existen dos matrices
P, D /
nn
(R) tales que P es inversible, D es diagonal y A = PDP
1
.
Denotemos por
D =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
; P = (u
1
[u
2
[ . . . [u
n
) .
Observese que
A = PDP
1
AP = PD (Au
1
[Au
2
[ . . . [Au
n
) = (
1
u
1
[
2
u
2
[ . . . [
n
u
n
) .
Esto quiere decir que si A es diagonalizable entonces los elementos diagonales de la matriz
D son los autovalores de A (contados con su multiplicidad) y las columnas de la matriz P son
los correspondientes autovectores asociados (en el mismo orden). Para poder construir D y P
es necesario que todos los autovalores de A sean reales y que cada autovalor proporcione tantos
autovectores linealmente independientes como indica su multiplicidad algebraica. En resumen,
se tiene el siguiente resultado:
Teorema 5.2 Sea A /
nn
(R). Entonces:
(a) A es diagonalizable si y solo si todos los autovalores de A son reales y ademas
m.a. () = m.g. (), Sp(A).
(b) Si A es diagonalizable, las matrices P y D tales que A = PDP
1
se construyen del
siguiente modo:
D =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
; P = (u
1
[u
2
[ . . . [u
n
) ,
donde
1
,
2
, . . . ,
n
son los autovalores de A (contados con su multiplicidad) y u
1
, u
2
, . . . , u
n
son los correspondientes autovectores asociados.
La diagonalizacion se puede aplicar al calculo de potencias y races cuadradas de matrices.
Proposicion 5.2 Si A = PDP
1
entonces A
k
= PD
k
P
1
, k 1.
60 5. Diagonalizacion y funciones de matrices
Proposicion 5.3 Si A /
nn
(R) es diagonalizable y todos sus autovalores son mayores
o iguales que cero entonces se puede calcular una raz cuadrada de A en la forma A
1/2
=
PD
1/2
P
1
, donde
D
1/2
=
_
_
_
_
_

1
0 0
0

2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0

n
_
_
_
_
_
.
Ejemplo: Hallar una raz cuadrada de la matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
.
En este caso Sp(A) = 0, 3, con m.a. (0) = m.g. (0) = 2. Ademas,
Ker (A) =< (1, 0, 1), (0, 1, 1) > , Ker (A3I) =< (1, 1, 1) > .
Por tanto, podemos tomar
D =
_
_
0 0 0
0 0 0
0 0 3
_
_
, P =
_
_
1 0 1
0 1 1
1 1 1
_
_
,
de tal forma que A = PDP
1
. De este modo, la matriz
B = PD
1/2
P
1
=
_
_
1 0 1
0 1 1
1 1 1
_
_
_
_
0 0 0
0 0 0
0 0

3
_
_
_
_
2/3 1/3 1/3
1/3 2/3 1/3
1/3 1/3 1/3
_
_
=
=
1

3
_
_
1 1 1
1 1 1
1 1 1
_
_
es una raz cuadrada de A (es decir, B
2
= A).
5.4. Diagonalizaci on ortogonal.
Recordemos que una matriz P /
nn
(R) es ortogonal si P
1
= P
t
, es decir P
t
P = I.
Denicion 5.8 Sea A /
nn
(R). Se dice que A es ortogonalmente diagonalizable si existen
dos matrices P, D /
nn
(R) tales que P es ortogonal, D es diagonal y A = PDP
t
. En tal
caso, se dice que la descomposicion A = PDP
t
es una diagonalizacion ortogonal de A.
5.4. Diagonalizacion ortogonal. 61
Teorema 5.3 (Teorema espectral para matrices simetricas) Una matriz real A /
nn
(R)
es ortogonalmente diagonalizable si y solo si A es simetrica.
Calculo de la diagonalizacion ortogonal de una matriz simetrica.
Sea A /
nn
(R) una matriz simetrica. Veamos como construir las matrices P y D tales
que A = PDP
t
.
La matriz D se construye en la forma habitual, es decir, es una matriz diagonal cuyos
elementos diagonales son los autovalores de A, repetidos un n umero de veces igual a su multipli-
cidad algebraica. Una observacion importante es que todos los autovalores de una matriz
simetrica son reales.
Como A = PDP
t
= PDP
1
, las columnas de la matriz P deben ser autovectores de A.
Necesitamos ademas que P sea ortogonal. La siguiente caracterizacion de las matrices ortogonales
sera util:
Proposicion 5.4 Una matriz P /
nn
(R) es ortogonal si y solo si sus columnas son una
base ortonormal de R
n
(respecto al producto escalar usual).
Demostracion. Denotemos por u
1
, u
2
, . . . , u
n
las columnas de P. Dado que rg (P) = n, el conjunto
B = u
1
, u
2
, . . . , u
n
es una base de R
n
. Ademas,
P
t
P =
_
_
_
_
_
u
t
1
u
t
2
.
.
.
u
t
n
_
_
_
_
_
(u
1
[u
2
[ [u
n
) = I
_
u
t
i
u
j
= 0, si i ,= j
u
t
i
u
i
= 1, i = 1, 2, . . . , n
_
B es ortonormal.
.
En virtud de la Proposicion 5.4, necesitamos conseguir una base de autovectores de A que
ademas sea ortonormal. La siguiente propiedad hace que esto sea posible:
Lema 5.1 Sea A /
nn
(R) una matriz simetrica. Si x
1
y x
2
son autovectores asociados a
dos autovalores distintos de A entonces x
1
y x
2
son ortogonales.
Demostracion. Sean
1
,=
2
dos autovalores de A y sean x
1
V (
1
), x
2
V (
2
). Teniendo en
cuenta que A = A
t
y
1
,
2
R:

1
x
1
, x
2
=
1
x
1
, x
2
= Ax
1
, x
2
= (Ax
1
)
t
x
2
= x
t
1
A
t
x
2
= x
t
1
Ax
2
= x
t
1

2
x
2
=
2
x
1
, x
2
.
Por tanto,
1
x
1
, x
2
=
2
x
1
, x
2
. Como
1
,=
2
, necesariamente x
1
, x
2
= 0. .
Sea A /
nn
(R) una matriz simetrica. Teniendo en cuenta las propiedades anteriores, los
pasos para calcular una diagonalizacion ortogonal A = PDP
t
son los siguientes:
(1) Se calculan los autovalores de A. Los elementos diagonales de la matriz D son los autova-
lores de A (repetidos tantas veces como indica su multiplicidad algebraica).
62 5. Diagonalizacion y funciones de matrices
(2) Para cada autovalor Sp(A) se halla una base del subespacio propio asociado V ()
y se le aplica el proceso de ortonormalizacion de Gram-Schmidt para obtener una base
ortonormal de V ().
(3) La matriz P es la que tiene por columnas los elementos de las bases ortonormales de V (
1
),
V (
2
), . . . , V (
k
) (donde
1
,
2
, ,
k
son los autovalores distintos de A) colocadas en el
mismo orden que ocupan los correspondientes autovalores en la diagonal de D.
Ejemplo:
Hallar una diagonalizacion ortogonal de la matriz A /
44
(R) dada por
A =
_
_
_
_
2 1 0 2
1 2 0 2
0 0 3 0
2 2 0 1
_
_
_
_
Dado que A es una matriz simetrica real, es ortogonalmente diagonalizable, es decir, existen
dos matrices P, D /
44
(R) tales que P es ortogonal, D es diagonal y A = PDP
t
. La matriz
diagonal D tiene como elementos diagonales los autovalores de A.
El polinomio caracterstico de A es q
A
(x) = (3 x)
3
(3 x) (hagase como ejercicio).
Por tanto los autovalores de A son
1
= 3 y
2
= 3, con m.a.(3)=3, m.a.(3)=1, y la
matriz D es
D =
_
_
_
_
3 0 0 0
0 3 0 0
0 0 3 0
0 0 0 3
_
_
_
_
.
Los vectores columna de la matriz ortogonal P = (u
1
[u
2
[u
3
[u
4
) constituyen una base orto-
normal de R
4
formada por autovectores de A. Para determinarlos, aplicaremos el procedimiento
de ortonormalizacion de Gram-Schmidt a sendas bases de los subespacios propios asociados a

1
= 3 y
2
= 3.
Resolviendo el correspondiente sistema homogeneo, se tiene:
Ker (A+ 3I) =< (1, 1, 0, 0), (0, 2, 0, 1), (0, 0, 1, 0) > .
Si denotamos v
1
= (1, 1, 0, 0), v
2
= (0, 2, 0, 1), v
3
= (0, 0, 1, 0) entonces los tres primeros vectores
columna u
1
, u
2
, u
3
de la matriz P se calculan del siguiente modo:
u
1
=
v
1
|v
1
|
= (1/

2, 1/

2, 0, 0)
u
2
= v
2
< v
2
, u
1
> u
1
= (1, 1, 0, 1) ; u
2
=
u
2
| u
2
|
= (1/

3, 1/

3, 0, 1/

3)
u
3
= v
3
< v
3
, u
1
> u
1
< v
3
, u
2
> u
2
= (0, 0, 1, 0) ; u
3
=
u
3
| u
3
|
= (0, 0, 1, 0).
Del mismo modo,
Ker (A3I) =< (1, 1, 0, 2) >=< v
4
>,
5.5. Clasicacion de formas cuadr aticas usando la diagonalizacion ortogonal. 63
de modo que el vector columna u
4
de P viene dado por
u
4
=
v
4
|v
4
|
= (1/

6, 1/

6, 0, 2/

6) .
As, la matriz ortogonal
P = (u
1
[u
2
[u
3
[u
4
) =
_
_
_
_
1/

2 1/

3 0 1/

6
1/

2 1/

3 0 1/

6
0 0 1 0
0 1/

3 0 2/

6
_
_
_
_
cumple que A = PDP
t
.
5.5. Clasicaci on de formas cuadraticas usando la diagonaliza-
cion ortogonal.
Sea : R
n
R una forma cuadratica denida por (x) = x
t
Ax, donde A es una matriz
simetrica. La clasicacion de la forma cuadratica se puede hacer utilizando la diagonalizacion
ortogonal de A.
Como A es ortogonalmente diagonalizable, existen dos matrices P, D /
nn
(R) tales que
D es diagonal, P es ortogonal y A = PDP
t
.
Sea x R
n
. Entonces:
(x) = x
t
Ax = x
t
PDP
t
x = (P
t
x)
t
D(P
t
x).
Si denotamos y = P
t
x entonces la forma cuadratica se escribe en la nueva variable como
(y) = y
t
Dy =
n

i=1

i
y
2
i
,
donde y = (y
1
, y
2
, . . . , y
n
) y
1
,
2
, . . . ,
n
son los autovalores de A contados con su multiplicidad.
De aqu se deduce el siguiente resultado:
Teorema 5.4 Sea A /
nn
(R) una matriz simetrica. Entonces:
1. A es denida positiva si y s olo si > 0 , Sp(A).
2. A es denida negativa si y solo si < 0 , Sp(A).
3. A es semidenida positiva si y s olo si 0 , Sp(A).
4. A es semidenida negativa si y s olo si 0 , Sp(A).
5. En cualquier otro caso, A es indenida.
64 5. Diagonalizacion y funciones de matrices
Ejemplo:
La matriz
A =
_
_
2 1 1
1 2 1
1 1 2
_
_
es semidenida negativa ya que Sp(A) = 0, 3, con m.a. (0) = 1, m.a. (3) = 2.
5.6. Descomposicion Espectral
Sea A = PDP
t
la diagonalizacion ortogonal de una matriz simetrica A de rango r. Sean

1
,
2
, . . . ,
r
sus autovalores no nulos, contados con su multiplicidad. Si u
1
, u
2
, . . . , u
n
son las
columnas de P entonces, usando el producto de matrices por bloques, se tiene:
A = PDP
t
= (u
1
[u
2
[ [u
n
)
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
_
_
_
_
_
u
t
1
u
t
2
.
.
.
u
t
n
_
_
_
_
_
=
=
1
u
1
u
t
1
+
2
u
2
u
t
2
+ +
n
u
n
u
t
n
=
1
u
1
u
t
1
+
2
u
2
u
t
2
+ +
r
u
r
u
t
r
,
ya que
r+1
= =
n
= 0.
De esta manera se descompone A en la suma de r matrices u
i
u
t
i
de rango uno. Esta des-
composicion se llama descomposicion espectral de A. Observese que cada sumando es el
producto de un autovalor por la matriz de proyeccion sobre el subespacio generado por el auto-
vector correspondiente.
5.7. Descomposicion en valores singulares.
Sea A /
pn
(R). Entonces A
t
A /
nn
(R) es una matriz simetrica. En particular, todos
los autovalores de A
t
A son reales. Adem as son no negativos:
Proposicion 5.5 Todos los autovalores de A
t
A son mayores o iguales que cero.
Demostracion. Sea Sp(A
t
A) y x un autovector asociado. Entonces:
|Ax|
2
= Ax, Ax = x
t
A
t
Ax = x
t
x = |x|
2
= =
|Ax|
2
|x|
2
0.
.
Denicion 5.9 Sean A /
pn
(R). Se llaman valores singulares de A a las races cuadradas
positivas de A
t
A, es decir, si Sp(A
t
A) =
1
, . . . ,
n
entonces los valores singulares de A son

1
, . . . ,

n
. Se suelen denotar
1
, . . . ,
n
y se ordenan de tal forma que
1

2

n

0.
5.7. Descomposicion en valores singulares. 65
Ejemplo: Calcular los valores singulares de
A =
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
/
43
(R).
A
t
A =
_
_
0 1 1 1
0 1 1 1
1 0 2 2
_
_
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
=
_
_
3 1 0
1 3 0
0 0 9
_
_
.
Los autovalores de A
t
A son 2, 4 y 9, de modo que los valores singulares de A son

1
=

9 = 3

2
=

4 = 2

3
=

2.
Una de las principales aplicaciones de los valores singulares es que permiten obtener una
descomposicion de A como suma de r matrices de rango 1, donde r = rg (A).
Teorema 5.5 Descomposicion en valores singulares. Sea A /
pn
(R) con rg (A) = r y
valores singulares no nulos
1

2

r
> 0. Entonces existen dos matrices ortogonales
U /
pp
(R), V /
nn
(R) y una matriz /
pn
(R) tales que A = UV
t
, donde
=
_
D 0
0 0
_
, con D =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
r
_
_
_
_
_
/
rr
(R) .
Ejemplo:
En el ejemplo anterior,
=
_
_
_
_
3 0 0
0 2 0
0 0

2
0 0 0
_
_
_
_
Observacion: El rango de A coincide con el n umero de valores singulares no nulos de A (contados
con su multiplicidad).
Podemos obtener una expresion extendida de la descomposicion en valores singulares de
modo similar al que utilizamos para denir la descomposicion espectral de una matriz simetrica:
66 5. Diagonalizacion y funciones de matrices
Teorema 5.6 Sea A = UV
t
una descomposicion en valores singulares de una matriz A de
rango r. Si u
1
, u
2
, . . . , u
r
y v
1
, v
2
, . . . , v
r
son las r primeras columnas de U y V respectivamente
entonces
A = UV
t
=
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
r
u
r
v
t
r
.
Denicion 5.10 Sea A =
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
r
u
r
v
t
r
la descomposicion en valores singulares
de una matriz A de rango r. Si k es cualquier n umero entero positivo menor que r, se llama
aproximacion de rango k de A a la matriz A
k
que se obtiene sumando los k primeros terminos
de la expresion anterior, es decir,
A
k
=
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
k
u
k
v
t
k
.
De entre todas las matrices de rango k que tienen el mismo tama no que A, la matriz A
k
es la que mas se parece a A en cierto sentido. Concretamente, se puede denir una norma en el
espacio de matrices /
pn
(R) del siguiente modo:
|A| =
1
= max
1
,
2
, . . . ,
n
.
Es decir, la norma de A es el mayor de sus valores singulares. Dicha norma se llama norma
espectral de A.
Se puede probar que |AA
k
| =
k+1
= mn |AB| / B /
pn
(R), rg (B) = k .
La descomposicion en valores singulares de una matriz A se suele llamar SVD(A) (las
iniciales de la traduccion al ingles singular value decomposition).
A continuacion se describe el metodo para calcular tanto la SVD de A como sus aproxima-
ciones de rango k para cada k < r.
Calculo de la SVD y la aproximacion de rango k.
Sea A /
pn
(R) con rg (A) = r.
(1) Los vectores v
1
, v
2
, . . . , v
r
se obtienen calculando bases ortonormales de los subespacios
propios asociados a los autovalores no nulos de A
t
A, ordenados de mayor a menor.
(2) Denotemos V = (v
1
[v
2
[ [v
n
) y U = (u
1
[u
2
[ [u
p
). Como A = UV
t
, se deduce que
AV = U y por tanto Av
i
=
i
u
i
, i = 1, 2, . . . , r. En consecuencia, las primeras r
columnas de U se obtienen directamente de las de V mediante las formulas
u
i
=
1

i
Av
i
, i = 1, 2, . . . , r.
(3) Una vez que hemos calculado las r primeras columnas de U y V , podemos obtener la SVD
5.7. Descomposicion en valores singulares. 67
de A y sus aproximaciones de rango k:
A = (u
1
[u
2
[ . . . [u
r
)
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
r
_
_
_
_
_
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
r
_
_
_
_
_
=
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
r
u
r
v
t
r
;
A
k
= (u
1
[u
2
[ . . . [u
k
)
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
k
_
_
_
_
_
_
_
_
_
_
v
t
1
v
t
2
.
.
.
v
t
k
_
_
_
_
_
=
1
u
1
v
t
1
+
2
u
2
v
t
2
+ +
k
u
k
v
t
k
.
Ejemplo: Calcular una descomposicion en valores singulares de la matriz
A =
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
/
43
(R)
y su aproximacion de rango dos A
2
.
Ya hemos calculado las matrices A
t
A y :
A
t
A =
_
_
3 1 0
1 3 0
0 0 9
_
_
, =
_
_
_
_
3 0 0
0 2 0
0 0

2
0 0 0
_
_
_
_
.
Por tanto, rg (A) = 3 y los vectores v
1
, v
2
, v
3
se obtienen calculando una base ortonormal
de cada uno de los subespacios propios de A
t
A. Dado que
V (9) = Ker (A
t
A9I) =< (0, 0, 1) >,
V (4) = Ker (A
t
A4I) =< (1, 1, 0) >,
V (2) = Ker (A
t
A2I) =< (1, 1, 0) >,
se obtiene sin mas que dividir cada vector por su norma que B
1
= (0, 0, 1) es una base ortonor-
mal de V (9), B
2
= (1/

2, 1/

2, 0) es una base ortonormal de V (4) y B


3
= (1/

2, 1/

2, 0)
es una base ortonormal de V (2).
Por tanto,
V = (v
1
[v
2
[v
3
) =
_
_
0 1/

2 1/

2
0 1/

2 1/

2
1 0 0
_
_
.
68 5. Diagonalizacion y funciones de matrices
Los vectores u
1
, u
2
y u
3
se calculan directamente:
u
1
=
1

1
Av
1
=
1
3
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
_
_
0
0
1
_
_
=
_
_
_
_
1/3
0
2/3
2/3
_
_
_
_
;
u
2
=
1

2
Av
2
=
1
2
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
_
_
1/

2
1/

2
0
_
_
=
_
_
_
_
0
0
1/

2
1/

2
_
_
_
_
;
u
3
=
1

3
Av
3
=
1

2
_
_
_
_
0 0 1
1 1 0
1 1 2
1 1 2
_
_
_
_
_
_
1/

2
1/

2
0
_
_
=
_
_
_
_
0
1
0
0
_
_
_
_
.
La descomposicion en valores singulares de A es A = 3 u
1
v
t
1
+ 2 u
2
v
t
2
+

2 u
3
v
t
3
.
La aproximacion de rango 2 de A se obtiene tomando los dos primeros sumandos en la
expresion anterior:
A
2
= 3u
1
v
t
1
+ 2u
2
v
t
2
= 3
_
_
_
_
1/3
0
2/3
2/3
_
_
_
_
(0, 0, 1) + 2
_
_
_
_
0
0
1/

2
1/

2
_
_
_
_
(1/

2, 1/

2, 0) =
=
_
_
_
_
0 0 1
0 0 0
0 0 2
0 0 2
_
_
_
_
+
_
_
_
_
0 0 0
0 0 0
1 1 0
1 1 0
_
_
_
_
=
_
_
_
_
0 0 1
0 0 0
1 1 2
1 1 2
_
_
_
_
.
5.8. Teorema de Cayley-Hamilton.
Polinomios de matrices.
Sea A /
nn
(R). Sea p(x) = a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
. Se dene
p(A) = a
0
I +a
1
A+a
2
A
2
+ +a
k
A
k
/
nn
(R).
Diremos que p(x) es un polinomio anulador de A si p(A) es la matriz cero.
Ejemplo: El polinomio p(x) = x
2
2x es un polinomio anulador de la matriz
A =
_
1 1
1 1
_
.
5.8. Teorema de Cayley-Hamilton. 69
En efecto,
p(A) = A
2
2A =
_
2 2
2 2
_
2
_
1 1
1 1
_
=
_
0 0
0 0
_
.
Teorema 5.7 (Teorema de Cayley-Hamilton) Sea A /
nn
(R) y q
A
(x) su polinomio
caracterstico. Entonces q
A
(A) = 0, es decir, q
A
(x) es un polinomio anulador de A.
Del teorema de Cayley-Hamilton se deduce que para calcular cualquier polinomio de una
matriz A /
nn
(R) es suciente calcular las (n 1) primeras potencias de A
Corolario 5.2 Sea A /
nn
(R). Si p(x) es un polinomio de grado k n entonces existe un
polinomio r(x) de grado menor que n tal que p(A) = r(A).
Demostracion. Dividiendo p(x) entre q
A
(x), se tiene que p(x) = q
A
(x)d(x) +r(x), donde el resto
r(x) tiene grado menor que n. Utilizando el teorema de Cayley-Hamilton:
p(A) = q
A
(A)
. .
0
d(A) +r(A) = r(A).
.
Para calcular r(x) no es necesario efectuar la division. Observemos que si es un autovalor
de A entonces p() = q
A
()d() +r() = r(), ya que q
A
() = 0. Es decir, los polinomios p(x)
y r(x) deben tomar el mismo valor sobre todos los autovalores de A. Del mismo modo, si la
multiplicidad algebraica de es m entonces
p
(k)
() = r
(k)
() , Sp(A) , k = 1, 2, . . . , m1.
Esta propiedad permite calcular r(x) resolviendo un sistema de ecuaciones lineales.
Ejemplo: Calcular un polinomio r(x) de grado 1 tal que r(A) = p(A), donde p(x) = x
10
2x+1
y
A =
_
1 1
2 2
_
.
Como los autovalores de A son
1
= 0,
2
= 1, el polinomio r(x) = a +bx de grado 1 debe
cumplir las relaciones:
r(0) = a = p(0) = 1
r(1) = a +b = p(1) = 0.
Por tanto a = 1, b = 1 y r(x) = 1 x.
Finalmente,
p(A) = r(A) = I A =
_
2 1
2 1
_
.
70 5. Diagonalizacion y funciones de matrices
5.9. Funciones de matrices.
En esta seccion usaremos la idea anterior para obtener funciones de matrices para una clase
de funciones mas general que los polinomios. En concreto, consideraremos funciones analticas,
entre las cuales estan las funciones racionales, las races k-esimas, la exponencial, el logaritmo y
las funciones trigonometricas mas comunes. Con ayuda de la ultima observacion se pueden calcu-
lar estas funciones de matrices como combinaciones lineales de las n1 primeras potencias de A.
Sea A /
nn
(R) y sea f : D R una funcion analtica denida en un dominio real
D. Supongamos que para cada autovalor de A estan denidos los valores f
(k)
() para todo
k = 0, 1, . . . , m 1, donde m = m.a. (), f
(0)
() = f(). Entonces es posible encontrar un
polinomio r(x) = a
0
+a
1
x + +a
n1
x
n1
de grado menor que n tal que
f
(k)
() = r
(k)
() , Sp(A) , k = 0, 1, . . . , m.a. () 1.
Denotaremos V
f,A
= f
(k)
() / Sp(A), k = 0, 1, . . . , m.a. () 1.
Denicion 5.11 Sean A /
nn
(R) y f una funcion de tal forma que existen todos los valores
del conjunto V
f,A
. Entonces diremos que f esta denida sobre A y se dene f(A) como el valor
del polinomio r(x) en A, es decir,
f(A) = r(A) = a
0
I +a
1
A+ +a
n1
A
n1
.
Observese que los n coecientes a
i
de r(x) se determinan resolviendo un sistema de n ecua-
ciones lineales con n incognitas.
Ejemplo 1: Se consideran la funcion f(x) = e
x
y la matriz
A =
_
_
0 1 1
0 0 1
0 0 0
_
_
.
En este caso Sp(A) = 0, con m.a. (0) = 3. Entonces existe un polinomio r(x) = a + bx + cx
2
de grado menor o igual que dos tal que
r(0) = a = f(0) = e
0
= 1
r

(0) = b = f

(0) = 1
r

(0) = 2c = f

(0) = 1.
Por tanto a = 1, b = 1, c = 1/2 y r(x) = 1 +x + (1/2)x
2
.
Finalmente,
e
A
= f(A) = r(A) = I +A+
1
2
A
2
=
_
_
1 0 0
0 1 0
0 0 1
_
_
+
_
_
0 1 1
0 0 1
0 0 0
_
_
+
1
2
_
_
0 0 1
0 0 0
0 0 0
_
_
=
=
_
_
1 1 3/2
0 1 1
0 0 1
_
_
.
5.9. Funciones de matrices. 71
Ejemplo 2: No es posible calcular una raz cuadrada de la matriz
A =
_
0 1
0 0
_
.
En efecto, consideremos la funcion f(x) =

x = x
1/2
. Como Sp(A) = 0 con m.a. (0) = 2, para
calcular f(A) = A
1/2
necesitamos determinar los valores de f(0) y f

(0).
Pero no existe f

(0) ya que f

(x) = 1/(2

x).
Observacion: La condicion de que existan todos los valores del conjunto V
f,A
no siempre es
necesaria para denir f(A). Por ejemplo, aunque
B =
_
0 0
0 0
_
tambien tiene Sp(B) = 0 con m.a. (0) = 2, es posible calcular una raz cuadrada de B (por
ejemplo, la propia B).
Autovalores de f(A).
Los autovalores de la matriz f(A) se pueden obtener sin calcularla explcitamente.
Proposicion 5.6 Si
1
,
2
, . . . ,
n
son los autovalores de A (contados con su multiplicidad)
entonces los autovalores de f(A) son f(
1
), f(
2
), . . . , f(
n
).
Casos particulares:
1. Sp(A
k
) =
k
1
,
k
2
, . . . ,
k
n
, k N.
2. Sp(A
1
) = 1/
1
, 1/
2
, . . . , 1/
n
. (Si A es inversible).
En particular, la proposicion 5.6 permite obtener el determinante y la traza de f(A) sin
calcular la funcion de la matriz. Si
1
,
2
, . . . ,
n
son los autovalores de A contados con su
multiplicidad, entonces:
det(f(A)) = f(
1
)f(
2
) f(
n
)
tr (f(A)) = f(
1
) +f(
2
) + +f(
n
).
Funciones de matrices usando la diagonalizacion.
El siguiente resultado es consecuencia de la forma que tienen las potencias de las matrices
diagonales:
Proposicion 5.7 Si D es diagonal,
D =
_
_
_
_
_
_

1
0 0
0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0
n
_
_
_
_
_
_
,
72 5. Diagonalizacion y funciones de matrices
y f es una funcion denida sobre D entonces
f(D) =
_
_
_
_
_
_
f(
1
) 0 0
0 f(
2
)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 f(
n
)
_
_
_
_
_
_
.
Ejemplo: Si f(x) = e
x
y
A =
_
_
0 0 0
0 0 0
0 0 0
_
_
entonces
e
A
= f(A) =
_
_
f(0) 0 0
0 f(0) 0
0 0 f(0)
_
_
=
_
_
e
0
0 0
0 e
0
0
0 0 e
0
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Este resultado proporciona una forma alternativa para calcular funciones de matrices cuando
A es diagonalizable:
Proposicion 5.8 Si A /
nn
(R) es diagonalizable, es decir, A = PDP
1
con D diagonal,
entonces f(A) = Pf(D)P
1
.
Referencias
Agunos libros donde buscar mas informaci on y, en particular, muchos ejemplos
y aplicaciones del algebra lineal:
D. C. Lay,

Algebra Lineal y sus Aplicaciones (3


a
ed.), Pearson Educacion, 2007.
G. Nakos y D. Joyner,

Algebra Lineal con aplicaciones, Thomson, 1999.


D. Poole,

Algebra Lineal con aplicaciones (2


a
ed.), Thomson, 2007.
73

Potrebbero piacerti anche