Sei sulla pagina 1di 130

Introduccion al

Algebra Lineal
Juan Rada
Departamento de Matematicas
Facultad de Ciencias
Universidad de Los Andes
Primera versi on: 19 de febrero del 2005
Segunda versi on: 17 de junio del 2005
ii

Indice general
Introduccion V
1. Matrices 1
1.1. Denicion y terminologa . . . . . . . . . . . . . . . . . . . . . . 1
1.2.

Algebra de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . 11
1.4. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5. Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . 20
2. Espacios vectoriales 25
2.1. El espacio de las n-uplas . . . . . . . . . . . . . . . . . . . . . . . 25
2.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Subespacios generados . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5. Independencia lineal y bases . . . . . . . . . . . . . . . . . . . . . 38
2.6. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7. El rango y la nulidad de una matriz . . . . . . . . . . . . . . . . 46
3. Transformaciones lineales 53
3.1. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . 53
3.2. El n ucleo y la imagen . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.4. Matriz asociada a una transformacion lineal . . . . . . . . . . . . 67
3.5. Cambio de base y semejanza de matrices . . . . . . . . . . . . . . 70
4. Espacios con producto interno 75
4.1. Producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5. Determinantes 93
5.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.3. Funciones n-lineales y alternadas . . . . . . . . . . . . . . . . . . 100
iii
iv

INDICE GENERAL
5.4. La expansion de Laplace . . . . . . . . . . . . . . . . . . . . . . . 102
5.5. La adjunta y la inversa de una matriz . . . . . . . . . . . . . . . 104
6. Diagonalizacion 109
6.1. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . 109
6.2. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.3. Diagonalizacion unitaria . . . . . . . . . . . . . . . . . . . . . . . 118
Introduccion
El proposito de escribir este libro es presentar un texto introductorio de
algebra lineal para la asignatura

Algebra 1 de la Licenciatura de Matematicas
en la Universidad de Los Andes. Esta dirigido a estudiantes que por primera vez
estudian algebra lineal pero estan familiarizados con los conceptos basicos de
vectores en el plano y en el espacio, estudiados previamente en cursos de calculo
y geometra analtica.
1. Determinante del producto igual al producto de determinantes puede ir
despues de las operaciones elementales?
2. La exposicion debe ser clean, direct and clear!
v
vi INTRODUCCI

ON
Captulo 1
Matrices
1.1. Denicion y terminologa
Comenzamos recordando el algebra de los n umeros complejos. El conjunto
de los n umeros complejos se denota por C y esta formado por pares ordenados
(a, b), donde a, b R. Decimos que dos n umeros complejos son iguales cuando
son iguales coordenada a coordenada:
(a, b) = (c, d) a = c y b = d
Denimos dos operaciones en C, llamadas suma y producto, de la siguiente
manera:
(a, b) + (c, d) = (a +c, b +d)
(a, b) (c, d) = (ac bd, ad +bc)
El teorema a continuacion contiene las propiedades mas notables de estas
operaciones.
Teorema 1.1.1 Las siguientes propiedades se cumplen:
1. (a, b) + (c, d) = (c, d) + (a, b) ;
2. [(a, b) + (c, d)] + (e, f) = (a, b) + [(c, d) + (e, f)] ;
3. (0, 0) + (a, b) = (a, b) ;
4. (a, b) + (a, b) = (0, 0) ;
5. (a, b) (c, d) = (c, d) (a, b) ;
6. [(a, b) (c, d)] (e, f) = (a, b) [(c, d) (e, f)] ;
7. (1, 0) (a, b) = (a, b) ;
1
2 CAP

ITULO 1. MATRICES
8. Si (a, b) ,= (0, 0) entonces (a, b)
_
a
a
2
+b
2
,
b
a
2
+b
2
_
= (1, 0) ;
9. (a, b) [(c, d) + (e, f)] = (a, b) (c, d) + (a, b) (e, f) ;
10. [(a, b) + (c, d)] (e, f) = (a, b) (e, f) + (c, d) (e, f) .
Demostracion. Probamos 8, las demas las dejamos como ejercicio. Como
(a, b) ,= (0, 0) entonces a
2
+ b
2
,= 0 y as,
_
a
a
2
+b
2
,
b
a
2
+b
2
_
esta bien denido.
Ademas,
(a, b)
_
a
a
2
+b
2
,
b
a
2
+b
2
_
=
_
a
a
a
2
+b
2
b
b
a
2
+b
2
, a
b
a
2
+b
2
+b
a
a
2
+b
2
_
=
_
a
2
+b
2
a
2
+b
2
,
ab +ba
a
2
+b
2
_
= (1, 0)
Por otra parte, se comprueba facilmente que
(a, 0) + (b, 0) = (a +b, 0)
(a, 0) (b, 0) = (ab, 0)
Ademas, como la funcion : R C denida por (a) = (a, 0) es inyectiva
entonces es posible considerar a R como subconjunto de C; simplemente iden-
ticamos a R como los n umeros complejos de la forma (a, 0) . De esta manera,
podemos escribir
(a, b) = (a, 0) + (0, b) = (a, 0) + (b, 0) (0, 1)
= a +bi
donde denotamos a (0, 1) por i. Notamos que i satisface
i
2
= (0, 1) (0, 1) = (1, 0) = 1
Luego, cada n umero complejo z se representa de manera unica como z =
a + bi. En esta representacion llamamos a la parte real y b la parte imaginaria
de z y los denotamos por
Re (z) = a y Im(z) = b
Con esta notacion, las operaciones suma y producto se convierten en
(a +bi) + (c +di) = (a +c) + (b +d) i
(a +bi) (c +di) = (ac bd) + (ad +bc) i
A partir de ahora usamos la notacion z = a + bi para denotar un n umero
complejo.
Si z = a+bi entonces denimos el conjugado de z, denotado por z, al n umero
complejo
z = a bi
1.1. DEFINICI

ON Y TERMINOLOG

IA 3
En este caso tenemos que
zz = (a +bi) (a bi) = a
2
+b
2
Si representamos a z en el plano real (ver Figura *) observamos que zz es
precisamente la longitud al cuadrado del vector 0P. Denotamos por [z[ a esta
longitud, es decir,
[z[ =
_
a
2
+b
2
y la llamamos la norma del n umero complejo z.
Figura *
Si es el angulo que hace el vector 0P con el eje x entonces se tiene que
a = rcos y b = rsen
y, en consecuencia, z = a + bi = r (cos +isen). Esta es la forma polar del
n umero complejo z.
A lo largo de estas notas, F denotara el conjunto de los n umeros reales o el
conjunto de los n umeros complejos. Cualquier armacion relativa a F signica
que es valida en los dos casos: F = R o F = C. Diremos que un elemento de F
es un escalar.
Sean m y n enteros mayores o iguales a 1. Una matriz es un arreglo rectan-
gular de elementos de F de la forma
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
m1
a
mn
_
_
_
Las m n-uplas
(a
11
, . . . , a
1n
) , . . . , (a
m1
, . . . , a
mn
)
son las las de la matriz y las n m-uplas
_
_
_
a
11
.
.
.
a
m1
_
_
_, ,
_
_
_
a
1n
.
.
.
a
mn
_
_
_
son las columnas de la matriz. Una matriz A con m las y n columnas es una
matriz de tama no mn. En este caso denotamos las m las de A por
A
1
, A
2
, . . . , A
m
y las n columnas de A por
A
1
, A
2
, . . . , A
n
El elemento a
ij
es el elemento ij de la matriz A, aparece en la la i y en la
columna j de A. Tambien usamos la notacion [A]
ij
para denotar el elemento ij
4 CAP

ITULO 1. MATRICES
de la matriz A. Los elementos [A]
ii
, i = 1, . . . , r = mnm, n son los elementos
de la diagonal de A.
Dos matrices A y B son iguales si tienen el mismo tama no y [A]
ij
= [B]
ij
para todo i , j.
Denotamos por /
mn
(F) al conjunto de todas las matrices m n con
elementos en F. Si m = n simplemente escribimos /
n
(F) y sus matrices las
llamamos matrices cuadradas (de tama no n).
1.2.

Algebra de matrices
Denimos a continuacion dos operaciones sobre el conjunto /
mn
(F).
Denicion 1.2.1 Sean A, B /
mn
(F). La suma de A y B, denotada por
A+B, es la matriz mn denida por
[A+B]
ij
= [A]
ij
+ [B]
ij
.
Si F la multiplicacion del escalar por la matriz A, denotado por A,
es la matriz mn denida por
[A]
ij
= [A]
ij
Ejemplo 1.2.2 Consideremos las matrices
A =
_
_
3 2 i
0 2 4
8 i + 1 6
_
_
y B =
_
_
5 2 4
2 4
6 1 3
_
_
Entonces
A+B =
_
_
8 0 i + 4
4 8
2 i 9
_
_
y 3A =
_
_
9 6 3i
0 6 12
24 3i + 3 18
_
_
Veamos las propiedades mas importantes que cumplen las operaciones recien
denidas. El 0 de /
mn
(F) es la matriz denida por [0]
ij
= 0 para todo i, j.
Por otra parte, el inverso aditivo de A, que denotamos por A, es la matriz
denida como [A]
ij
= [A
ij
]. Para abreviar, de aqu en adelante escribimos
AB en lugar de A+ (B).
Teorema 1.2.3 Sean A, B, C /
mn
(F) y , F. Entonces
1. A+B = B +A;
2. (A+B) +C = A+ (B +C) ;
3. A+0 = A;
4. A+ (A) = 0;
1.2.

ALGEBRA DE MATRICES 5
5. (A+B) = A+B;
6. ( +) A = A+A;
7. () A = (A) ;
8. 1A = A.
Demostracion. Vamos a demostrar la propiedad 7. Para todo i, j tenemos
[() A]
ij
= () [A]
ij
=
_
[A]
ij
_
=
_
[A]
ij
_
= [(A)]
ij
Por lo tanto, () A = (A).
Llamamos a /
mn
(F) junto con las operaciones denidas anteriormente el
espacio de las matrices mn con elementos en F.
Ahora introducimos la multiplicacion de matrices. En un principio esta
denicion parece innecesariamente complicada, pero quedara plenamente jus-
ticada en las secciones posteriores.
Denicion 1.2.4 Sean A /
mn
(F) y B /
np
(F). La multiplicacion de
A por B, denotada por AB, es la matriz de /
mp
(F) denida como
[AB]
ij
=
n

k=1
[A]
ik
[B]
kj
Observamos que la multiplicacion de dos matrices esta denida cuando el
n umero de columnas de la matriz de la izquierda es igual al n umero de las de
la matriz de la derecha.
Ejemplo 1.2.5 Sean A =
_
1 1 2
2 3 1
_
y B =
_
_
2 1
2 0
1 1
_
_
. Entonces
AB =
_
2 3
3 1
_
y BA =
_
_
4 5 3
2 2 4
3 4 1
_
_
Es claro que la unica manera que AB y BA esten ambas bien denidas es que
A /
mn
(F) y B /
nm
(F). Si m ,= n entonces AB y BA tienen distinto
tama no y, por lo tanto, AB ,= BA. Aun en el caso que A y B sean matrices
cuadradas del mismo tama no la multiplicacion no es conmutativa, como muestra
el siguiente ejemplo.
Ejemplo 1.2.6 Sean A =
_
1 2
2 0
_
y B =
_
4 3
1 2
_
. Entonces
AB =
_
2 7
8 6
_
,=
_
10 8
3 2
_
= BA
6 CAP

ITULO 1. MATRICES
A continuacion presentamos una lista de propiedades basicas que satisface la
multiplicacion de matrices. Suponemos en el proximo teorema que los tama nos
de las matrices son los adecuados.
Teorema 1.2.7 Sean A, B, C matrices. Entonces
1. (AB) C = A(BC) ;
2. A(B +C) = AB +AC;
3. (B +C) A = BA+CA;
4. (AB) = (A) B = A(B) para todo F;
Demostracion. Probamos 1. Para cada i, j tenemos
[(AB) C]
ij
=
p

k=1
[AB]
ik
[C]
kj
=
p

k=1
_
n

l=1
[A]
il
[B]
lk
_
[C]
kj
=
p

k=1
n

l=1
[A]
il
[B]
lk
[C]
kj
=
n

l=1
p

k=1
[A]
il
[B]
lk
[C]
kj
=
n

l=1
[A]
il
p

k=1
[B]
lk
[C]
kj
=
n

l=1
[A]
il
[BC]
lj
= [A(BC)]
ij
La matriz identidad de /
n
(F) se denota por I
n
y se dene como:
[I
n
]
ij
=
_
1 si i = j
0 si i ,= j
, esto es, I
n
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
Teorema 1.2.8 Si A /
mn
(F) entonces I
m
A = A y AI
n
= A.
Demostracion. Probamos que I
m
A = A. En efecto,
[I
m
A]
ij
=
m

k=1
[I
m
]
ik
[A]
kj
= [I
m
]
ii
[A]
ij
= [A]
ij
para todo 1 i m y 1 j n.
Denicion 1.2.9 Una matriz A /
n
(F) tiene inversa (o es invertible) si
existe B /
n
(F) tal que AB = BA = I
n
. En este caso decimos que B es una
inversa de A.
1.2.

ALGEBRA DE MATRICES 7
Existen matrices que no tienen inversas. Por ejemplo, la matriz A =
_
0 1
0 0
_
/
2
(F) no es invertible porque
_
0 1
0 0
__
a b
c d
_
=
_
c d
0 0
_
,= I
2
para todo a, b, c, d F.
Teorema 1.2.10 La inversa de una matriz, si existe, es unica.
Demostracion. Supongamos que A /
n
(F) y B, C son matrices inversas
de A. Entonces AB = I
n
= CA. Luego, B = I
n
B = (CA) B = C (AB) =
CI
n
= C.
En virtud del resultado anterior hablamos de la inversa de una matriz A y la
denotamos por A
1
. En general, el calculo de la inversa de una matriz resulta
largo y tedioso. En secciones posteriores estudiaremos algunos metodos para
calcularla.
Teorema 1.2.11 Sean A, B /
n
(F) invertibles. Entonces
1.
_
A
1
_
1
= A;
2. AB es invertible y (AB)
1
= B
1
A
1
.
Demostracion. Probamos 2. Tenemos que
(AB)
_
B
1
A
1
_
= A
_
BB
1
_
A
1
= I
n
_
B
1
A
1
_
(AB) = B
1
_
A
1
A
_
B = I
n
Luego (AB)
1
=
_
B
1
A
1
_
.
Dado A /
n
(F) denimos A
0
= I
n
y para m 1, denimos recursiva-
mente A
m
= AA
m1
. Si r, s son entero mayores o iguales a 1, entonces se prueba
por induccion que A
r
A
s
= A
s
A
r
= A
r+s
.
Denicion 1.2.12 Sea A /
mn
(F). La traspuesta de A, denotada por A

,
es la matriz de /
nm
(F) que se obtiene al intercambiar las las por columnas:
_
_
_
a
11
a
1n
.
.
.
a
m1
a
mn
_
_
_

=
_
_
_
a
11
a
m1
.
.
.
a
1n
a
mn
_
_
_
Formalmente,
_
A

ij
= [A]
ji
para todo i, j.
Ejemplo 1.2.13 La traspuesta de la matriz A =
_
_
3 i 2 i
1 2 3
5 2i 5 i
_
_
es
A

=
_
_
3 1 5
i 2 2i
2 i 3 5 i
_
_
8 CAP

ITULO 1. MATRICES
Las propiedades basicas de la traspuesta las presentamos en el siguiente re-
sultado. Suponemos que los tama nos de las matrices son adecuados para efectuar
las operaciones.
Teorema 1.2.14 Las siguientes condiciones se cumplen:
1.
_
A

= A;
2. (A+B)

= A

+B

;
3. (A)

= A

;
4. (AB)

= B

;
5. Si A es invertible entonces A

es invertible y
_
A

_
1
=
_
A
1
_

.
Demostracion. 4. Para todo i, j tenemos
_
(AB)

_
ij
= [AB]
ji
=

k
[A]
jk
[B]
ki
=

k
_
A

kj
_
B

ik
=

k
_
B

ik
_
A

kj
=
_
B

ij
5. Supongamos que A es invertible. Entonces por la parte 4 tenemos
_
A
1
_

=
_
AA
1
_

= I

= I
A

_
A
1
_

=
_
A
1
A
_

= I

= I
Por lo tanto, la inversa de A

es
_
A
1
_

.
Recordamos que z denota el conjugado del n umero complejo z.
Denicion 1.2.15 Sea A /
mn
(F). La conjungada de A la denotamos por
A y se dene por
_
A

ij
= [A]
ij
. La traspuesta conjugada o traspuesta hermi-
tiana, denotada por A

, se dene como A

= A

.
Claramente, si A /
mn
(R) entonces A

= A

.
Ejemplo 1.2.16 La matriz A =
_
_
3 i 2 i
1 2 3
5 2i 5 i
_
_
tiene traspuesta conjugada
A

=
_
_
3 1 5
i 2 2i
2 +i 3 5 +i
_
_
Teorema 1.2.17 Las siguientes condiciones se cumplen:
1. AB = AB;
1.2.

ALGEBRA DE MATRICES 9
2. (A

= A;
3. (A+B)

= A

+B

;
4. (A)

= A

;
5. (AB)

= B

.
6. Si A es invertible entonces A

es invertible y (A

)
1
=
_
A
1
_

.
Demostracion. 4. (AB)

= (AB)

= B

= B

= B

.
5. Supongamos que A es invertible. Entonces por la parte 4 tenemos
_
A
1
_

=
_
AA
1
_

= I

= I
A

_
A
1
_

=
_
A
1
A
_

= I

= I
El resto lo dejamos como ejercicio.
EJERCICIOS
1. Complete las demostraciones de los teoremas de esta seccion.
2. Dadas las matrices
A =
_
3 +i 5 2
1 0 2 3i
_
y B =
_
3 1 +i 0
i 1 3i
_
calcule 2iA5B.
3. Dadas las matrices
A =
_
3 +i 5 2
1 0 2 3i
_
, B =
_
_
1
2
3
_
_
y C =
_
i i
_
calcule ABC y CAB.
4. Sea B =
_
_
2 3 1 1
5 2 0 1
1 2 2 0
_
_
. Encuentre Be
i
para i = 1, . . . , 4 donde
e
i
viene dada por:
a) e
1
=
_
_
_
_
1
0
0
0
_
_
_
_
; b) e
2
=
_
_
_
_
0
1
0
0
_
_
_
_
; c) e
3
=
_
_
_
_
0
0
1
0
_
_
_
_
y c) e
4
=
_
_
_
_
0
0
0
1
_
_
_
_
5. Encuentre para la matriz B del ejercicio anterior e
i
B donde a) e
1
=
_
1 0 0
_
; b) e
2
=
_
0 1 0
_
y c) e
3
=
_
0 0 1
_
.
10 CAP

ITULO 1. MATRICES
6. Generalice los Ejercicios 4 y 5 para matrices en /
mn
(F).
7. Demuestre que (AB)
j
= AB
j
para todas las matrices de tama no ade-
cuado.
8. Demuestre que si A /
mn
(F) y x = (x
1
, . . . , x
n
)

entonces Ax =
x
1
A
1
+ +x
n
A
n
.
9. Demuestre que si A /
n
(F) satisface AB = BA para todo B /
n
(F)
entonces A es un m ultiplo escalar de la identidad.
10. Encuentre una condicion necesaria y suciente para que una matriz B
/
2
(R) sea invertible y calcule la inversa cuando existe.
11. Demuestre que si A /
n
(F) y A
2
= 0 entonces I A es invertible.
12. Demuestre que si A es invertible y AB = 0 entonces B = 0.
13. Una matriz diagonal es una matriz de la forma
D =
_
_
_
_
_
_
d
11
0 0
0
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 d
nn
_
_
_
_
_
_
Cuando es D invertible? En ese caso, Cual es la inversa?
14. Considere la matriz diagonal D =
_
1 0
0 1
_
y A =
_
1 1
2 2
_
. Calcule
_
A
1
DA
_
100
.
15. Dadas las matrices
A =
_
_
2 1
0 i
1 1
_
_
y B =
_
3 1 +i 0
i 1 3i
_
Calcule (AB)

, B

, (AB)

y B

.
16. Una matriz cuadrada A /
n
(F) es simetrica si A

= A y antisimetrica
si A

= A. Demuestre que para cualquier matriz B /


n
(F) se tiene:
a) BB

y B +B

son matrices simetricas; b) B B

es antisimetrica.
17. Sea A /
n
(F). Se dene la traza de A, denotada por Tr (A), como el
elemento de F
Tr (A) =
n

k=1
[A]
kk
Dadas A, B /
n
(F) y F demuestre: i) Tr (A+B) = Tr (A) +
Tr (B) ; ii) Tr (A) = Tr (A) y iii) Tr (AB) = Tr (BA) .
1.3. SISTEMAS DE ECUACIONES LINEALES 11
18. Una matriz T /
n
(F) es triangular superior si [T]
ij
= 0 para i > j.
Suponga que S, T /
n
(F) son triangulares superiores y F. De-
muestre que
a) S +T es triangular superior;
b) S es triangular superior;
c) ST es triangular superior.
1.3. Sistemas de ecuaciones lineales
El objetivo de esta seccion es presentar un metodo para resolver la ecuacion
matricial AX = B, donde A /
mn
(F) y B /
m1
(F). En otras palabras,
queremos encontrar todas las matrices X /
n1
(F) que satisfacen la igualdad
AX = B. Si [A]
ij
= a
ij
y [B]
ij
= b
i
para todo 1 i my 1 j n, la ecuacion
AX = B es equivalente a un sistema de m ecuaciones lineales con n incognitas
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
donde a
ij
, b
i
F para todo 1 i m, 1 j n y x
1
, . . . , x
n
son las incognitas
o variables. El sistema de ecuaciones lineales AX = 0 recibe el nombre de
sistema de ecuaciones lineales homogeneo.
La tecnica de eliminacion de Gauss-Jordan que estudiamos mas adelante en
esta seccion, consiste en transformar una ecuacion matricial en una mas sencilla
pero con el mismo conjunto solucion. Esto es posible mediante las operaciones
elementales aplicadas a una matriz.
Denicion 1.3.1 Una operacion elemental por las aplicada a una matriz A
/
mn
(F) signica realizar una de las siguientes operaciones a la matriz A :
1. Intercambiar la la p por la la q (denotada por f
pq
(A));
2. Muliplicar por a la la p (denotada por f
p
() (A));
3. Sumar a la la p la la q multiplicada por (denotada por f
pq
() (A)).
Mas aun, si B se obtiene a partir de A a traves de una sucesion nita de
operaciones elementales por las entonces decimos que A y B son equivalentes
por las, y lo denotamos por A
f
B.
Usando operaciones elementales por las es posible transformar una matriz
en otra que tiene una forma especialmente sencilla.
12 CAP

ITULO 1. MATRICES
Ejemplo 1.3.2 Consideremos la matriz
_
_
_
_
2 4 6 2 6
6 4 2 2 14
0 4 8 2 2
2 2 2 2 8
_
_
_
_
Entonces realizando las operaciones f
1
_
1
2
_
, f
21
(6) , f
41
(2) obtenemos
_
_
_
_
1 2 3 1 3
0 8 16 4 4
0 4 8 2 2
0 2 4 0 2
_
_
_
_
Despues de f
2
_

1
8
_
, f
12
(2) , f
32
(4) , f
42
(2) llegamos a
_
_
_
_
1 0 1 0 2
0 1 2
1
2
1
2
0 0 0 0 0
0 0 0 1 3
_
_
_
_
y al aplicar f
34
, f
23
_

1
2
_
obtenemos la matriz
_
_
_
_
1 0 1 0 2
0 1 2 0 1
0 0 0 1 3
0 0 0 0 0
_
_
_
_
Denicion 1.3.3 Sea A /
mn
(F). Decimos que A es escalonada reducida
si cumple con las siguientes condiciones:
1. Si A
j
= 0 entonces A
k
= 0 para todo j < k m. Es decir, todas las
las 0 estan en la parte de abajo de la matriz;
2. Sean A
p
y A
q
las distintas de 0 y p < q. Si a
pr
es el primer elemento
distinto de cero de la la A
p
y a
qs
es el primer elemento distinto de cero
de la la A
q
entonces a
pr
= 1 = a
qs
y r < s.
3. Si a
pr
= 1 es el primer elemento distinto de cero de la la A
p
entonces
todos los elementos de A
r
distinto de a
pr
son ceros.
El Ejemplo 1.3.2 muestra como se lleva una matriz por medio de operaciones
elementales por las a una matriz escalonada reducida. Esto siempre es posible
como muestra nuestro proximo resultado.
Teorema 1.3.4 (Eliminacion de Gauss-Jordan) Sea A /
mn
(F). Entonces
existe una matriz escalonada reducida E tal que A
f
E.
1.3. SISTEMAS DE ECUACIONES LINEALES 13
Demostracion. Supongamos que [A]
ij
= a
ij
para todo i, j y que r es la
primera columna con un elemento distinto de cero. Si a
1r
,= 0 entonces aplicamos
sucesivamente las operaciones elementales por las
f
1
_
1
a
1r
_
, f
21
(a
2r
) , . . . , f
m1
(a
mr
)
colocando ceros en todos los elementos de la columna r debajo del 1 en la
posicion 1, r. Si a
1r
= 0 entonces existe alg un a
pr
,= 0. En este caso aplicamos
primero f
1p
y luego procedemos como antes. As obtenemos una matriz B con
elementos [B]
ij
= b
ij
que tiene las primeras r 1 columnas 0 y los elementos
de la columna r son todos cero excepto b
1r
, que es igual a 1. Ahora sea s la
primera columna distinta de cero de la submatriz de B que resulta al eliminar
la primera la. Si b
2s
,= 0 entonces aplicamos sucesivamente
f
2
_
1
b
2s
_
, f
12
(b
1s
) , f
32
(b
3s
) . . . , f
m2
(b
ms
)
colocando ceros en todos los elementos de la columna s excepto la posicion 2, s
que es 1. Si b
2s
= 0 entonces existe q > 2 tal que b
qs
,= 0. Aplicamos f
2q
y
procedemos como antes.
Despues de un n umero nito de pasos es claro que llegamos a una matriz
escalonada reducida.
Probamos mas adelante que una matriz es equivalente por las a una unica
matriz escalonada reducida.
Veamos ahora una aplicacion de la eliminacion de Gauss-Jordan para resolver
la ecuacion matricial AX = B, donde A /
mn
(F) y B /
m1
(F).
Teorema 1.3.5 Sean A /
mn
(F) , B /
m1
(F) y f una operacion ele-
mental por la. Entonces las ecuaciones AX = B y f (A) X = f (B) tienen la
misma solucion.
Demostracion. Es claro cuando f = f
pq
o f = f
p
(). Supongamos que
f = f
pq
(). Si AX = B, donde [B]
ij
= b
i
, entonces A
i
X = b
i
para todo
i. Luego (A
p
+A
q
) X = A
p
X + A
q
X = b
p
+ b
q
y, en consecuencia,
f
pq
() (A) X = f
pq
() (B). Recprocamente, supongamos que f
pq
() (A) X =
f
pq
() (B). Luego, A
k
X = b
k
para todo k ,= p y
(A
p
+A
q
) X = b
p
+b
q
Equivalentemente,
A
p
X +A
q
X = b
p
+b
q
Pero como q ,= p entonces A
q
X = b
q
y as, A
p
X = b
p
. Esto prueba que
AX = B.
Estos dos ultimos teoremas reducen el problema de resolver una ecuacion ma-
tricial de la forma AX = B a una de la forma EX = C, donde E es escalonada
reducida. La idea es la siguiente: si tenemos la ecuacion AX = B entonces, por
14 CAP

ITULO 1. MATRICES
la eliminacion de Gauss-Jordan, efectuamos operaciones elementales por las a
A hasta convertirla en una matriz escalonada reducida E. Las mismas opera-
ciones llevan la matriz ampliada (A, B) a una matriz (E, C). Por el resultado
anterior, las ecuaciones AX = B y EX = C tienen la misma solucion.
Teorema 1.3.6 Consideremos la ecuacion matricial
EX = C (1.1)
donde C = (c
1
, . . . , c
m
)

y E /
mn
(F) es una matriz escalonada reducida
con elementos [E]
ij
= e
ij
. Supongamos ademas que E
i
= 0 para todo r < i n
y que e
ik
i
= 1 es el primer elemento distinto de cero de la la E
i
para todo
1 i r, donde k
1
< < k
r
. Entonces:
1. Si c
j
,= 0 para alg un j > r entonces la ecuaci on 1.1 no tiene solucion.
Si c
j
= 0 para todo j > r entonces
2. r = n implica que E =
_
I
n
0
_
, donde 0 es la matriz cero de tama no
(mn) n, y la solucion unica de la ecuacion 1.1 es (c
1
, . . . , c
n
)

.
3. r < n implica que la ecuacion 1.1 tiene innitas soluciones: para cada p
1, . . . , nk
1
, . . . , k
r
asignamos cualquier valor a x
p
y luego calculamos
x
ks
para s = r, r 1, . . . , 1, en este orden, por la formula:
x
k
s
=
_
_
c
s

ks<jn
e
sj
x
j
_
_
Demostracion. Por ser E escalonada reducida la ecuacion matricial (1.1)
tiene la forma
x
k
1
+

k
1
<jn
e
1j
x
j
= c
1
.
.
.
.
.
.
.
.
.
x
k
r
+

k
r
<jn
e
rj
x
j
= c
r
0 = c
r+1
.
.
.
.
.
.
0 = c
m
1. Es claro que si c
j
,= 0 para alg un j > r entonces el sistema de ecuaciones
lineales no tiene solucion.
Supongamos entonces que c
j
= 0 para todo j > r.
2. Si r = n entonces como 1 k
1
< k
2
< < k
n
n resulta k
i
= i y as,
al ser E escalonada reducida necesariamente
E =
_
I
n
0
_
1.3. SISTEMAS DE ECUACIONES LINEALES 15
donde 0 es la matriz (mn) n formada por ceros. Se sigue inmediatamente
que la unica solucion es (c
1
, . . . , c
n
)

.
3. Si r < n entonces 1, . . . , n k
1
, . . . , k
r
,= . Fijemos un valor de x
p
para cada p 1, . . . , n k
1
, . . . , k
r
. Como k
1
< < k
r
, si j > k
r
entonces
j 1, . . . , n k
1
, . . . , k
r
y por lo tanto calculamos
x
kr
=
_
_
c
r

k
r
<jn
e
rj
x
j
_
_
Seguimos hacia atras tomando las ecuaciones s = r 1, r 2, . . . , 1, en este
orden, en cada paso sustituimos los valores de x
j
para j > k
s
que ya hemos
calculado y determinamos el valor de x
k
s
:
x
ks
=
_
_
c
s

k
s
<jn
e
sj
x
j
_
_
Ejemplo 1.3.7 Encontremos la solucion del sistema de ecuaciones
x + 2y 3z = a
2x + 6y 11z = b
x 2y + 7z = c
Primero construimos la matriz ampliada (A, B)
_
_
1 2 3 a
2 6 11 b
1 2 7 c
_
_
y aplicamos sucesivamente las operaciones elementales
f
21
(2) , f
31
(1) , f
2
_
1
2
_
, f
12
(2) , f
32
(4)
para llegar a la matriz
_
_
1 0 2 3a b
0 1
5
2
b2a
2
0 0 0 c 5a + 2b
_
_
Luego, la ecuacion AX = B tiene la misma solucion que la ecuaci on EX = C,
donde
E =
_
_
1 0 2
0 1
5
2
0 0 0
_
_
y C =
_
_
3a b
b2a
2
c 5a + 2b
_
_
Como E es escalonada reducida aplicamos la primera parte del Teorema 1.3.6
para concluir que, si c 5a + 2b ,= 0, entonces la ecuacion no tiene solucion.
16 CAP

ITULO 1. MATRICES
Si c 5a + 2b = 0 entonces, por la parte 3. del Teorema, deducimos que la
ecuacion tiene innitas soluciones porque el n umero de las distintas de cero
es menor que el n umero de columnas: 2 < 3. De hecho, para cualquier valor
z = z
0
encontramos la solucion (x
0
, y
0
, z
0
), donde y
0
=
1
2
(b 2a + 5z
0
) y x
0
=
a 2y
0
+ 3z
0
. En ning un caso la ecuaci on tiene solucion unica.
Corolario 1.3.8 Sea A /
mn
(F) y B /
m1
(F). Si m < n entonces
la ecuacion matricial AX = B tiene innitas soluciones. En otras palabras, si
un sistema de ecuaciones lineales tiene mas incognitas que ecuaciones entonces
existen innitas soluciones.
Demostracion. Sea E una matriz escalonada reducida equivalente por las
a A. Entonces (A, B)
f
(E, C) , donde C /
m1
(F). Luego, AX = B y
EX = C tienen la misma solucion. Ahora, el n umero r de las distintas de
cero de E satisface r m < n. Se sigue del Teorema 1.3.6 parte 3. que existen
innitas soluciones.
EJERCICIOS
1. Encuentre la matriz escalonada reducida equivalente por las a la matriz:
A =
_
_
2 6 0
1 2 1
0 1 2
_
_
; B =
_
_
3 1 2 1 0 0
2 1 1 0 1 0
1 3 0 0 0 1
_
_
;
C =
_
_
i 1 +i 0
1 2 1
1 2i 1
_
_
2. Resuelva cada uno de los siguientes sistemas de ecuaciones lineales:
a)
6x 4y + 4z = 28
3x 6y + 3z = 21
4x 2y + 8z = 34
_
_
_
; b)
4x 10y + 6w 8z + 4u = 8
5x 10y 5w 4z + 7u = 22
3x 7y + 2w 5z + 4u = 9
_
_
_
;
c)
x 2y + 3w 4z = 2
6x 15y + 6w 3z = 3
5x 12y + 7w 6z = 7
_
_
_
; d)
ix (1 +i) y = 0
x 2y +z = 0
x + 2iy z = 0
_
_
_
3. Determine los valores de k para que el sistema de ecuaciones lineales tenga:
i) una solucion unica; ii) innita soluciones; y iii) ninguna solucion.
x +y +z = 1
kx + 3y + 2z = 3
3x ky z = 2
1.4. MATRICES ELEMENTALES 17
4. Sea
A =
_
_
2 6 0
3 1 2
2 1 1
_
_
Para que matrices B /
31
(R) tiene solucion el sistema AX = B?
5. Demuestre que si P, Q son soluciones del sistema homogeno AX = 0 en-
tonces P +Q es una solucion de AX = 0, para todo , F.
6. Sea A /
mn
(F) y B /
m1
(F) . Suponga que P es una solucion
del sistema de ecuaciones lineales AX = B. Demuestre que cualquier otra
solucion de AX = B es de la forma P + Q, donde Q es una solucion del
sistema homogeneo AX = 0.
1.4. Matrices elementales
Las operaciones elementales por las tienen una interpretacion a traves de
la multiplicacion de matrices. La matriz resultante al aplicar una operacion
elemental por las a la matriz A se obtiene multiplicando la matriz A por una
matriz, que llamaremos matriz elemental.
Denicion 1.4.1 Una matriz elemental de /
m
(F) es una matriz de la forma
E
pq
= f
pq
(I
m
)
E
p
() = f
p
() (I
m
)
E
pq
() = f
pq
() (I
m
)
donde p, q 1, . . . , m y F.
Ejemplo 1.4.2 Las siguientes matrices son matrices elementales en /
3
(C):
E
23
=
_
_
1 0 0
0 0 1
0 1 0
_
_
, E
2
(i) =
_
_
1 0 0
0 i 0
0 0 1
_
_
y E
21
(4) =
_
_
1 0 0
4 1 0
0 0 1
_
_
La relacion que existe entre las operaciones elementales por las y las ma-
trices elementales viene dada en el siguiente resultado.
Teorema 1.4.3 Sea A /
mn
(F). Entonces
1. E
pq
A = f
pq
(A) ;
2. E
p
() A = f
p
() (A) ;
3. E
pq
() A = f
pq
() (A).
18 CAP

ITULO 1. MATRICES
Demostracion. Las primeras dos partes las dejamos como ejercicio. Pro-
baremos 3. Si i ,= p entonces
[E
pq
() A]
ij
= [f
pq
() (I
m
) A]
ij
=

k
[f
pq
() (I
m
)]
ik
[A]
kj
= [f
pq
() (I
m
)]
ii
[A]
ij
= [A]
ij
Por otra parte,
[E
pq
() A]
pj
=

k
[f
pq
() (I
m
)]
pk
[A]
kj
Como [f
pq
() (I
m
)]
pp
= 1, [f
pq
() (I
m
)]
pq
= y [f
pq
() (I
m
)]
pk
= 0 para k ,=
p, q se concluye que
[E
pq
() A]
pj
= [A]
pj
+[A]
qj
= [f
pq
() (A)]
pj
En otras palabras, el Teorema 1.4.3 establece que realizar una operacion
elemental por las a una matriz equivale a multiplicar por la izquierda la matriz
por una matriz elemental. Luego, la relacion A
f
B signica que existen matrices
elementales E
1
, . . . , E
k
tales que B = E
k
E
1
A.
Teorema 1.4.4 Las matrices elementales son invertibles. Ademas, sus inversas
son matrices elementales.
Demostracion. Si p, q 1, . . . , m y F entonces por el Teorema 1.4.3
E
p
() E
p
_
1

_
= E
p
()
_
f
p
_
1

_
(I
m
)
_
= f
p
()
_
f
p
_
1

_
(I
m
)
_
= I
m
Similarmente se prueba que E
pq
E
pq
= E
pq
() E
pq
() = I
m
.
Como consecuencia de este resultado tenemos la siguiente caracterizacion de
las matrices invertibles.
Teorema 1.4.5 Un matriz A es invertible si, y solo si, A
f
I.
Demostracion. Supongamos que A es una matriz invertible n n. Por el
Teorema 1.3.4 existen matrices elementales E
1
, . . . , E
p
tales que B = E
p
E
1
A
es escalonada reducida. Luego, por el Teorema 1.4.4, B es invertible y, en con-
secuencia, B = I (ver ejercicio 8). Recprocamente, si A
f
I entonces existen
matrices elementales F
1
, . . . , F
q
tales que A = F
q
F
1
I = F
q
F
1
, esto es , A
es invertible.
Tenemos ahora un metodo para calcular la inversa de una matriz. En efecto,
si A es invertible entonces el Teorema 1.3.4 nos indica como construir matrices
elementales E
1
, . . . , E
k
tales que E
k
E
1
A = I. En particular, E
k
E
1
=
A
1
. Ademas,
E
k
E
1
(A, I) = (E
k
E
1
A, E
k
E
1
I) =
_
I, A
1
_
1.4. MATRICES ELEMENTALES 19
Ejemplo 1.4.6 Calculemos la inversa de la matriz A =
_
_
1 3 2
2 8 3
1 7 1
_
_
.
_
_
1 3 -2 1 0 0
2 8 -3 0 1 0
1 7 1 0 0 1
_
_
E
21
(-2)

_
_
1 3 -2 1 0 0
0 2 1 -2 1 0
1 7 1 0 0 1
_
_
E
31
(-1)

_
_
1 3 -2 1 0 0
0 2 1 -2 1 0
0 4 3 -1 0 1
_
_
E
32
(-2)

_
_
1 3 -2 1 0 0
0 2 1 -2 1 0
0 0 1 3 -2 1
_
_
E
2
(1/2)

_
_
1 3 -2 1 0 0
0 1 1/2 -1 1/2 0
0 0 1 3 -2 1
_
_
E
23
(-1/2)

_
_
1 3 -2 1 0 0
0 1 0 -5/2 3/2 -1/2
0 0 1 3 -2 1
_
_
E
13
(2)

_
_
1 3 0 7 -4 2
0 1 0 -5/2 3/2 -1/2
0 0 1 3 -2 1
_
_
E
12
(-3)

_
_
1 0 0 29/2 -17/2 7/2
0 1 0 -5/2 3/2 -1/2
0 0 1 3 -2 1
_
_
Por lo tanto, A
1
=
_
_
29/2 -17/2 7/2
-5/2 3/2 -1/2
3 -2 1
_
_
.
Finalizamos esta seccion con una caracterizacion de la relacion
f
denida
sobre las matrices.
Teorema 1.4.7 Sean A, B /
mn
(F). Entonces A
f
B si, y solo si, existe
una matriz invertible P /
m
(F) tal que B = PA.
Demostracion. Si A
f
B entonces existen matrices elementales E
1
, . . . , E
k
tales que B = E
k
E
1
A. Luego B = PA, donde P = E
k
E
1
/
m
(F) es
invertible. Recprocamente, supongamos que B = QA, donde Q es una matriz
invertible. Entonces por el Teorema 1.4.5, Q = E
r
E
1
I = E
r
E
1
, para
ciertas matrices elementales E
1
, . . . , E
r
. En consecuencia, B = E
r
E
1
A y as,
A
f
B.
EJERCICIOS
1. Determine si las matrices dadas son invertibles y, en caso de serlo, calcule
la inversa.
A =
_
_
1 2 4
1 1 5
2 7 3
_
_
; B =
_
_
1 3 4
1 5 1
3 13 6
_
_
y
C =
_
_
i 1 +i 0
1 2 1
1 2i 1
_
_
20 CAP

ITULO 1. MATRICES
2. Dada la matriz
A =
_
_
3 0 1
1 1 1
2 0 1
_
_
encuentre matrices elementales E
1
, . . . , E
k
tales que E
k
E
1
A = I.
3. Demuestre que la relacion equivalencia por las es una relacion de equiv-
alencia sobre el espacio de matrices.
4. Demuestre que (E
pq
)

= E
pq
, (E
p
())

= E
p
() y (E
pq
())

= E
qp
().
5. Demuestre que una matriz triangular superior es invertible si, y solo si,
todos los elementos de la diagonal son diferentes de cero.
6. Demuestre que si T es una matriz triangular superior invertible entonces
T
1
tambien es triangular superior.
7. Considere la matriz I
pq
/
m
(F) que tiene todos los elementos 0 excepto
el elemento pq que es 1. Es decir, [I
pq
]
pq
= 1 y [I
pq
]
ij
= 0 si i ,= p o j ,= q.
Demuestre que
I
pq
I
rs
=
_
0 si q ,= r
I
ps
si q = s
8. Demuestre que una matriz B /
n
(F) es escalonada reducida e invertible
si, y solo si, B es la identidad.
1.5. Equivalencia de matrices
Muchas de las deniciones y teoremas de las dos secciones anteriores tienen
su version dual en terminos de columnas.
Denicion 1.5.1 Una operaci on elemental por columnas aplicada a una matriz
A /
mn
(F) signica realizar una de las siguientes operaciones a la matriz
A :
1. Intercambiar la columna p por la columna q (denotada por c
pq
(A));
2. Muliplicar por a la columna p (denotada por c
p
() (A));
3. Sumar a la columna p la columna q multiplicada por (denotada por
c
pq
() (A)).
Mas aun, si B se obtiene a partir de A a traves de una sucesion nita de
operaciones elementales por columnas entonces decimos que A y B son equiva-
lentes por columnas, y lo denotamos por A
c
B.
Las demostraciones de los resultados por columnas se deducen de los corre-
spondientes por las teniendo en cuenta que las columnas de A son las traspues-
tas de las las de A

. Luego, si c es una operacion elemental por columna y f


es la correspondiente por la entonces c (A) =
_
f
_
A

.
1.5. EQUIVALENCIA DE MATRICES 21
Teorema 1.5.2 Sea A /
mn
(F). Entonces
1. c
pq
(A) = AE
pq
;
2. c
p
() (A) = AE
p
() ;
3. c
pq
() (A) = AE
qp
()
donde E
pq
, E
p
() y E
pq
() son las matrices elementales de la Denicion
1.4.1.
Demostracion. Probamos 3 dejando como ejercicio las primeras dos partes.
Por el Teorema 1.4.3 y el Teorema 1.2.14 tenemos que
c
pq
() (A) =
_
f
pq
()
_
A

=
_
E
pq
() A

= A[E
pq
()]

= AE
qp
()
En consecuencia, realizar una operacion elemental por columnas equivale a
multiplicar a la derecha por una matriz elemental. De esta manera, A
c
B si, y
solo si B = AE
1
E
k
, donde las E
i
son matrices elementales.
El resultado dual al Teorema 1.4.7 es el siguiente:
Teorema 1.5.3 Sean A, B /
mn
(F). Entonces A
c
B si, y solo si, existe
una matriz invertible P /
n
(F) tal que B = AP.
Demostracion. Supongamos que A
c
B. Por el Teorema 1.5.2, existen
matrices elementales E
1
, . . . , E
k
tales que B = AE
1
E
k
. Como las matrices
elementales son invertibles entonces P = E
1
E
k
es invertible y B = AP.
Recprocamente, sea Q invertible tal que B = AQ. Entonces por el Teorema
1.4.5, Q es producto de matrices elementales y as, por el Teorema 1.5.2, A
c
B.
Si permitimos realizar operaciones elementales por las y columnas es posible
convertir una matriz en otra bien sencilla.
Ejemplo 1.5.4 Consideremos la matriz
A =
_
_
_
_
2 4 6 2 6
6 4 2 2 14
0 4 8 2 2
2 2 2 2 8
_
_
_
_
Vimos en el Ejemplo 1.3.2 que
A
f
_
_
_
_
1 0 1 0 2
0 1 2 0 1
0 0 0 1 3
0 0 0 0 0
_
_
_
_
22 CAP

ITULO 1. MATRICES
Ahora efectuando la operacion elemental por columna c
34
obtenemos la matriz
_
_
_
_
1 0 0 1 2
0 1 0 2 1
0 0 1 0 3
0 0 0 0 0
_
_
_
_
Luego aplicamos c
41
(1) , c
51
(2) , c
42
(2) , c
52
(1) , c
53
(3) para convertirla en
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 0 0
_
_
_
_
Denicion 1.5.5 Una operacion elemental aplicada a una matriz A /
mn
(F)
signica realizar una operacion elemental por la o por columna a la matriz A.
Mas aun, si B se obtiene a partir de A a traves de una sucesion nita
de operaciones elementales entonces decimos que A y B son equivalentes, y lo
denotamos por A B.
El procedimiento usado en el Ejemplo 1.5.4 funciona para cualquier matriz.
Teorema 1.5.6 Sea A /
mn
(F). Entonces A es equivalente a una matriz
de la forma
_
I
r
0
0 0
_
donde r es el n umero de las distintas de cero en la matriz escalonada reducida
equivalente por las a A.
Demostracion. Por el Teorema 1.3.4 existe una matriz escalonada reducida
E tal que A
f
E. Intercambiando columnas transformamos E en una matriz de
la forma
_
I
r
C
0 0
_
donde r es el n umero de las distintas de cero de E. Aplicando operaciones
elementales por columnas de la forma c
pq
() llevamos a esta matriz a una de la
forma
_
I
r
0
0 0
_
Finalmente, presentamos una caracterizacion de la relacion denida sobre
las matrices.
Teorema 1.5.7 Sean A, B /
mn
(F). Entonces A B si, y solo si, existen
matrices invertibles P /
m
(F) y Q /
n
(F) tales que B = PAQ.
1.5. EQUIVALENCIA DE MATRICES 23
Demostracion. Si A B entonces por los Teoremas 1.4.3 y 1.5.2 existen
matrices elementales E
1
, . . . , E
k
y F
1
, . . . , F
l
tales que B = E
k
E
1
AF
1
F
l
.
Por el Teorema 1.4.4, las matrices P = E
k
E
1
y Q = F
1
F
l
son invertibles
y B = PAQ. Recprocamente, supongamos que B = PAQ, donde P y Q son
invertibles. Entonces por los Teoremas 1.4.7 y 1.5.3 se sigue que
A
c
AQ
f
PAQ = B
Esto prueba que A B.
EJERCICIOS
1. Dada la matriz
A =
_
_
3 0 1
1 1 1
2 0 1
_
_
encuentre matrices elementales E
1
, . . . , E
k
tales que AE
1
, . . . , E
k
= I.
2. Calcule la inversa de la matriz A =
_
_
1 3 2
2 8 3
1 7 1
_
_
usando operaciones
elementales por columnas.
3. Demuestre que la relacion equivalencia por columnas es una relacion de
equivalencia sobre el espacio de las matrices.
4. Demuestre que A
c
B si, y solo si, A


f
B

.
5. Encuentre la matriz equivalente a la matriz
A =
_
_
_
_
1 1 3 2
2 3 9 2
1 2 6 0
0 1 3 2
_
_
_
_
que tiene la forma dada en el Teorema 1.5.6.
6. Demuestre que la relacion equivalencia es una relacion de equivalencia
sobre el espacio de las matrices.
24 CAP

ITULO 1. MATRICES
Captulo 2
Espacios vectoriales
2.1. El espacio de las n-uplas
En esta seccion generalizamos los espacios conocidos R
2
y R
3
a espacios de
n dimensiones. Recordamos que R
2
esta formado por pares ordenados (x
1
, x
2
),
donde x
1
y x
2
son n umeros reales. Los elementos de R
2
los visualizamos como
puntos del plano cartesiano y estos a su vez estan en correspondencia natural
con los vectores del plano que tienen punto inicial en el origen. Similarmente, R
3
consiste en ternas (x
1
, x
2
, x
3
), donde x
1
, x
2
y x
3
son n umeros reales y estos los
identicamos con puntos del espacio tridimensional o con vectores del espacio
con punto inicial en el origen (ver Figura *).
Figura *
Mas generalmente, dado un entero n 1, denotamos por F
n
(F = R o F = C)
al conjunto de todas las n-uplas (x
1
, . . . , x
n
), donde cada x
i
F. Por analoga
a los espacios R
2
y R
3
, llamamos vectores a los elementos de F
n
. Para cada
k = 1, . . . , n, decimos que x
k
es la coordenada k-esima de la n-upla. Las n-uplas
x = (x
1
, . . . , x
n
) y y = (y
1
, . . . , y
n
) de F
n
son iguales si, y solo si, x
k
= y
k
para
todo k = 1, . . . , n.
Extendemos la suma de vectores y multiplicacion escalar conocidas para R
2
y R
3
a F
n
de la siguiente manera:
Denicion 2.1.1 Sean x = (x
1
, . . . , x
n
) , y = (y
1
, . . . , y
n
) F
n
. La suma de x
y y, denotado por x +y, es la n-upla
x +y = (x
1
+y
1
, . . . , x
n
+y
n
) .
Si F, la multiplicacion del escalar por x se denota por x y se dene
como la n-upla
x = (x
1
, . . . , x
n
)
El vector cero de F
n
se denota por 0 y se dene como la n-upla 0 =(0, . . . , 0).
Si x = (x
1
, . . . , x
n
) F
n
entonces el inverso aditivo de x se denota por x y se
dene como x = (x
1
, . . . , x
n
).
25
26 CAP

ITULO 2. ESPACIOS VECTORIALES


Ejemplo 2.1.2 Consideremos los vectores x = (3, 2 i, 1) , y = (i, 2 i, 0) de
C
3
junto con los escalares = i y = 3. Entonces
x +y = i (3, 2 i, 1) 3 (i, 2 i, 0)
= (3i, 2i + 1, i) (3i, 6 3i, 0)
= (0, 5 + 5i, i)
El teorema a continuacion describe las propiedades basicas que satisfacen
estas operaciones.
Teorema 2.1.3 Sean x, y, z F
n
y , F. Entonces
1. x +y = y +x;
2. (x +y) +z = x + (y +z) ;
3. x +0 = x;
4. x + (x) = 0;
5. (x +y) = x +y;
6. ( +) x = x +x;
7. () x = (x) ;
8. 1x = x.
Demostracion. Probamos 5. Sean x = (x
1
, . . . , x
n
) , y = (y
1
, . . . , y
n
) F
n
y F. Entonces
(x +y) = (x
1
+y
1
, . . . , x
n
+y
n
)
= ((x
1
+y
1
) , . . . , (x
n
+y
n
))
= (x
1
+y
1
, . . . , x
n
+y
n
)
= (x
1
, . . . , x
n
) + (y
1
, . . . , y
n
)
= x +y
Llamamos a F
n
junto con las dos operaciones introducidas en la Denicion
2.1.1 el espacio de n-uplas sobre F. Es claro que si n = 2, n = 3 y F = R entonces
recuperamos los espacios conocidos R
2
y R
3
.
Es importante resaltar que los vectores de F
n
pueden representarse tambien
como vectores columna (x
1
, . . . , x
n
)

, x
i
F. En este caso las operaciones
toman la forma
(x
1
, . . . , x
n
)

+ (y
1
, . . . , y
n
)

= (x
1
+y
1
, . . . , x
n
+y
n
)

(x
1
, . . . , x
n
)

= (x
1
, . . . , x
n
)

De esta manera, es posible identicar al espacio F


n
con el espacio de las matrices
/
n1
(F). Bajo esta identicacion, si A /
mn
(F) y x F
n
entonces Ax
F
m
.
2.2. ESPACIOS VECTORIALES 27
Ejemplo 2.1.4 Sea A =
_
2 i 1
i + 1 0 1
_
/
n1
(C) y x =
_
_
1
0
i
_
_
C
3
.
Entonces
Ax =
_
2 i 1
i + 1 0 1
_
_
_
1
0
i
_
_
=
_
2 i
2i + 1
_
C
2
EJERCICIOS
1. Considere los vectores x = (3 +i, 1 +i, 2) , y = (1, i, 2i) de C
3
junto
con los escalares = 2 y = 2i. Calcule x +y.
2. Complete la demostracion del Teorema 2.1.3.
2.2. Espacios vectoriales
El espacio de las matrices y el espacio de las n-uplas son ejemplos de sistemas
algebraicos donde es posible sumar sus elementos y multiplicar por escalares. En
distintas areas de las matematicas aparecen estructuras similares, por lo tanto,
es razonable presentar una nocion general que abarque cada uno de estos casos
particulares.
Denicion 2.2.1 Un espacio vectorial V sobre F es un conjunto no vaco V
junto con dos operaciones. La suma que asocia a cada par de vectores u, v de V
un vector u +v de V que satisface las condiciones:
1. Conmutatividad: u +v = v +u para todo u, v V ;
2. Asociatividad: (u +v) +w = u + (v +w) para todo u, v, w V ;
3. Identidad aditiva: existe un vector 0, llamada vector cero, tal que u+0 = u
para todo u V ;
4. Inverso aditivo: para cada vector u V existe un vector z V tal que
u +z = 0.
La segunda operaci on, que llamamos multiplicacion escalar, asocia a cada
escalar F y vector u V un vector u de V que satisface las condiciones:
5. (u) = () u para todo , F y u V ;
6. (u +v) = u +v para todo F y u, v V ;
7. ( +) u = u +u para todo , F y u V ;
8. 1u = u para todo u V.
28 CAP

ITULO 2. ESPACIOS VECTORIALES


Ejemplo 2.2.2 Cada uno de los siguientes conjuntos con las operaciones indi-
cadas es un espacio vectorial.
1. El espacio de las n-uplas F
n
con las operaciones
(x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+y
1
, . . . , x
n
+y
n
)
(x
1
, . . . , x
n
) = (x
1
, . . . , x
n
)
donde (x
1
, . . . , x
n
) , (y
1
, . . . , y
n
) F
n
y F.
2. El espacio de las matrices /
mn
(F) con las operaciones
[A+B]
ij
= [A]
ij
+ [B]
ij
[A]
ij
= [A]
ij
donde A, B /
mn
(F) y F.
3. C
n
es un espacio vectorial sobre R. La multiplicacion escalar es la misma
que en el Ejemplo 1 excepto que los escalares son tomados en R.
4. Sea X un conjunto no vaco y T (X, F) el conjunto de las funciones X
F. Si f, g T (X, F) y F denimos las operaciones f +g y f por
(f +g) (x) = f (x) +g (x)
(f) (x) = f (x)
para todo x X.
5. El conjunto Suc (F) de todas las sucesiones en F con las operaciones
(x
n
) + (y
n
) = (x
n
+y
n
)
(x
n
) = (x
n
)
donde (x
n
) , (y
n
) Suc (F) y F. Este ejemplo es un caso particular
del anterior: Suc (F) = T (N, F).
6. El conjunto F[x] de todos los polinomios con coecientes en F junto con
las operaciones usuales
n

i=0
a
i
x
i
+
n

i=0
b
i
x
i
=
n

i=0
(a
i
+b
i
) x
i

i=0
a
i
x
i
=
n

i=0
(a
i
) x
i
A partir de este momento, cuando decimos que V es un espacio vectorial
entendemos que V es un espacio vectorial sobre F, junto con las dos operaciones
que satisfacen las ocho condiciones de la denicion anterior.
Comenzamos el estudio sistematico de los espacios vectoriales deduciendo
algunas propiedades inmediatas de la denicion. Entre los requisitos de un es-
pacio vectorial esta el de la existencia de identidad aditiva e inverso aditivo. El
proximo resultado establece que son unicos.
2.2. ESPACIOS VECTORIALES 29
Teorema 2.2.3 Sea V un espacio vectorial sobre F. Entonces:
1. La identidad aditiva es unica;
2. El inverso aditivo es unico.
Demostracion. 1. Supongamos que 0 y 0
t
son identidades aditivas. En-
tonces por ser 0 identidad aditiva tenemos que 0
t
= 0+0
t
, pero al ser 0
t
identidad
aditiva 0 + 0
t
= 0. En consecuencia, 0 = 0
t
.
2. Sea u V y supongamos que v, w son inversos aditivos de u. Entonces
v = v + 0 = v + (u +w) = (v +u) +w = 0 +w = w
A partir de ahora, denotamos por u al ( unico) inverso aditivo de u. Ademas,
escribimos u v en lugar de u + (v).
Teorema 2.2.4 Sea V un espacio vectorial sobre F, u, v V y , F. En-
tonces:
1. 0 = 0;
2. 0v = 0;
3. () v = (v) = (v) ;
4. (1) v = v;
5. (u v) = u v;
6. ( ) v = v v;
7. v = 0 si, y solo si, = 0 o v = 0.
Demostracion. 2. 0v = (0 + 0) v = 0v + 0v. Luego, sumando el inverso
aditivo de 0v ambos lados de la ecuacion obtenemos 0v = 0.
3. () v + v = ( +) v = 0v = 0. Esto prueba que () v = (v).
Para ver la otra igualdad observamos que (v) +v = (v +v) = 0 = 0.
7. Supongamos que v = 0 y ,= 0. Entonces
0 =
1

(v) =
_
1

_
v = 1v = v.
La recproca es consecuencia de 1. y 2.
EJERCICIOS
1. Demuestre que cada uno de los conjuntos con las operaciones indicadas en
el Ejemplo 2.2.2 son espacios vectoriales.
2. Complete la demostracion del Teorema 2.2.4.
30 CAP

ITULO 2. ESPACIOS VECTORIALES


3. Es R
2
con las operaciones indicadas a continuacion un espacio vectorial
sobre R?
a) (x, y) + (w, z) = (x +w, y +z) y (x, y) = (x, y);
b) (x, y) + (w, z) = (x +w, 0) y (x, y) = (x, 0).
4. Sean U y W espacios vectoriales. Demuestre que el producto directo UW
es un espacio vectorial con las operaciones
(u, w) + (u
t
, w
t
) = (u +u
t
, w +w
t
)
(u, w) = (u, w)
donde u, u
t
U, w, w
t
W y F.
2.3. Subespacios
En esta seccion estudiamos los subconjuntos de un espacio vectorial V que
a su vez tienen estructura de espacio vectorial, con las mismas operaciones
denidas en V.
Denicion 2.3.1 Sea S un subconjunto no vaco de un espacio vectorial V .
Decimos que S es un subespacio de V si satisface las siguientes condiciones:
1. Si u, v S entonces u +v S;
2. Si F y u S entonces u S.
Un espacio vectorial V siempre tiene los subespacios triviales 0 y V .
Ejemplo 2.3.2 Los siguientes subconjuntos son subespacios del espacio indica-
do:
1. Sea S =
_
(x, y) R
2
: y = 0
_
. Entonces
(x, 0) + (x
t
, 0) = (x +x
t
, 0) S
y si R
(x, 0) = (x, 0) S
Luego S es un subespacio de R
2
.
2. Cualquier recta de R
2
que pasa por el origen es un subespacio de R
2
.
3. Sea S =
_
(x, y) R
2
: y = 2x + 1
_
. S no es un subespacio de R
2
. Por
ejemplo, (0, 1) , (1, 2) S y, sin embargo, (0, 1) + (1, 2) = (1, 3) / S.
4. Los unicos subespacios de R como espacio sobre s mismo son los triviales.
En efecto, supongamos que S es un subespacio de R distinto de cero y
0 ,= z S. Entonces para cualquier x R tenemos x =
x
z
z S. Luego,
S = R.
2.3. SUBESPACIOS 31
5. Las rectas y planos que pasan por el origen son subespacios de R
3
. Para
ver esto, supongamos que 0 ,= u R
3
. Entonces la recta que pasa por el
origen generada por el vector u es
S = u : R
As, dados x, y S existen , R tales que x = u y y = u. Luego,
x +y = u +u = ( +) u S
Ademas, si R entonces
x = (u) = () u S
Esto demuestra que S es un subespacio de R
3
.
Por otra parte, el plano que pasa por el origen generado por los vectores
u, v R
3
(suponemos que v no pertenece a la recta generada por u) viene
dado por
T = u +v : , R
Dejamos al lector probar que T es un subespacio de R
3
(ver Figura *).
Figura *
Mas adelante demostramos que estos son los unicos subespacios no triviales
de R
3
.
6. Sea A /
mn
(F). Denimos el n ucleo de A, denotado por ker (A), al
subconjunto de F
n
ker (A) = x F
n
: Ax = 0
ker (A) es el conjunto solucion del sistema de ecuaciones homogeneo Ax =
0. Observamos que 0 ker (A). Supongamos que x, y ker (A) y F.
Entonces
A(x +y) = Ax +Ay = 0 + 0 = 0
y
A(x) = Ax = 0 = 0
Luego x + y y x ker (A) y, por lo tanto, ker (A) es un subespacio de
F
n
.
7. Sea A /
mn
(F). Denimos la imagen de A, denotado por Im(A),
como el subconjunto de F
m
dado por
Im(A) = Ax : x F
n

Es facil ver que Im(A) es un subespacio de F


m
.
32 CAP

ITULO 2. ESPACIOS VECTORIALES


8. Sea S =
_
A /
mn
(F) : A

= A
_
. Es decir, S es el conjunto formado
por las matrices simetricas. Si F y A, B S entonces por el Teorema
1.2.14
(A+B)

= A

+B

= A+B
y
(A)

= A

= A
As, S es un subespacio de /
mn
(F).
9. Consideremos
S = f T ([a, b] , F) : f es continua .
Si F y f, g S entonces sabemos que f +g y f son continuas. Luego,
S es un subespacio de T ([a, b] , F).
10. Sea S =
_
(x
n
) Suc (F) : lm
n
x
n
= 0
_
. Si F y (x
n
) , (y
n
) S en-
tonces
lm
n
(x
n
+y
n
) = lm
n
x
n
+ lm
n
y
n
= 0 + 0 = 0
y
lm
n
(x
n
) = lm
n
x
n
= 0 = 0
Esto prueba que S es un subespacio de Suc (F).
11. Sea k un entero positivo y S = p (x) F[x] : grad (p (x)) k. Si F
y p (x) , q (x) F[x] entonces es facil ver que
grad [p (x) +q (x)] k
y
grad [p (x)] k
En consecuencia, S es un subespacio de F[x].
Si V es un espacio vectorial entonces cualquier subespacio S de V tiene al
0: dado x S tenemos que 0 = 0x S.
Teorema 2.3.3 La interseccion de cualquier familia de subespacios de un es-
pacio vectorial V es un subespacio de V .
Demostracion. Si S
i
: i I es una familia de subespacios de V entonces
0

iI
S
i
y as,

iI
S
i
,= . Sea F y x, y

iI
S
i
. Luego, x, y S
i
para
todo i I y, como cada S
i
es un subespacio, x + y y x S
i
para todo i I.
En consecuencia, x +y y x pertenecen a

iI
S
i
, lo que prueba que

iI
S
i
es un
subespacio de V .
2.4. SUBESPACIOS GENERADOS 33
2.4. Subespacios generados
Si X es un subconjunto no vaco de un espacio vectorial V entonces, por el
Teorema 2.3.3, la interseccion de todos los subespacios de V que contienen a X
es un subespacio de V .
Denicion 2.4.1 Sea V un espacio vectorial y X un subconjunto de V . La in-
terseccion de todos lo subespacios de V que contienen a X se llama el subespacio
generado por X y lo denotamos por gen(X).
El subespacio gen(X) es el menor subespacio de V que contiene a X. En el
proximo resultado describimos la naturaleza de los elementos de gen(X).
Denicion 2.4.2 Sea V un espacio vectorial sobre F. Una combinacion lineal
de los vectores v
1
, . . . , v
k
de V es un elemento de V de la forma

1
v
1
+ +
k
v
k
donde
1
, . . . ,
k
son elementos de F.
Teorema 2.4.3 Sea X un subconjunto no vaco del espacio vectorial V . En-
tonces los elementos de gen(X) son combinaciones lineales de elementos de
X.
Demostracion. Llamemos ( al conjunto de todas las combinaciones lineales
de vectores de X. Entonces ( es un subespacio de V . En efecto, si x, y (
entonces tomando algunos escalares igual a cero si es necesario, x =
n

i=1

i
x
i
y
y =
n

i=1

i
x
i
, donde
i
,
i
F y x
i
X para todo i = 1, . . . , n. As, para F
tenemos que
x +y =
n

i=1

i
x
i
+
n

i=1

i
x
i
=
n

i=1
(
i
+
i
) x
i
(
y
x =
n

i=1

i
x
i
=
n

i=1
(
i
) x
i
(
Ademas, si x X entonces x = 1x (, por lo tanto, ( es un subespacio de V
que contiene a X. De manera que gen(X) (. Recprocamente, supongamos
que S es un subespacio de V que contiene a X. Entonces por la denicion de
subespacio, contiene toda combinacion lineal de vectores de X. Es decir, ( o.
Probamos as que ( esta contenido en cualquier subespacio de V que contenga
a X y, en consecuencia, ( gen(X). Por lo tanto, gen(X) = (.
Cuando X es nito, digamos X = x
1
, . . . , x
n
, escribimos directamente
gen(X) = gen(x
1
, . . . , x
n
)
34 CAP

ITULO 2. ESPACIOS VECTORIALES


Ejemplo 2.4.4 Veamos algunos ejemplos de subespacios generados por un sub-
conjunto de un espacio vectorial.
1. Sea 0 ,= u R
3
. Entonces el subespacio de R
3
generado por u es
gen(u) = u : R
Esta es la recta en el espacio que pasa por el origen en la direccion de u.
2. Sean u, v R
3
diferentes de cero. Entonces
gen(u, v) = u +v : , R
Observamos que si v gen(u) entonces
gen(u, v) = gen(u)
En efecto, v = u y, por lo tanto, para escalares , R tenemos que
u +v = u +(u) = ( +) u gen(u)
En caso que v , gen(u) entonces gen(u, v) es el plano en R
3
que pasa
por el origen generado por los vectores u, v.
3. Consideremos para cada i = 1, . . . , n los vectores e
i
F
n
que tienen todas
las coordenadas 0 excepto la coordenada i, que es 1. Entonces
gen(e
1
, . . . , e
n
) =
1
e
1
+ +
n
e
n
:
1
, . . . ,
n
F
= (
1
, . . . ,
n
) :
1
, . . . ,
n
F = F
n
Los vectores e
1
, . . . , e
n
reciben el nombre de vectores canonicos de F
n
.
4. El subespacio de F[x] generado por los polinomios 1, x, x
2
, . . . , x
k
es
S = f (x) F[x] : f (x) tiene grado k
5. El subespacio de /
2
(F) generado por las matrices
A =
_
1 0
0 0
_
y B =
_
0 1
0 0
_
es
gen(A, B) =
__

0 0
_
: , F
_
6. Sea A /
mn
(F). El espacio de las de A lo denotamos por T (A), y
se dene como el subespacio de F
n
generado por las las de A:
T (A) = gen(A
1
, . . . , A
m
)
2.4. SUBESPACIOS GENERADOS 35
7. Sea A /
mn
(F). El espacio de columnas de A lo denotamos por ( (A),
y se dene como el subespacio de F
m
generado por las columnas de A:
( (A) = gen(A
1
, . . . , A
n
)
Denicion 2.4.5 Un espacio vectorial V es nitamente generado si existe un
n umero nito de vectores v
1
, . . . , v
n
de V tales que V = gen(v
1
, . . . , v
n
). En
este caso, decimos que los vectores v
1
, . . . , v
n
generan a V .
Ejemplo 2.4.6 El espacio F
n
es un espacio vectorial nitamente generado. De
hecho, los vectores canonicos e
1
, . . . , e
n
genera a F
n
.
Ejemplo 2.4.7 El espacio vectorial F[x] no es nitamente generado. Para ver
esto, supongamos que p
1
(x) , . . . , p
n
(x) generan a F[x]. Elijamos k el maximo
grado entre los polinomios p
1
(x) , . . . , p
n
(x). Entonces cualquier combinacion
lineal de estos polinomios tiene grado menor o igual a k. Por lo tanto, si
tomamos un polinomio g (x) F[x] de grado estrictamente mayor que k, en-
tonces es claro que g (x) / gen(p
1
(x) , . . . , p
n
(x)).
Ejemplo 2.4.8 El subespacio de F[x]
S = p (x) F[x] : grad (p (x)) k
es nitamente generado porque S = gen
_
1, x, x
2
, . . . , x
k
_
.
En general, si V es un espacio vectorial y S
1
, S
2
son subespacios de V en-
tonces S
1
S
2
no es necesariamente un subespacio de V (ver Ejercicio 9). Por
ejemplo en R
2
, gen((1, 1)) gen((1, 1)) contiene a (1, 1) y (1, 1) pero no a
(0, 2) = (1, 1) + (1, 1). Describimos a continuacion el menor subespacio de V
que contiene a S
1
S
2
, esto es, gen(S
1
S
2
).
Denicion 2.4.9 Sea V un espacio vectorial y S
1
, S
2
subespacios de V . La
suma de estos subespacios, denotada por S
1
+S
2
, se dene como
S
1
+S
2
= v V : v = s
1
+s
2
donde s
i
S
i

Teorema 2.4.10 Sea V un espacio vectorial y S


1
, S
2
subespacios de V . En-
tonces S
1
+S
2
= gen(S
1
S
2
). En otras palabras, S
1
+S
2
es el menor subespacio
de V que contiene a cada uno de los S
i
.
Demostracion. Sean x, y S = S
1
+S
2
y F. Entonces
x = s
1
+s
2
y y = s
t
1
+s
t
2
donde s
i
, s
t
i
S
i
para i = 1, 2. En consecuencia,
x +y = s
1
+s
2
+s
t
1
+s
t
2
= (s
1
+s
t
1
) + (s
2
+s
t
2
) S
36 CAP

ITULO 2. ESPACIOS VECTORIALES


y
x = (s
1
+s
2
) = s
1
+s
2
S
porque s
i
+s
t
i
, s
i
S
i
para i = 1, 2, al ser cada S
i
un subespacio. Esto prueba
que S es un subespacio que, ademas, contiene claramente a S
1
S
2
. Por lo tanto,
gen(S
1
S
2
) S. Por otra parte, como gen(S
1
S
2
) esta formado por todas
las combinaciones lineales nitas de elementos de S
1
S
2
, entonces es claro que
S gen(S
1
S
2
). As, S = gen(S
1
S
2
).
Ejemplo 2.4.11 Consideremos los subespacios de F
3
S
1
=
_
(x, y, z) F
3
: z = 0
_
y S
2
=
_
(x, y, z) F
3
: x = 0
_
Entonces F
3
= S
1
+S
2
. En efecto, si (x, y, z) F
3
entonces
(x, y, z) = (x, y, 0) + (0, 0, z)
donde (x, y, 0) S
1
y (0, 0, z) S
2
.
En el ejemplo anterior, la descomposicion de un vector de F
3
como suma de
vectores de S
1
y S
2
no es unica. Por ejemplo, tambien descomponemos a (x, y, z)
como
(x, y, z) = (x, 0, 0) + (0, y, z)
donde (x, 0, 0) S
1
y (0, y, z) S
2
. Es especialmente interesante el caso en que
cada vector de un espacio vectorial se descompone de manera unica como suma
de vectores de cada uno de los subespacios.
Denicion 2.4.12 Decimos que V es suma directa de los subespacios S
1
y S
2
,
y escribimos V = S
1
S
2
, si cada vector v V se expresa de manera unica
como
v = u
1
+u
2
donde cada u
1
S
1
y u
2
S
2
.
Ejemplo 2.4.13 Consideremos los subespacios de F
3
T
1
=
_
(x, y, z) F
3
: y = 0 , z = 0
_
y T
2
=
_
(x, y, z) F
3
: x = 0
_
Entonces F
3
= T
1
T
2
.
Un criterio util para decidir si un espacio es suma directa de dos subespacios
viene dado en el siguiente resultado.
Teorema 2.4.14 Sea V un espacio vectorial y S
1
, S
2
subespacios de V . Las
siguientes condiciones son equivalentes:
1. V = S
1
S
2
;
2. V = S
1
+S
2
y S
1
S
2
= 0 .
2.4. SUBESPACIOS GENERADOS 37
Demostracion. 1 2. Es claro que V = S
1
+S
2
. Sea x S
1
S
2
. Entonces
x = 0 + x = x + 0 y por la unicidad de la descomposicion, x = 0. Esto prueba
que S
1
S
2
= 0.
2 1. Sea x V y supongamos que
x = u
1
+u
2
= w
1
+w
2
donde u
i
, w
i
S
i
para todo i = 1, 2. Entonces
u
1
w
1
= w
2
u
2
S
1
S
2
= 0
Esto es, u
j
= w
j
para todo j = 1, 2 lo que prueba que la descomposicion es
unica.
EJERCICIOS
1. Cuales de los siguientes subconjuntos S es un subespacio de V ?
a) V = R
n
y S = (x
1
, . . . , x
n
) R
n
: x
1
0;
b) V = R
n
y S = (x
1
, . . . , x
n
) R
n
: x
1
es racional.
c) V = /
n
(C) y S = A /
n
(C) : A

= A;
d) V = /
n
(F) y S = A /
n
(F) : A es invertible;
e) V = /
n
(F) y S = A /
n
(F) : A conmuta con P;
f ) V = /
n
(F) y S = T /
n
(F) : T es triangular superior;
g) V = /
n
(F) y S = D /
n
(F) : D es diagonal;
h) V = T (R, R) y S = g T (R, R) : g (1) = g (0) ;
2. Demuestre que los vectores (2, 1, 3) , (2, 1, 0) y (1, 5, 5) generan a R
3
.
3. Pertenece (4, 8, 1, 8, 0) al subespacio generado por los vectores
(1, 2, 0, 3, 0) , (0, 0, 1, 4, 0) , (0, 0, 0, 0, 1) ?
4. Exprese el polinomio p (x) = x
2
+ 4x 3 como combinacion lineal de los
polinomios
u(x) = x
2
2x + 5, v (x) = 2x
2
3x y w(x) = x + 3
5. Escriba la matriz P =
_
3 1
1 1
_
como combinacion lineal de las matri-
ces
A =
_
1 1
1 0
_
, B =
_
0 0
1 1
_
y C =
_
0 2
0 1
_
38 CAP

ITULO 2. ESPACIOS VECTORIALES


6. Sea A =
_
_
2 1 3 2
1 1 1 3
1 1 9 5
_
_
. (3, 1, 0, 1) T (A)?
7. Sea A /
mn
(F) y S = B /
m1
(F) : AX = B tiene solucion.
Demuestre que S es un subespacio de /
m1
(F). Que relacion existe
entre S y ( (A)?
8. Demuestre que la solucion del sistema homogeneo
6x 3y + 4w 3z = 0
3x + 2w 3u = 0
3x y + 2w w u = 0
es un subespacio nitamente generado.
9. Sean S
1
, S
2
son subespacios de un espacio vectorial V . Demuestre que
S
1
S
2
es un subespacio de V si, y solo si, S
1
S
2
o S
2
S
1
.
10. En cada uno de los casos determine si V = S
1
S
2
:
a) V = /
2
(C),
S
1
=
_
A /
2
(C) : A =
_
0 a
b c
__
y
S
2
=
_
A /
2
(C) : A =
_
0 a
b 0
__
donde a, b, c C;
b) V = T (R, R),
S
1
= g T (R, R) : g (x) = g (x) y
S
2
= g T (R, R) : g (x) = g (x)
c) V = /
n
(F) , S
1
el subespacio de las matrices simetricas y S
2
el
subespacio de las matrices antisimetricas;
d) V = /
n
(F) , S
1
el subespacio de las matrices triangulares superiores
y S
2
el subespacio de las matrices triangulares inferiores.
2.5. Independencia lineal y bases
Consideremos la matriz A =
_
_
_
_
1 0 0 1
2 2 2 4
8 6 6 10
4 3 3 5
_
_
_
_
. Recordamos que el es-
pacio de las de A es por denicion
T (A) = gen[(1, 0, 0, 1) , (2, 2, 2, 4) , (8, 6, 6, 10) , (4, 3, 3, 5)]
2.5. INDEPENDENCIA LINEAL Y BASES 39
Algunos vectores generadores de T (A) son superuos en el sentido que podemos
eliminarlos y los vectores restantes siguen generando a T (A). Esta situacion
ocurre porque algunos vectores se escriben como combinacion lineal de otros:
(8, 6, 6, 10) = 2 (1, 0, 0, 1) + 3 (2, 2, 2, 4)
y
(4, 3, 3, 5) = (1, 0, 0, 1) +
3
2
(2, 2, 2, 4)
lo que nos lleva a que T (A) = gen[(1, 0, 0, 1) , (2, 2, 2, 4)]. Tratemos de pre-
cisar mejor esta idea.
Denicion 2.5.1 Sea V un espacio vectorial. Los vectores v
1
, . . . , v
n
de V son
linealmente dependientes si existen escalares
1
, . . . ,
n
de F , no todos iguales
a cero, tales que

1
v
1
+ +
n
v
n
= 0
Si los vectores v
1
, . . . , v
n
de V no son linealmente dependientes decimos que son
linealmente independientes.
Para demostrar que los vectores v
1
, . . . , v
n
de V son linealmente independi-
entes debemos ver lo siguiente: si
1
v
1
+ +
n
v
n
= 0, donde
1
, . . . ,
n
F,
entonces
1
= =
n
= 0.
Se sigue facilmente de la denicion que cualquier subconjunto de un conjunto
de vectores linealmente independiente es linealmente independiente. Dualmente,
cualquier conjunto que contenga a un conjunto de vectores linealmente depen-
dientes es linealmente dependiente.
Ejemplo 2.5.2 Ilustramos el concepto de independencia en los siguientes ejem-
plos.
1. Los vectores (1, 0, 0, 1) , (2, 2, 2, 4) y (8, 6, 6, 10) de R
4
son lineal-
mente dependientes porque
2 (1, 0, 0, 1) 3 (2, 2, 2, 4) + (8, 6, 6, 10) = 0
2. Sean e
1
= (1, 0, 0) , e
2
= (0, 1, 0) y e
3
= (0, 0, 1) pertenecientes a F
3
. En-
tonces e
1
, e
2
, e
3
son vectores linealmente independientes de F
3
. En efecto,
si
1
,
1
,
3
son escalares tales que

1
e
1
+
2
e
2
+
3
e
3
= 0
entonces (
1
,
2
,
3
) = (0, 0, 0) y, por lo tanto,
1
=
2
=
3
= 0. Mas
generalmente, los vectores canonicos e
1
, . . . , e
n
son vectores linealmente
independientes de F
n
.
3. Los vectores 1, x, x
2
, . . . , x
k
de F[x] son linealmente independientes. En
efecto, si
n

i=1

i
x
i
= 0, donde
1
, . . . ,
n
F, entonces es claro que
i
= 0
para todo i = 1, . . . , n.
40 CAP

ITULO 2. ESPACIOS VECTORIALES


4. Las matrices
_
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
y
_
0 0
0 1
_
de /
2
(F) son linealmente independientes. Supongamos que
1
,
1
,
3
,
4

F satisfacen

1
_
1 0
0 0
_
+
2
_
0 1
0 0
_
+
3
_
0 0
1 0
_
+
4
_
0 0
0 1
_
=
_
0 0
0 0
_
Entonces
_

1

2

3

4
_
=
_
0 0
0 0
_
y, en consecuencia,
1
=
2
=
3
=
4
= 0.
5. Las funciones f (t) = e
t
y g (t) = e
2t
denidas sobre [0, 1] son funciones
linealmente independientes de T ([0, 1] , R). Supongamos que
f +g = 0
Entonces para todo t [0, 1] se tiene que
e
t
+e
2t
= 0 (2.1)
Derivando ambos lados de la igualdad obtenemos que
e
t
+ 2e
2t
= 0
y restando ambas ecuaciones llegamos a e
2t
= 0 para todo t [0, 1].
Como e
2t
> 0 concluimos que = 0 lo que implica = 0.
Ahora estamos en condiciones de introducir uno de los conceptos fundamen-
tales del algebra lineal.
Denicion 2.5.3 Sea V un espacio vectorial. Si los vectores v
1
, . . . , v
r
de V
generan a V y son linealmente independientes entonces decimos que los vectores
v
1
, . . . , v
r
forman una base de V .
Ejemplo 2.5.4 Veamos algunos ejemplos de bases de espacios vectoriales.
1. Se deduce de los ejemplos anteriores que los vectores canonicos e
1
, . . . , e
n
de F
n
forman una base para F
n
. La llamamos a partir de ahora la base
canonica de F
n
.
2. Los vectores u = (1, 1) y v = (0, 2) forman una base para R
2
. En efecto,
supongamos que , R son tales que (1, 1) + (0, 2) = (0, 0). Esto
implica (, + 2) = (0, 0) y, en consecuencia, = = 0. As, u, v son
vectores linealmente independientes. Por otra parte, si z = (z
1
, z
2
) R
2
entonces buscamos escalares , R tales que z = u + v. Esto ocurre
para = z
1
y =
z2z1
2
. Es decir, R
2
= gen(u, v).
2.6. DIMENSI

ON 41
3. Los vectores (1, 0, 0, 1) , (2, 2, 2, 4) forman una base para T (A), donde
A /
4
(R) es la matriz denida al comienzo de la seccion. En efecto, ya
sabemos que generan a T (A). Solo resta probar que
(1, 0, 0, 1) , (2, 2, 2, 4)
son linealmente independientes. Si , R son tales que u + v = 0
entonces
( + 2, 2, 2, 4) = (0, 0, 0, 0)
lo que implica = = 0.
4. Las matrices
_
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
y
_
0 0
0 1
_
forman una base para /
2
(F). Ya vimos que son linealmente independi-
entes. Como cualquier matriz A =
_
a b
c d
_
/
2
(F) se escribe como
A = a
_
1 0
0 0
_
+b
_
0 1
0 0
_
+c
_
0 0
1 0
_
+d
_
0 0
0 1
_
entonces es claro que estas matrices generan a /
2
(F).
5. Los vectores 1, x, x
2
, . . . , x
k
de F[x] forman una base para el espacio
S = p (x) F[x] : grad (p (x)) k
2.6. Dimension
Dos preguntas surgen naturalmente: tendra todo espacio vectorial una base?
Por otra parte, es posible que existan bases diferentes para un espacio vectorial.
Por ejemplo, (1, 1) , (0, 2) y (1, 0) , (0, 1) son bases diferentes para R
2
. Ahora,
existira alguna relacion entre dos bases de un espacio vectorial?. Intentamos
dar respuesta a estas preguntas en los siguientes resultados.
Comenzamos presentando una caracterizacion de una base de un espacio
vectorial.
Teorema 2.6.1 Sean v
1
, . . . , v
r
vectores de un espacio vectorial V . Las sigu-
ientes condiciones son equivalentes:
1. Los vectores v
1
, . . . , v
r
forman una base de V ;
2. Cada vector v V se expresa de manera unica como
v =
1
v
1
+ +
r
v
r
donde
i
F para todo i;
42 CAP

ITULO 2. ESPACIOS VECTORIALES


3. v
1
, . . . , v
r
es un conjunto generador minimal de V , es decir, v
1
, . . . , v
r
generan a V pero ning un subconjunto propio de v
1
, . . . , v
r
genera a V ;
4. v
1
, . . . , v
r
es un conjunto linealmente independiente maximal de V , es
decir, v
1
, . . . , v
r
es un conjunto linealmente independiente pero ning un
subconjunto de V que contenga propiamente a v
1
, . . . , v
r
es linealmente
independiente.
Demostracion. 1 2. Sea v V . Como v
1
, . . . , v
r
generan a V existen
escalares
1
, . . . ,
r
tales que v =
r

i=1

i
v
i
. Si tambien lo expresamos como
v =
r

i=1

i
v
i
, donde
i
F, entonces 0 =
r

i=1

i
v
i

i=1

i
v
i
=
r

i=1
(
i

i
) v
i
.
Como v
1
, . . . , v
r
son linealmente independientes,
i

i
= 0 para todo i.
2 1. v
1
, . . . , v
r
generan a V . Por otra parte, si
r

i=1

i
v
i
= 0 =
r

i=1
0v
i
,
donde
i
F para todo i, entonces por la unicidad
i
= 0 para todo i. Es decir,
v
1
, . . . , v
r
son linealmente independientes.
1 3. v
1
, . . . , v
r
generan a V . Si C es un subconjunto propio de v
1
, . . . , v
r
que genera a V entonces existe x v
1
, . . . , v
r
C tal que x es una com-
binacion lineal no trivial de vectores de C v
1
, . . . , v
r
. Esto contradice la
independencia lineal de v
1
, . . . , v
r
.
3 1. Si v
1
, . . . , v
r
son linealmente dependientes, existe un vector x
v
1
, . . . , v
r
que se escribe como combinacion lineal de vectores de v
1
, . . . , v
r

x. Se sigue que v
1
, . . . , v
r
x es un subconjunto propio que genera a V .
1 4. Si v
1
, . . . , v
r
no es maximal, existe un vector x V v
1
, . . . , v
r

tal que v
1
, . . . , v
r
x es linealmente independiente. Pero entonces x /
gen(v
1
, . . . , v
r
) lo que contradice el hecho de que v
1
, . . . , v
r
genera a V .
4 1. Sea x V . Entonces v
1
, . . . , v
r
, x es linealmente dependiente. Es
decir, existe una combinacion lineal x+
r

i=1

i
v
i
= 0, donde los escalares no son
todos ceros. Como v
1
, . . . , v
r
es linealmente independiente, ,= 0. Esto implica
que x es una combinacion lineal de v
1
, . . . , v
r
. As, v
1
, . . . , v
r
generan a V .
Teorema 2.6.2 Sea V un espacio vectorial. Supongamos que los vectores w
1
, . . . , w
p
de V pertenecen a gen(v
1
, . . . , v
q
). Si p > q entonces w
1
, . . . , w
p
son linealmente
dependientes.
Demostracion. Para cada j = 1, . . . , p existen escalares a
ij
tales que w
j
=
q

i=1
a
ij
v
i
. Sea A /
qp
(F) la matriz tal que [A]
ij
= a
ij
. Como p > q deducimos
del Corolario 1.3.8 que la ecuacion Ax = 0 tiene una solucion no trivial x =
2.6. DIMENSI

ON 43
_
_
_
x
1
.
.
.
x
p
_
_
_. Es decir,
p

j=1
a
ij
x
j
= 0 para todo i = 1, . . . , q. Luego
p

j=1
x
j
w
j
=
p

j=1
x
j
_
q

i=1
a
ij
v
i
_
=
q

i=1
_
_
p

j=1
a
ij
x
j
_
_
v
i
= 0
Esto prueba que los vectores w
1
, . . . , w
p
de V son linealmente dependientes.
Teorema 2.6.3 Sea V = gen(v
1
, . . . , v
n
) un espacio vectorial nitamente gen-
erado. Las siguientes condiciones se cumplen:
1. Todo conjunto de vectores linealmente independientes w
1
, . . . , w
p
de V se
extiende a una base de V .
2. El conjunto de generadores v
1
, . . . , v
n
de V se reduce a una base de V .
Demostracion. 1. Sean w
1
, . . . , w
p
vectores linealmente independientes de
V . Por el Teorema 2.6.2, p n. Si el conjunto w
1
, . . . , w
p
es maximal entonces
w
1
, . . . , w
p
es la base que buscamos, por el Teorema 2.6.1. De lo contrario, existe
w
p+1
V tal que w
1
, . . . , w
p
, w
p+1
son linealmente independientes. De nuevo,
si w
1
, . . . , w
p
, w
p+1
es maximal entonces ya encontramos una base para V . De
lo contrario existe w
p+2
V tal que w
1
, . . . , w
p+2
son vectores linealmente
independientes. Como n es una cota superior del n umero de vectores lineal-
mente independientes de V , este proceso tiene que terminar en un conjunto de
vectores linealmente independiente maximal w
1
, . . . , w
p
, . . . , w
s
. Por lo tanto,
w
1
, . . . , w
p
, . . . , w
s
es una base de V .
2. Si el conjunto v
1
, . . . , v
n
es minimal entonces, por el Teorema 2.6.1,
ya tenemos la base de V . De lo contrario, existe un subconjunto propio G
1
de
v
1
, . . . , v
n
que genera a V . De nuevo, si G
1
es minimal entonces tenemos la
base de V . De lo contrario existe un subconjunto propio de G
1
que genera a V .
Continuando este proceso, despues de un n umero nito de pasos llegamos a un
subconjunto de v
1
, . . . , v
n
minimal, y por lo tanto, una base de V .
En particular, se sigue del teorema anterior que todo espacio vectorial nita-
mente generado tiene una base. Ahora, si el espacio V no es nitamente generado
existira una base para V ? Primero que todo, observamos que en la denicion
2.5.3 se dice cuando un conjunto nito de vectores v
1
, . . . , v
r
de un espacio V
es una base. Esta denicion la generalizamos para subconjuntos arbitrarios de
V como sigue:
Denicion 2.6.4 Sea V un espacio vectorial. Un subconjunto X de V es lineal-
mente independiente si todo subconjunto nito de X es linealmente independi-
ente. Luego, decimos que X es una base de V si X es linealmente independiente
y gen(X) = V .
44 CAP

ITULO 2. ESPACIOS VECTORIALES


Por ejemplo, el espacio vectorial F[x] no tiene bases nitas porque, como
vimos en un ejemplo anterior, ning un subconjunto nito de F[x] genera a F[x].
Sin embargo, X =
_
1, x, x
2
, . . .
_
es una base (innita) de F[x].
Nuestro interes en este curso es estudiar los espacios vectoriales nitamente
generados que sabemos, por el Teorema 2.6.3, tienen bases nitas. Ademas,
probamos en el proximo resultado que dos bases de un espacio nitamente
generado tienen exactamente el mismo n umero de vectores. Sin embargo, to-
do espacio vectorial (no necesariamente nitamente generado) tiene una base y
cualesquiera dos bases tienen la misma cardinalidad. El lector interesado puede
consultar un libro de algebra lineal mas avanzado.
Teorema 2.6.5 Si v
1
, . . . , v
p
y w
1
, . . . , w
q
son dos bases del espacio vectorial
V entonces p = q.
Demostracion. Como v
1
, . . . , v
p
son linealmente independientes y contenidos
en V = gen(w
1
, . . . , w
q
) se sigue del Teorema 2.6.2 que p q. Por otro lado,
w
1
, . . . , w
q
son linealmente independientes y contenidos en V = gen(v
1
, . . . , v
p
)
lo que implica q p. En consecuencia, p = q.
Denicion 2.6.6 La dimension de un espacio vectorial nitamente generado
V , denotado por dim(V ), es el n umero de vectores que tiene una base de V .
Si S es el subespacio trivial 0 entonces S no tiene base y decimos que tiene
dimension 0.
Denicion 2.6.7 Los espacios vectoriales que tienen una base nita, i.e., los
espacios nitamente generados, reciben el nombre de espacios de dimension ni-
ta.
Ejemplo 2.6.8 Veamos algunos ejemplos de espacios de dimension nita.
1. El espacio F
n
tiene dimension n. En efecto, la base canonica e
1
, . . . , e
n
tiene n vectores.
2. Tenemos que dimT (A) = 2 para la matriz A al comienzo de la seccion.
3. Los vectores 1, x, x
2
, . . . , x
k
de F[x] forman una base para el espacio
S = p (x) F[x] : grad (p (x)) k
Por lo tanto, dim(S) = k + 1.
Teorema 2.6.9 Sean S y T subespacios de un espacio de dimension nita V
tales que S T. Entonces dim(S) dim(T). Mas aun, dim(S) = dim(T) si,
y solo si S = T.
Demostracion. Sea v
1
, . . . , v
p
una base de S T. Por el Teorema 2.6.3
extendemos esta base a una base de T. Luego dim(S) = p dim(T) . Para ver
2.6. DIMENSI

ON 45
la segunda parte, si dim(S) = dim(T) entonces por el Teorema 2.6.5, v
1
, . . . , v
p
es una base de T. Luego S = gen(v
1
, . . . , v
p
) = T.
En particular, todo subespacio de un espacio de dimension nita tiene di-
mension nita.
EJERCICIOS
1. Demuestre que los vectores (2, 1, 3) , (2, 1, 0) y (1, 5, 5) forman una base de
R
3
.
2. Determine si las matrices
_
1 1
0 0
_
,
_
0 1
1 0
_
,
_
0 0
1 1
_
,
_
0 0
0 1
_
constituyen una base para /
2
(R) .
3. Sea V = p (x) F[x] : grado de p (x) 2. Demuestre que
B =
_
1, x 1, x
2
x
_
y B
t
=
_
3, x, x
2
1
_
son bases de V . Escriba cada uno de los vectores de B como combinacion
lineal de los vectores de B
t
.
4. Demuestre que C es un espacio vectorial sobre R de dimension 2.
5. Determine si el conjunto
_
1, 1 +x, x +x
2
, x
2
+x
3
, . . . , x
m1
+x
m
_
es una base para el espacio V = p (x) F[x] : grado de p (x) m
6. Encuentre una base para los espacios indicados a continuacion:
a) /
mn
(F);
b) El subespacio de /
n
(F) formado por las matrices diagonales;
c) El subespacio de /
n
(F) formado por las matrices triangulares su-
periores;
d) El subespacio de /
n
(F) formado por las matrices simetricas.
7. Sean U y W espacios vectoriales de dimension nita. Demuestre que
a) dim(U W) = dim(U) + dim(W) ;
b) Si U es un subespacio de V entonces el subespacio (u, u) : u U
de V V tiene dimension igual a dim(U).
8. Demuestre que n vectores linealmente independientes en un espacio de
dimension n forman una base.
46 CAP

ITULO 2. ESPACIOS VECTORIALES


2.7. El rango y la nulidad de una matriz
Describimos en esta seccion metodos para encontrar una base de los sube-
spacios ( (A) , T (A) , Im(A) y ker (A) asociados a la matriz A /
mn
(F).
Para esto nos apoyamos una vez mas en la eliminacion de Gauss-Jordan.
Teorema 2.7.1 Sea A /
mn
(F) y supongamos que A
f
E, donde E es
escalonada reducida. Si 1 k
1
< k
2
< < k
r
n son las columnas que
contienen los primeros elementos distintos de cero de cada la de E, entonces
A
k
1
,
. . . , A
k
r
forman una base para ( (A).
Demostracion. Armacion 1: las columnas E
k1,
. . . , E
kr
forman una base
para el subespacio generado por las columnas de E. En efecto, recordamos que
para todo i = 1, . . . , r se cumple que E
k
i
= e
i
, el vector canonico de F
m
. En
consecuencia, son linealmente independientes. Por otro lado, dado un vector
columna E
j
de E, como [E]
ij
= 0 para todo i > r, entonces es claro que E
j
se escribe como combinacion lineal de los vectores e
i
.
Armacion 2: los vectores A
k
1
,
. . . , A
k
r
forman una base para el subespacio
generado por las columnas de A. Por el Teorema 1.4.7, existe una matriz P
/
m
(F) invertible tal que E = PA. Luego para cada j,
E
j
= (PA)
j
= PA
j
Sea A
j
la columna j de A. Entonces
A
j
= P
1
E
j
= P
1
r

i=1

i
E
ki
=
r

i=1

i
_
P
1
E
k
i
_
=
r

i=1

i
A
k
i
Esto prueba que que las columnas A
k1,
. . . , A
kr
generan el subespacio generado
por las columnas de A. Por otra parte, si
1
, . . . ,
r
son escalares tales que
r

i=1

i
A
k
i
= 0 entonces
0 = P0 = P
r

i=1

i
A
ki
= P
r

i=1

i
_
P
1
E
ki
_
=
r

i=1

i
E
ki
Como E
k1,
. . . , E
kr
son linealmente independientes, concluimos que
1
= =

r
= 0.
Ejemplo 2.7.2 Encontremos una base del subespacio de R
4
S = gen
_
_
_
_
_
_
_
_
2
6
0
2
_
_
_
_
,
_
_
_
_
4
4
4
2
_
_
_
_
,
_
_
_
_
6
2
8
2
_
_
_
_
,
_
_
_
_
2
2
2
2
_
_
_
_
,
_
_
_
_
6
14
2
8
_
_
_
_
_
_
_
_
2.7. EL RANGO Y LA NULIDAD DE UNA MATRIZ 47
Primero formamos la matriz A con las columnas dadas por lo vectores gener-
adores de S :
A =
_
_
_
_
2 4 6 2 6
6 4 2 2 14
0 4 8 2 2
2 2 2 2 8
_
_
_
_
Vimos en el Ejemplo 1.3.2 que
A
f
_
_
_
_
1 0 1 0 2
0 1 2 0 1
0 0 0 1 3
0 0 0 0 0
_
_
_
_
Por el teorema anterior, E
1
, E
2
y E
4
forman una base para el subespacio
generado por las columnas de E. Por lo tanto, los vectores
_
_
_
_
2
6
0
2
_
_
_
_
,
_
_
_
_
4
4
4
2
_
_
_
_
,
_
_
_
_
2
2
2
2
_
_
_
_
forman una base para S.
Corolario 2.7.3 Sea A /
mn
(F) y supongamos que A
f
E, donde E es
escalonada reducida. Si r es el n umero de las distintas de cero de E entonces
dim( (A) = r.
Demostracion. Es inmediato del Teorema 2.7.1.
Para encontrar una base para el subespacio T (A), calculamos una base para
(
_
A

_
usando el procedimiento del Teorema 2.7.1, luego la traspuesta de estos
vectores forman una base para T (A).
Veamos ahora como calcular una base para ker (A), donde A /
mn
(F).
Teorema 2.7.4 Sea A /
mn
(F) y supongamos que A
f
E, donde E es
escalonada reducida. Supongamos que 1 k
1
< k
2
< < k
r
n son las
columnas que contienen los primeros elementos distintos de cero de cada la de
E. Entonces:
1. Si r = n entonces ker (A) = 0;
2. Si r < n entonces para cada j J = 1, . . . , n k
1
, . . . , k
r
sea S
j
el
vector columna de F
n
obtenido al hacer x
j
= 1 y x
i
= 0 para todos los
otros valores de i en J. Luego se calcula x
q
para q = k
r
, . . . , k
1
, en este
orden, por la formula:
x
q
=
1
e
rq
_
_
n

j>q
e
rj
x
j
_
_
Entonces S
j
: j J es una base para ker (A) .
48 CAP

ITULO 2. ESPACIOS VECTORIALES


Demostracion. La dejamos como ejercicio para el lector.
Ejemplo 2.7.5 Encontremos una base del espacio solucion del sistema ho-
mogeneo
x + 2y w + 3z 4u = 0
2x + 4y 2w z + 5u = 0
2x + 4y 2w + 4z 2u = 0
Tenemos que
_
_
1 2 1 3 4
2 4 2 1 5
2 4 2 4 2
_
_

f
_
_
1 2 1 0 0
0 0 0 1 0
0 0 0 0 1
_
_
En este caso k
1
= 1, k
2
= 4, k
3
= 5, r = 3 y J = 2, 3. Entonces
S
2
= (2, 1, 0, 0, 0) y S
3
= (1, 0, 1, 0, 0)
es una base del espacio solucion del sistema.
Corolario 2.7.6 Sea A /
mn
(F) y supongamos que A
f
E, donde E es
escalonada reducida. Si r es el n umero de las distintas de cero de E entonces
dimker (A) = n r.
Demostracion. Es inmediato del Teorema 2.7.4.
Recordamos que dada una matriz A /
mn
(F), la imagen de A es el
subespacio de F
m
Im(A) = Ax : x F
n

Por el hecho de que para cada matriz A /


mn
(F)
Ax = x
1
A
1
+x
2
A
2
+ +x
n
A
n
para todo x = (x
1
, . . . , x
n
)

F
n
, se deduce que
( (A) = Im(A)
Denicion 2.7.7 El rango de una matriz A /
mn
(F), denotado por rgo (A),
es la dimension de Im(A). Esto es,
rgo (A) = dim(Im(A)) = dim(( (A))
La nulidad de A, denotada por nul (A), es la dimension de ker (A) :
nul (A) = dim(ker (A))
Los Corolarios 2.7.3 y 2.7.6 implican el siguiente importante resultado.
2.7. EL RANGO Y LA NULIDAD DE UNA MATRIZ 49
Teorema 2.7.8 (Teorema de la dimension para matrices) Sea A /
mn
(F).
Entonces
nul (A) +rgo (A) = n.
Demostracion. Es inmediato.
En los proximos resultados probamos que para cualquier matriz A /
mn
(F)
rgo (A) := dim(( (A)) = dim(T (A))
Es decir, la dimension del espacio de columnas de A es igual a la dimension del
espacio de las de A.
Teorema 2.7.9 Sean A, B /
mn
(R). Las siguientes condiciones se cumplen:
1. Si A
f
B entonces rgo (A) = rgo (B);
2. Si A
c
B entonces ( (A) = ( (B) . En particular, rgo (A) = rgo (B).
Demostracion. 1. Sea P una matriz invertible tal que B = PA. Entonces
es claro que Ax = 0 si, y solo si, Bx = 0. Esto implica que ker A = ker B y as,
dimker A = dimker B. Se sigue del Teorema 2.7.8 que dim( (A) = dim( (B).
2. Existe Q invertible tal que B = AQ. Luego Bx = A(Qx) ( (A). Por lo
tanto, ( (B) ( (A) . Recprocamente, Aw = B
_
Q
1
w
_
( (B). As, ( (A)
( (B) .
Teorema 2.7.10 Sea A /
mn
(R). Entonces rgo (A) = dimT (A).
Demostracion. Por el Teorema 1.5.6, A B =
_
I
r
0
0 0
_
. Luego existen
matrices invertibles P, Q tales que A = PBQ. Como B

= B se sigue que
A

= Q

BP

. Por lo tanto A

B y as A A

. Se sigue del Teorema 2.7.9


que rgo (A) = rgo
_
A

_
= dim(
_
A

_
= dimT (A).
Recordamos que en el Teorema 1.5.7 demostramos que las matrices A, B
/
mn
(F) son equivalentes si, y solo si, existen matrices invertibles P /
m
(F)
y Q /
n
(F) tales que B = PAQ. Presentamos ahora una nueva caracteri-
zacion de equivalencia en terminos del rango de una matriz.
Teorema 2.7.11 Sean A, B /
mn
(F). Entonces A B si, y solo si,
rgo (A) = rgo (B).
Demostracion. Si A B entonces por el Teorema 2.7.9 rgo (A) = rgo (B).
Recprocamente, si rgo (A) = rgo (B) = r entonces por el Teorema 1.5.6
A
_
I
r
0
0 0
_
B
Como consecuencia de los Teoremas 2.7.8 y 2.7.10 obtenemos una caracter-
izacion para las matrices invertibles.
50 CAP

ITULO 2. ESPACIOS VECTORIALES


Teorema 2.7.12 Sea A /
n
(F) . Las siguientes condiciones son equiva-
lentes:
1. A es invertible;
2. rgo (A) = n;
3. nul (A) = 0;
4. La ecuacion Ax = 0 tiene unica solucion x = 0;
5. Las columnas de A forman una base de F
n
;
6. Las las de A forman una base de F
n
.
Demostracion. 1 2. Si A es invertible entonces por el Teorema 1.4.5
A
f
I. Se sigue del Teorema 2.7.9 que rgo (A) = rgo (I) = n.
2 3. Si rgo (A) = n entonces por el Teorema 2.7.8, nul (A) = 0.
3 4. Si nul (A) = 0 entonces 0 = ker (A) = x F
n
: Ax = 0.
4 5. Supongamos que
1
A
1
+ +
n
A
n
= 0. Entonces Ax = 0, donde
x = (
1
, . . . ,
n
)

F
n
. Por hipotesis x = 0 y as,
1
= =
n
= 0. Pero n
vectores linealmente independientes en F
n
forman una base.
5 6. Se sigue del Teorema 2.7.10.
5 1. Supongamos que los vectores A
1
, . . . , A
n
forman una base de F
n
.
Entonces cada vector canonico de F
n
se expresa como combinacion lineal de
estos vectores: para todo i = 1, . . . , n
e
i
=
n

k=1

ki
A
k
Denamos la matriz X que tiene como columna j a (
1j
, . . . ,
nj
)

. Es facil ver
que XA = I. Ademas, para cada i = 1, . . . , n
(AX)
i
= AX
i
= A(
1i
, . . . ,
ni
)

=
1i
A
1
+
2i
A
2
+ +
ni
A
n
= e
i
Esto prueba que AX = I y as, A es invertible.
EJERCICIOS
1. Demuestre que los vectores (1, 0, i) , (1 +i, 1 i, 1) y (i, i, i) forman una
base para C
3
.
2. Encuentre una base para T (A), una base para ( (A) y una base para
ker (A) si
A =
_
_
1 7 6 2
2 8 2 4
2 5 3 4
_
_
2.7. EL RANGO Y LA NULIDAD DE UNA MATRIZ 51
3. Encuentre una base para el espacio solucion del sistema homogeneo
6x 3y + 4w 3z = 0
3x + 2w 3u = 0
3x y + 2w w u = 0
4. Demuestre el Teorema 2.7.4.
5. Demuestre que rgo (A) = rgo
_
A

_
.
6. Demuestre que rgo (AB) rgo (A) y rgo (AB) rgo (B).
52 CAP

ITULO 2. ESPACIOS VECTORIALES


Captulo 3
Transformaciones lineales
3.1. Transformaciones lineales
Los conjuntos R0 R
2
y R evidentemente son conjuntos diferentes; el
primero esta formado por pares ordenados de R
2
que tienen la segunda coorde-
nada 0 mientras que el segundo consiste de n umeros reales. Sin embargo, como
espacios vectoriales sobre R son esencialmente los mismos (ver Figura *)
Figura *
De hecho, es posible establecer una correspondencia biyectiva entre estos dos
conjuntos de manera que las operaciones de espacio vectorial son preservadas.
Cuando esto ocurre decimos que los espacios vectoriales son isomorfos. Pre-
cisamos mejor esta idea a lo largo de este captulo.
Sea A /
mn
(F). Por el Teorema 1.2.7, la funcion
A
: F
n
F
m
denida
por
A
(x) = Ax (x F
n
), satisface las propiedades:

A
(x +y) =
A
(x) +
A
(y)

A
(x) =
A
(x)
para todo , F y x, y F
n
. Mas generalmente tenemos el siguiente concepto
fundamental del algebra lineal:
Denicion 3.1.1 Sean V y W espacios vectoriales sobre F. Una transforma-
cion lineal T de V en W es una funcion T : V W que satisface
T (x +y) = T (x) +T (y)
T (x) = T (x)
para todo , F y x, y V . Denotamos por L(V, W) al conjunto de todas las
transformaciones lineales de V en W. Cuando V = W escribimos L(V, V ) =
L(V ) y una transformacion lineal de L(V ) la llamamos un operador lineal sobre
V .
53
54 CAP

ITULO 3. TRANSFORMACIONES LINEALES


Un ejemplo trivial de transformacion lineal entre espacios vectoriales V y
W es la transformacion nula, denotada por 0 :V W y denida por 0(v) = 0
para todo v V .
Ejemplo 3.1.2 Como vimos antes, si A /
mn
(F) entonces
A
: F
n
F
m
es una transformacion lineal. Consideremos algunas matrices en /
2
(R):
1. Reexion respecto al eje x: Sea A =
_
1 0
0 1
_
. Entonces
A
: R
2
R
2
esta denida por
A
_
x
y
_
=
_
x
y
_
. Geometricamente,
A
toma un
vector de R
2
y lo reeja respecto al eje x (ver Figura *).
Figura *
2. Proyeccion sobre el eje x: Si P =
_
1 0
0 0
_
entonces
P
: R
2
R
2
esta denida por
P
_
x
y
_
=
_
x
0
_
. Esto es,
P
toma un vector de R
2
y lo proyecta sobre el eje x (ver Figura *).
Figura *
3. Rotacion: sea 0 2 y consideremos la matriz U =
_
cos sen
sen cos
_
.
Si
_
x
y
_
R
2
entonces x = rcos y y = rsen. As,
U
_
x
y
_
=
_
cos sen
sen cos
__
rcos
rsen
_
=
_
rcos ( +)
rsen( +)
_
En otras palabras, la transformaci on lineal
U
: R
2
R
2
toma un vector
de R
2
y lo rota un angulo en sentido contrario a las agujas del reloj (ver
Figura *).
Figura *
Ejemplo 3.1.3 Las siguientes funciones son ejemplos de transformaciones lin-
eales entre espacios vectoriales:
1. Sea T el subespacio de T (R, R) formado por las funciones f : R R que
tienen derivadas de todos los ordenes y D : T T denida por D(f) =
f
t
. Para cualesquiera f, g T (R, R) y R tenemos que
D(f +g) = (f +g)
t
= f
t
+g
t
= D(f) +D(g)
D(f) = (f)
t
= f
t
= D(f)
3.1. TRANSFORMACIONES LINEALES 55
2. Sea S = f T ([a, b] , R) : f es continua e 1 : S R la funcion denida
por 1 (f) =
b
_
a
f (x) dx. Si f, g S y R entonces
1 (f +g) =
b
_
a
(f +g) (x) dx =
b
_
a
[f (x) +g (x)] dx
=
b
_
a
f (x) dx +
b
_
a
g (x) dx = 1 (f) +1 (g)
y
1 (f) =
b
_
a
(f) (x) dx =
b
_
a
f (x) dx =
b
_
a
f (x) dx = 1 (f)
3. La funcion : Suc (F) Suc (F) denida por (x
1
, x
2
, . . .) = (x
2
, x
3
, . . .).
Sean x = (x
1
, x
2
, . . .) , y = (y
1
, y
2
, . . .) Suc (F) y R. Entonces
(x +y) = (x
1
+y
1
, x
2
+y
2
, . . .) = (x
2
+y
2
, x
3
+y
3
, . . .)
= (x
2
, x
3
, . . .) + (y
2
, y
3
, . . .) = (x) + (y)
y
(x) = ((x
1
, x
2
, . . .)) = (x
1
, x
2
, . . .)
= (x
2
, x
3
, . . .) = (x
2
, x
3
, . . .) = (x)
4. Sea V el espacio de los n umeros complejos sobre R. Entonces la funcion
: V V denida por (z) = z, donde z V , es una transformaci on
lineal.
5. La funcion : /
n
(F) F denida por (A) = Tr (A), para todo
A /
n
(F), es una transformacion lineal.
Vamos a establecer algunos hechos simples sobre las transformaciones lin-
eales.
Teorema 3.1.4 Sea T L(V, W). Entonces se cumplen las siguientes condi-
ciones:
1. T (0) = 0;
2. T (v) = T (v) = (1) T (v) .
56 CAP

ITULO 3. TRANSFORMACIONES LINEALES


Demostracion. Probamos la parte 1, la segunda la dejamos como ejercicio.
Tenemos que
T (0) = T (0 + 0) = T (0) +T (0)
Luego, sumando el inverso aditivo de T (0) a ambos lados de la relacion anterior,
obtenemos T (0) = 0.
El siguiente resultado nos proporciona muchos ejemplos de transformaciones
lineales. Ademas, establece que una transformacion lineal T L(V, W) queda
completamente determinada por los valores que toma en una base de V .
Teorema 3.1.5 Sean V, W espacios vectoriales y v
1
, . . . , v
n
una base de V .
Consideremos elementos w
1
, . . . , w
n
W. Entonces existe una unica T L(V, W)
tal que T (v
i
) = w
i
para todo i.
Demostracion. Denamos la funcion T : V W por T (v
i
) = w
i
para
cada i y extendamos linealmente a V por la formula
T
_
n

i=1

i
v
i
_
=
n

i=1

i
T (v
i
) .
T esta bien denida por el hecho de que cada vector de V tiene una repre-
sentacion unica como combinacion lineal de vectores de la base. La linealidad
de T es clara por la forma que la denimos. Para ver la unicidad, supongamos
que S L(V, W) satisface S (v
i
) = w
i
para todo i. Entonces
S
_
n

i=1

i
v
i
_
=
n

i=1

i
S (v
i
) =
n

i=1

i
T (v
i
) = T
_
n

i=1

i
v
i
_
Ejemplo 3.1.6 Consideremos el espacio vectorial
V = p (x) F[x] : grad (p (x)) k
y sean
0
, . . . ,
k
elementos de F. Entonces existe una unica transformacion
lineal T : V F tal que por T
_
x
i
_
=
i
, para todo i = 0, . . . , k. De hecho,
esta denida por T
_
k

i=0

i
x
i
_
=
k

i=0

i
.
Dotamos a continuacion al conjunto de las transformaciones lineales L(V, W)
de una estructura de espacio vectorial.
Denicion 3.1.7 Dadas S, T L(V, W) denimos la suma de S y T, denotada
por S +T, a la funcion S +T : V W denida por
(S +T) (x) = S (x) +T (x)
para todo x V . Si F entonces la multiplicacion del escalar por T
L(V, W), denotado por T, es la funcion T : V W denida por
(T) (x) = T (x)
3.1. TRANSFORMACIONES LINEALES 57
Teorema 3.1.8 Sean V y W espacios vectoriales sobre F. Si S, T L(V, W)
y F entonces S + T y S pertenecen a L(V, W). Mas aun, L(V, W) es un
espacio vectorial sobre F con estas operaciones.
Demostracion. Dejamos como ejercicio al lector.
A L(V, W) lo llamamos el espacio de las transformaciones lineales de V en
W.
Consideramos ahora la composicion entre transformaciones lineales.
Teorema 3.1.9 Sean S L(V, W) y T L(U, V ). Entonces ST L(U, W).
Demostracion. Sean , F y x, y U. Entonces
(ST) (x +y) = S [T (x +y)]
= S [T (x) +T (y)]
= S (T (x)) +S (T (y))
= (ST) (x) + (ST) (y)
La transformacion lineal identidad es la funcion I
V
: V V denida por
I (x) = x para todo x V. Es facil ver que I
V
T = TI
V
= T para cualquier
T L(V ).
Al igual que las matrices, la composicion de transformaciones lineales no es
conmutativa.
Ejemplo 3.1.10 Sean S : R
3
R
3
y T : R
3
R
3
los operadores lineales
denidos por
S
_
_
x
y
z
_
_
=
_
_
x
y
0
_
_
y T
_
_
x
y
z
_
_
=
_
_
x
z
0
_
_
.
Entonces
ST
_
_
x
y
z
_
_
= S
_
_
x
z
0
_
_
=
_
_
x
z
0
_
_
y TS
_
_
x
y
z
_
_
= T
_
_
x
y
0
_
_
=
_
_
x
0
0
_
_
Usamos la notacion de potencias para representar la composicion de un op-
erador lineal consigo mismo: si T L(V ) entonces T
0
= I, y para un entero
n 1, T
n
= TT
n1
. Las potencias de un operador lineal si conmutan, i.e.,
T
r
T
s
= T
s
T
r
= T
r+s
.
En el proximo resultado presentamos una lista de propiedades basicas que
satisface la composicion de transformaciones lineales. Suponemos que los espa-
cios de partida y de llegada son los adecuados.
Teorema 3.1.11 Sean R, S y T transformaciones lineales. Entonces
58 CAP

ITULO 3. TRANSFORMACIONES LINEALES


1. (RS) T = R(ST) ;
2. R(S +T) = RS +RT;
3. (R +S) T = RT +ST;
4. (RS) = (R) S = R(S) para todo F.
Demostracion. La dejamos como ejercicio para el lector.
EJERCICIOS
1. Sea U /
n
(F) invertible y considere la funcion T : /
n
(F) /
n
(F)
denida por T (A) = U
1
AU, para todo A /
n
(F). Es T un operador
lineal? Es inyectivo? Es sobreyectivo?
2. Sea M /
n
(F) y dena la funcion T : /
n
(F) /
n
(F) por T (A) =
AM MA. Demuestre que T es un operador lineal.
3. Sea F : R
2
R denida por F
_
x
y
_
= xy. Es F una transformacion
lineal?
4. Encuentre un operador lineal R : R
2
R
2
que tome un vector de R
2
y:
a) lo reeje respecto a la recta y = x;
b) lo reeje respecto al eje y;
c) lo proyecte sobre el eje y.
5. Sea F : R
2
R
2
el unico operador lineal que satisface
F
_
1
2
_
=
_
2
3
_
y F
_
0
1
_
=
_
1
4
_
.
Encuentre una expresion explcita para F
_
x
y
_
, donde
_
x
y
_
R
2
.
6. Existe una transformacion lineal T : R
3
R
2
tal que
T
_
_
1
1
1
_
_
=
_
1
0
_
y T
_
_
1
1
1
_
_
=
_
0
1
_
?
7. Existe un operador lineal T : R
2
R
2
tal que
T
_
1
1
_
=
_
1
0
_
, T
_
2
1
_
=
_
0
1
_
y T
_
3
2
_
=
_
1
1
_
?
3.2. EL N

UCLEO Y LA IMAGEN 59
8. Sea V el espacio de los n umeros complejos considerado como espacio vec-
torial sobre R. Encuentre una transformacion lineal de V en V pero que
no sea lineal cuando considere a V como espacio vectorial sobre C.
9. Sea F : V W una transformacion lineal y suponga que v
1
, . . . , v
n

V son tales que F (v
1
) , . . . , F (v
n
) son linealmente independientes. De-
muestre que los vectores v
1
, . . . , v
n
tambien son linealmente independi-
entes.
10. Demuestre el Teorema 3.1.8.
11. Demuestre el Teorema 3.1.11.
12. Considere las transformaciones lineales F : R
3
R
2
, G : R
3
R
2
y
H : R
3
R
2
denidas por
F
_
_
x
y
z
_
_
=
_
x +y +z
x +y
_
, G
_
_
x
y
z
_
_
=
_
2x +z
x +z
_
y
H
_
_
x
y
z
_
_
=
_
2y
x
_
Demuestre que F, G y H son linealmente independientes como vectores de
L
_
R
3
, R
2
_
.
13. Encuentre dos operadores lineales S, T en R
2
tales que ST = 0 pero TS ,=
0.
14. Sea P L(V ) tal que P
2
= P. Demuestre que V = ker (P) Im(P).
3.2. El n ucleo y la imagen
Una propiedad importante de las transformaciones lineales es que enva sube-
spacios en subespacios.
Teorema 3.2.1 Sea T L(V, W) y U un subespacio de V . Entonces
T (U) = T (u) : u U
es un subespacio de W.
Demostracion. Sean x, y V y F. Entonces
T (x) +T (y) = T (x +y) T (U)
y
T (x) = T (x) T (U)
60 CAP

ITULO 3. TRANSFORMACIONES LINEALES


En particular, la imagen de V bajo T L(V, W), que denotamos por Im(T),
es un subespacio de W.
Otro subespacio importante asociado a T L(V, W) es el n ucleo de T.
Denicion 3.2.2 Sea T L(V, W). El n ucleo de T, denotado por ker (T), es
el subconjunto de V
ker (T) = v V : T (v) = 0 .
Observamos que ker (T) es no vaco porque T (0) = 0.
Teorema 3.2.3 Sea T L(V, W). Entonces ker (T) es un subespacio de V .
Demostracion. Sean x, y ker (T) y F. Entonces al ser T una trans-
formacion lineal,
T (x +y) = T (x) +T (y) = 0 + 0 = 0
y
T (x) = T (x) = 0 = 0
porque x, y ker (T). En consecuencia, x +y y x ker (T).
Ejemplo 3.2.4 Veamos algunos ejemplos.
1. Sea A /
mn
(F) y
A
L(F
n
, F
m
) la transformacion lineal inducida
por A. Entonces
ker (
A
) = x F
n
:
A
(x) = 0
= x F
n
: Ax = 0
y
Im(
A
) =
A
(x) : x F
n

= Ax : x F
n

Esto es, ker (


A
) y Im(
A
) coincide con lo que llamamos en secciones
anteriores el n ucleo y la imagen de A. Para calcular estos subespacios
usamos las tecnicas estudiadas en el Captulo 1.
2. La transformacion lineal : Suc (F) Suc (F) denida por
(x
1
, x
2
, . . .) = (x
2
, x
3
, . . .)
tiene n ucleo
ker () = (x
1
, x
2
, . . .) : (x
2
, x
3
, . . .) = (0, 0, . . .)
= (x
1
, 0, , 0, . . .) : x
1
F
Es claro que Im() = Suc (F).
3.2. EL N

UCLEO Y LA IMAGEN 61
3. Sea T el subespacio de T (R, R) formado por las funciones f : R R que
tienen derivadas de todos los ordenes y D : T T denida por D(f) =
f
t
. Entonces
ker (D) = f T : D(f) = 0
= f T : f
t
= 0
= f T : f es constante
Para decidir si una transformacion lineal es inyectiva basta con revisar el
n ucleo.
Teorema 3.2.5 Sea T L(V, W). Entonces T es inyectiva si, y solo si, ker (T) =
0 .
Demostracion. Supongamos que T es inyectiva y sea x ker (T). Entonces
T (0) = 0 = T (x). De aqu se sigue que x = 0 y, por lo tanto, ker (T) = 0.
Recprocamente, sean x, y V y supongamos que T (x) = T (y). Como T es
lineal entonces T (x y) = 0 y as, x y ker (T) = 0. Esto prueba que
x = y y T es inyectiva.
El resultado central de esta seccion establece una relacion entre las dimen-
siones del n ucleo y la imagen de una transformacion lineal denida sobre un
espacio vectorial de dimension nita.
Teorema 3.2.6 Sea T L(V, W) y V un espacio vectorial de dimension nita.
Entonces Im(T) es de dimension nita y
dim(V ) = dim[ker (T)] + dim[Im(T)]
Demostracion. Consideremos una base w
1
, . . . , w
k
de ker (T). Extendamos
este conjunto de vectores a una base w
1
, . . . , w
k
, v
1
, . . . , v
r
de V . Entonces es
claro que dim(V ) = k + r. Faltara ver que dim[Im(T)] = r. Para esto,
probamos que T (v
1
) , . . . , T (v
r
) es una base de Im(T). Primero, si y Im(T)
entonces y = T (x) para alg un x V . Luego existen escalares
1
, . . . ,
k
,
1
, . . . ,
r
tales que
x =
1
w
1
+ +
k
w
k
+
1
v
1
+ +
r
v
r
y como w
i
ker (T) para todo i obtenemos
y = T (x) = T (
1
w
1
+ +
k
w
k
+
1
v
1
+ +
r
v
r
)
=
1
T (w
1
) + +
k
T (w
k
) +
1
T (v
1
) + +
r
T (v
r
)
=
1
T (v
1
) + +
r
T (v
r
)
Esto prueba que T (v
1
) , . . . , T (v
r
) generan a Im(T). Por otro lado, si
1
, . . . ,
r
son escalares tales que

1
T (v
1
) + +
r
T (v
r
) = 0
62 CAP

ITULO 3. TRANSFORMACIONES LINEALES


entonces
0 =
1
T (v
1
) + +
r
T (v
r
) = T (
1
v
1
+ +
r
v
r
)
En particular,
1
v
1
+ +
r
v
r
ker (T) y as, existen escalares
1
, . . . ,
k
tales
que

1
v
1
+ +
r
v
r
=
1
w
1
+ +
k
w
k
o equivalentemente,

1
w
1
+ +
k
w
k

1
v
1

r
v
r
= 0
Pero w
1
, . . . , w
k
, v
1
, . . . , v
r
es una base de V , por lo tanto,
1
= =
k
=

1
= =
r
= 0. En consecuencia, T (v
1
) , . . . , T (v
r
) son vectores linealmente
independientes.
En particular, si A /
mn
(F) y
A
L(F
n
, F
m
) es la transformacion
lineal inducida por A, entonces
dim(F
n
) = dim(ker (
A
)) + dim(Im(
A
))
o, equivalentemente,
n = nul (A) +rgo (A)
Este es el teorema de la dimension para matrices (Teorema 2.7.8).
Una consecuencia inmediata del teorema anterior es la siguiente.
Corolario 3.2.7 Sean V y W espacios de dimension nita tales que dim(V ) =
dim(W) y T L(V, W). Entonces T es inyectiva si, y solo si, T es sobreyectiva.
Demostracion. Por el Teorema 3.2.6 sabemos que
dim(V ) = dim[ker (T)] + dim[Im(T)]
Si T es inyectiva entonces ker (T) = 0 y as, dim(W) = dim(V ) = dim[Im(T)].
Se sigue del Teorema 2.6.9 que Im(T) = W. Recprocamente, si Im(T) = W
entonces dim[ker (T)] = 0 y, por lo tanto, ker (T) = 0. Esto prueba que T es
inyectiva.
EJERCICIOS
1. Sea T : R
3
R
3
denida por T
_
_
x
y
z
_
_
=
_
_
x y + 2z
2x +y
x 2y + 2z
_
_
. Encuentre
una base para ker (T) y Im(T).
2. Describa explcitamente un operador lineal de R
3
en R
3
que tenga como
imagen al subespacio generado por (1, 0, 1)

y (1, 2, 2)

.
3. Sea M =
_
1 2
0 3
_
y considere el operador lineal T : /
2
(R) /
2
(R)
denida por T (A) = AM MA, para todo A /
2
(R). Encuentre una
base del n ucleo de T.
3.3. ISOMORFISMOS 63
4. Sean A, B /
n
(F). Demuestre que si AB = I
n
entonces BA = I
n
.
5. Sea T : V W una transformacion lineal y S un subespacio de V .
Demuestre (a) Si dim(S) = 1 entonces T (S) es un punto o una recta; (b)
Si dim(S) = 2 entonces T (S) es un plano, una recta o un punto.
6. Sea T : V W una transformacion lineal y S un subespacio de V .
Demuestre (a) Si S es un recta arbitraria de V entonces T (S) es una
recta o un punto; (b) Si S es un plano arbitrario de V entonces T (S) es
un plano, una recta o un punto.
7. Sea T : V W una transformacion lineal. Demuestre que si dim(V ) >
dim(W) entonces T no es inyectiva.
8. Sea V el subespacio de T (R, R) formado por las funciones que tienen
derivadas de todos los ordenes y sea D
n
: V V el operador derivada
n-esima. Cual es el n ucleo de D
n
?
9. Cual es la dimension del espacio S = A /
n
(F) : Tr (A) = 0?
10. Demuestre que la funcion P : /
n
(F) /
n
(F) denida por P (A) =
1
2
_
A+A

_
es un operador lineal. Ademas, ker (P) consiste en el espacio
de las matrices antisimetricas y Im(P) el espacio de las matrices simetri-
cas. Cual es la dimension del espacio de las matrices antisimetricas? En-
cuentre una base para el espacio de las matrices antisimetricas.
11. Suponga que U, W son subespacios de V .
a) Demuestre que la funcion T : U W V , denida por T (u, w) =
u w, es una transformacion lineal.
b) Demuestre que dim(U +W) = dim(U) + dim(W) dim(U W).
3.3. Isomorsmos
Denicion 3.3.1 Un isomorsmo de V a W es una transformacion lineal T :
V W biyectiva. Si existe un isomorsmo de V a W decimos que V es isomorfo
a W y escribimos V

= W.
Dos espacios isomorfos son esencialmente los mismos, lo unico que cambia
es la naturaleza de sus elementos.
Ejemplo 3.3.2 Presentamos algunos ejemplos de isomorsmos.
1. A /
n
(F) es invertible si, y solo si,
A
: F
n
F
n
es un isomorsmo.
Esto se sigue del Corolario 3.2.7 y el Teorema 2.7.12.
64 CAP

ITULO 3. TRANSFORMACIONES LINEALES


2. Sea F0 el subespacio de F
2
denido como
F0 = (x, 0) : x F
Entonces : F F0 denido por (x) = (x, 0) es un isomorsmo.
Supongamos que x, y F y , F. Entonces
(x +y) = (x +y, 0) = (x, 0) + (y, 0)
= (x) +(y)
As, es una transformacion lineal. Adem as, se verica facilmente que
es biyectiva.
Si T L(V, W) es un isomorsmo entonces, en particular, existe la funcion
inversa T
1
: W V tal que
TT
1
= I
W
y T
1
T = I
V
Teorema 3.3.3 Si T L(V, W) es un isomorsmo entonces T
1
L(W, V )
es un isomorsmo.
Demostracion. Sabemos que T
1
es biyectiva. Sean w, z W y , F.
Como T es sobreyectiva, w = T (x) y z = T (y), donde x, y V. Luego,
T
1
(w +z) = T
1
(T (x) +T (y)) = T
1
(T (x +y))
= x +y = T
1
(w) +T
1
(z)
Como consecuencia de este resultado tenemos que la relacion

= es
simetrica: si V es isomorfo a W entonces W es isomorfo a V . Por lo tanto,
a partir de ahora decimos simplemente que los espacios V y W son isomorfos.
Tambien es reexiva porque la I
V
es un isomorsmo para cualquier espacio V , y
transitiva por el Teorema 3.1.9. Deducimos que la relacion

= es una relacion
de equivalencia sobre el conjunto de los espacios vectoriales sobre F.
Teorema 3.3.4 Sean S L(V, W) y T L(U, V ) isomorsmos. Entonces
1.
_
T
1
_
1
= T;
2. ST es un isomorsmo y (ST)
1
= T
1
S
1
;
Demostracion. Probamos 2.
(ST)
_
T
1
S
1
_
= S
_
TT
1
_
S
1
= SI
V
S
1
= I
W
_
T
1
S
1
_
(ST) = T
1
_
S
1
S
_
T = T
1
I
V
T = I
U
Luego (TS)
1
=
_
S
1
T
1
_
.
Los conceptos de independencia, generacion y bases pasan a traves del iso-
morsmo de un espacio a otro.
3.3. ISOMORFISMOS 65
Teorema 3.3.5 Supongamos que T L(V, W) es un isomorsmo y X un
subconjunto de V . Entonces:
1. X es linealmente independiente si, y solo si, T (X) es linealmente independiente;
2. X genera a V si, y solo si, T (X) genera a W;
3. X es una base de V si, y solo si, T (X) es una base de W.
Demostracion. 1. Supongamos que X es un conjunto linealmente indepen-
diente y
n

i=1

i
T (x
i
) = 0, donde los
i
F y los x
i
X. Como T es lineal
entonces T
_
n

i=1

i
x
i
_
= 0 y en consecuencia,
n

i=1

i
x
i
ker (T) = 0 porque
T es inyectiva. Esto implica que
i
= 0 para todo i. Recprocamente, supong-
amos que T (X) es linealmente independiente. Sean
1
, . . . ,
k
escalares tales
que
n

i=1

i
x
i
= 0 para ciertos x
i
X. Entonces 0 = T
_
n

i=1

i
x
i
_
=
n

i=1

i
T (x
i
)
y as,
i
= 0 para todo i.
2. Supongamos que X genera a V y sea w W. Entonces existe v V tal que
T (v) = w porque T es sobreyectiva. Sean
1
, . . . ,
r
escalares y x
1
, . . . , x
r
X
tales que v =
r

i=1

i
x
i
. Luego
w = T (v) = T
_
r

i=1

i
x
i
_
=
r

i=1

i
T (x
i
)
Esto prueba que T (X) genera a W. Recprocamente, supongamos que T (X)
genera a W y sea x V . Entonces
T (x) =
r

i=1

i
T (x
i
) = T
_
r

i=1

i
x
i
_
para ciertos x
i
X y escalares
i
F. Se sigue por la inyectividad de T que
x =
r

i=1

i
x
i
. As, X genera a V.
3. Es consecuencia inmediata de las partes 1 y 2.
Corolario 3.3.6 Sean V y W espacios vectoriales de dimension nita sobre F.
Entonces V

= W si, y solo si, dim(V ) = dim(W).
Demostracion. Si V

= W existe un isomorsmo T L(V, W). Si X es una
base de V entonces sabemos por el teorema anterior que T (X) es una base de
W. Como T es biyectiva, T (X) tiene exactamente el mismo n umero de vectores
que X. Por lo tanto, dim(V ) = dim(W).
Recprocamente, sean v
1
, . . . , v
n
y w
1
, . . . , w
n
bases de V y W, respecti-
vamente. Consideremos la ( unica) transformacion lineal T L(V, W) dada
66 CAP

ITULO 3. TRANSFORMACIONES LINEALES


por el Teorema 3.1.5 tal que T (v
i
) = w
i
. Entonces T es sobreyectiva porque
W = gen(w
1
, . . . , w
n
) Im(T). El resultado se sigue ahora del Teorema 3.2.7.
Se desprende del corolario anterior que un espacio vectorial V de dimension
n es isomorfo al espacio F
n
. De hecho, si B = v
1
, . . . , v
n
es una base de V
entonces para v V existen escalares unicos
1
, . . . ,
n
tales que v =
n

i=1

i
v
i
.
Denamos [v]
B
= (
1
, . . . ,
n
)

.
Denicion 3.3.7 Sea V un espacio vectorial y B una base de V . Para cada
v V , el vector [v]
B
se llama el vector de coordenadas de v con respecto a la
base B.
Teorema 3.3.8 Sea V un espacio vectorial de dimension n y B una base de V .
Entonces la funcion []
B
: V F
n
denida por v [v]
B
es un isomorsmo.
Demostracion. Sea B = v
1
, . . . , v
n
una base de V , x, y V y , F.
Entonces
x =
1
v
1
+ +
n
v
n
y
y =
1
v
1
+ +
n
v
n
donde
i
,
i
F para todo i = 1, . . . , n. As
x +y = (
1
+
1
) v
1
+ + (
n
+
n
) v
n
Luego,
[x +y]
B
= (
1
+
1
, . . . ,
n
+
n
)

= (
1
, . . . ,
n
)

+ (
1
, . . . ,
n
)

= (
1
, . . . ,
n
)

+ (
1
, . . . ,
n
)

= [x]
B
+ [y]
B
As tenemos una transformacion lineal. La biyectividad la dejamos como ejerci-
cio para el lector.
EJERCICIOS
1. Sea S L
_
R
2
_
denida por S
_
x
y
_
=
_
2x +y
3x 5y
_
. Demuestre que S
es invertible.
2. Sea T L
_
R
3
_
denida por T
_
_
x
y
z
_
_
=
_
_
3x
x y
2x +y +z
_
_
. Es T invert-
ible? De serlo, encuentre T
1
.
3. Sea S L(V ) tal que S
r
= 0. Demuestre que I S es invertible.
3.4. MATRIZ ASOCIADA A UNA TRANSFORMACI

ON LINEAL 67
4. Suponga que m > n y sean T L(R
m
, R
n
) y U L(R
n
, R
m
). Demuestre
que UT no es invertible.
5. Sea T L(V ), donde V es un espacio vectorial de dimension nita. Supon-
ga que existe U L(V ) tal que TU = I. Demuestre que T es invertible
y T
1
= U. Por medio de un ejemplo, demuestre que el resultado no es
cierto si V no tiene dimension nita.
6. Suponga que el espacio vectorial V es suma directa de los subespacios U
y W. Demuestre que V es isomorfo al espacio producto directo U W.
7. Sean V y W espacios vectoriales y sea U L(V, W) un isomorsmo.
Demuestre que T UTU
1
es un isomorsmo de L(V ) en L(W).
3.4. Matriz asociada a una transformacion lineal
En esta seccion demostramos que si V y W son espacios vectoriales de di-
mension n y m, respectivamente, entonces L(V, W)

= /
mn
(F).
Teorema 3.4.1 Sean V y W espacios vectoriales sobre F de dimension nita.
Supongamos que B es una base de V y ( es una base W. Para cada T L(V, W)
existe una unica matriz A /
mn
(F) tal que
[T (v)]
c
= A[v]
B
(3.1)
para todo v V .
Demostracion. Supongamos que B = v
1
, . . . , v
n
es una base de V . De-
namos la matriz A /
mn
(F) que tiene columna i a [T (v
i
)]
c
, para todo
i = 1, . . . , n. Sea v V y supongamos que [v]
B
= (
1
, . . . ,
n
)

. Entonces
[T (v)]
c
=
_
T
_
n

i=1

i
v
i
__
c
=
_
n

i=1

i
T (v
i
)
_
c
=
n

i=1

i
[T (v
i
)]
c
=
n

i=1

i
Ae
i
= A
n

i=1

i
e
i
= A[v]
B
Supongamos que B /
mn
(F) satisface
[T (v)]
c
= B[v]
B
para todo v V . En particular, Ae
i
= A[v
i
]
B
= B[v
i
]
B
= Be
i
para todo
i = 1, . . . , n, lo que indica que A y B tienen todas las columnas iguales.
Denicion 3.4.2 La matriz A que asociamos a la transformacion lineal T
L(V, W) en el Teorema 3.4.1 se llama la matriz de T respecto a las bases B y
(. La denotamos por A = [T]
Bc
.
68 CAP

ITULO 3. TRANSFORMACIONES LINEALES


Ejemplo 3.4.3 Sea T : R
2
R
2
el operador lineal denido por
T
_
x
y
_
=
_
x +y
2x 5y
_
Vamos a calcular la matriz [T]
BB
donde B =
__
1
1
_
,
_
0
2
__
. Para esto
calculamos
T
_
1
1
_
=
_
2
3
_
= 2
_
1
1
_
+
_

5
2
__
0
2
_
Por otra parte,
T
_
0
2
_
=
_
2
10
_
= 2
_
1
1
_
+ (6)
_
0
2
_
En consecuencia,
[T]
BB
=
_
2 2

5
2
6
_
Ejemplo 3.4.4 Sea V = p (x) F[x] : grado de p (x) 2. Consideremos las
bases B =
_
1, x 1, x
2
x
_
y B
t
=
_
3, x, x
2
1
_
de V y la transformacion
lineal D : V V denida por D(p (x)) = p
t
(x), la derivada de p (x). Vamos a
construir la matriz [D]
BB
.
D(1) = 0 = 0 (3) + 0 (x) + 0
_
x
2
1
_
D(x 1) = 1 =
1
3
(3) + 0 (x) + 0
_
x
2
1
_
D
_
x
2
x
_
= 2x 1 =
1
3
(3) + 2 (x) + 0
_
x
2
1
_
En consecuencia,
[D]
BB
=
_
_
0
1
3

1
3
0 0 2
0 0 0
_
_
Teorema 3.4.5 Sea V y W espacios vectoriales sobre F de dimension nita.
Supongamos que B es una base de V y ( es una base W. La funcion que asigna
a cada transformacion lineal T L(V, W) su matriz respecto a B y ( es un
isomorsmo entre los espacios vectoriales L(V, W) y /
mn
(F).
Demostracion. Sean S, T L(V, W) y F. Entonces la columna i de la
matriz asociada a S +T es
[(S +T) (v
i
)]
c
= [S (v
i
) +T (v
i
)]
c
= [S (v
i
)]
c
+ [T (v
i
)]
c
y la columna i de la matriz asociada a S es
[(S) (v
i
)]
c
= [S (v
i
)]
c
= [S (v
i
)]
c
3.4. MATRIZ ASOCIADA A UNA TRANSFORMACI

ON LINEAL 69
Luego [S +T]
Bc
= [S]
Bc
+[T]
Bc
y [S]
Bc
= [S]
Bc
. Esto prueba que la funcion
denida por T [T]
Bc
es lineal. Ademas, es biyectiva. En efecto, supongamos
que B = v
1
, . . . , v
n
y ( = w
1
, . . . , w
m
. Si T L(V, W) y [T]
Bc
= 0 entonces,
por 3.1, [T (v)]
c
= 0 para todo v V . Esto implica que T = 0 y, por lo
tanto, la funcion es inyectiva. Para ver la sobreyectividad sea M /
mn
(F)
y supongamos que Me
i
= (x
1i
, . . . , x
mi
)

para cada i = 1, . . . , n. Denamos


Q : V W por Q(v
i
) = x
i1
w
1
+ +x
im
w
m
y extendamos linealmente a todo
V . Entonces Q L(V, W) y [Qv
i
]
c
= Me
i
para todo i = 1, . . . , n. Por lo tanto,
[Q]
Bc
= M. Esto termina la prueba.
La matriz asociada a una composicion de transformaciones lineales es el
producto de las matrices asociadas a cada una de las transformaciones lineales.
Teorema 3.4.6 Sea T L(V, W) y S L(W, Z). Supongamos que B, ( y T
son bases de V, W y Z, respectivamente. Entonces
[ST]
B1
= [S]
c1
[T]
Bc
Demostracion. Por la relacion (3.1),
[Sw]
1
= [S]
c1
[w]
c
para todo w W y
[T (v)]
c
= [T]
Bc
[v]
B
para todo v V . Luego, para v V tenemos que
[(ST) (v)]
1
= [S (T (v))]
1
= [S]
c1
[T (v)]
c
= [S]
B1
[T]
Bc
[v]
B
Por la unicidad, [ST]
B1
= [S]
c1
[T]
Bc
.
EJERCICIOS
1. Sea T : C
2
C
2
el operador lineal denido por T
_
x
y
_
=
_
0
y
_
.
Considere la base B =
__
i
1
_
,
_
2
i
__
de C
2
y c la base canonica de
C
2
. Calcule [T]
BL
, [T]
LB
, [T]
LL
y [T]
BB
.
2. Sea T : R
3
R
2
el operador lineal denido por T
_
_
x
y
z
_
_
=
_
x +z
2y x
_
.
Considere la base B =
_
_
_
_
_
1
0
1
_
_
,
_
_
1
1
1
_
_
,
_
_
1
0
0
_
_
_
_
_
de R
3
y las bases
canonicas c y c
t
de R
3
y R
2
respectivamente. Calcule [T]
BL
y [T]
LL
.
70 CAP

ITULO 3. TRANSFORMACIONES LINEALES


3. Sea T L
_
R
3
_
cuya matriz en la base canonica es
A =
_
_
2 3 1
3 0 2
1 2 1
_
_
Encuentre una base de Im(T) y una base de ker (T).
4. Sea M =
_
1 2
3 4
_
y T L(/
2
(R)) denida por T (A) = MA, para
todo A /
2
(R). Si B = I
11
, I
12
, I
21
, I
22
es la base canonica de /
2
(R)
encuentre [T]
BB
.
5. Demuestre que dimIm(T) = rgo (A) y dimker (T) = nul (A), donde T
L(V ) y A = [T]
BB
para una base arbitraria B de V .
6. Demuestre que la funcion denida por A
A
es un isomorsmo entre
los espacios vectoriales /
n
(F) y L(F
n
).
3.5. Cambio de base y semejanza de matrices
Un caso particular del Teorema 3.4.5 ocurre cuando consideramos operadores
lineales sobre V . Si B es una base de V y T L(V ) entonces la matriz [T]
BB
la
denotamos por [T]
B
y la funcion L(V ) /
n
(F) denida por T [T]
B
es un
isomorsmo. Surge de forma natural la siguiente pregunta: si ( es otra base de
V que relacion existe entre [T]
B
y [T]
c
? Para responder a esta pregunta anal-
icemos primero que ocurre con las coordenadas de un vector cuando cambiamos
la base.
Teorema 3.5.1 Sean B = v
1
, . . . , v
n
y ( = w
1
, . . . , w
n
bases de V . La
matriz P /
n
(F) que tiene como columna i al vector columna [v
i
]
c
es una
matriz invertible que satisface
[v]
c
= P [v]
B
para todo v V . Ademas, P es unica con esta propiedad.
Demostracion. Sea v V . Entonces existen escalares
1
, . . . ,
n
tales que
v =
n

i=1

i
v
i
. Luego,
[v]
c
=
_
n

i=1

i
v
i
_
c
=
n

i=1

i
[v
i
]
c
=
n

i=1

i
Pe
i
= P
n

i=1

i
e
i
= P [v]
B
Veamos que P es invertible. Sea Q la matriz que tiene columna i al vector [w
i
]
B
.
Entonces por lo anterior P [w
i
]
B
= [w
i
]
c
= e
i
para todo i = 1, . . . , n. Esto es,
PQ = I. Finalmente, supongamos que R /
n
(F) satisface
[v]
c
= R[v]
B
3.5. CAMBIO DE BASE Y SEMEJANZA DE MATRICES 71
para todo v V . Entonces, en particular,
Pe
i
= P [v
i
]
B
= R[v
i
]
B
= Re
i
para todo i y as, P = R.
Denicion 3.5.2 Sean B y ( bases de un espacio vectorial V . La matriz P del
teorema anterior recibe el nombre de matriz cambio de base de B a (.
Ejemplo 3.5.3 Consideremos las bases
c =
__
1
0
_
,
_
0
1
__
y B =
__
1
1
_
,
_
0
2
__
de R
2
. Entonces para determinar las columnas de la matriz cambio de base de
c a B calculamos:
_
1
0
_
= 1
_
1
1
_
+
_

1
2
__
0
2
_
Luego,
__
1
0
__
B
=
_
1

1
2
_
. Analogamente,
_
0
1
_
= 0
_
1
1
_
+
1
2
_
0
2
_
As,
__
0
1
__
B
=
_
0
1
2
_
. En consecuencia, la matriz cambio de base de c a B
es
P =
_
1 0

1
2
1
2
_
Teorema 3.5.4 Sea V un espacio vectorial de dimension nita y T L(V ).
Supongamos que B y ( son bases de un espacio vectorial V . Entonces
[T]
B
= P
1
[T]
c
P
donde P es la matriz cambio de base de B a (.
Demostracion. Por el Teorema 3.5.1 sabemos que
[v]
c
= P [v]
B
para todo v V , donde P es la matriz cambio de base de B a (. En particular,
[T (v)]
c
= P [T (v)]
B
Por otra parte, se sigue de (3.1) que
[T (v)]
c
= [T]
c
[v]
c
72 CAP

ITULO 3. TRANSFORMACIONES LINEALES


para todo v V y, en consecuencia,
_
P
1
[T]
c
P
_
[v]
B
= P
1
[T]
c
[v]
c
= P
1
[T (v)]
c
= P
1
P [T (v)]
B
= [T (v)]
B
para todo v V . Por la unicidad del Teorema 3.4.1 concluimos que
P
1
[T]
c
P = [T]
B
Este resultado nos lleva a la siguiente denicion.
Denicion 3.5.5 Sean A, B /
n
(F). Decimos que A es semejante a B si
existe una matriz invertible Q /
n
(F) tal que B = Q
1
AQ.
La relacion de semejanza es una relacion de equivalencia sobre el espacio
/
n
(F) (ver Ejercicio 5) y, por lo tanto, divide a /
n
(F) en clases de equivalen-
cia disjuntas. Lo esencial de esta relacion es que matrices en una misma clase
de equivalencia comparten muchas propiedades importantes, como veremos en
secciones posteriores.
Se concluye del teorema anterior que las matrices asociadas a un operador
lineal con respecto a bases diferentes son matrices semejantes. El recproco tam-
bien es cierto, es decir, si A, B /
n
(F) son semejantes entonces A, B son
matrices asociadas a un operador lineal T L(V ) con respecto a dos bases de
V . Ese es nuestro proximo resultado.
Teorema 3.5.6 Supongamos que A, B /
n
(F) son semejantes. Entonces ex-
isten bases B y ( de un espacio vectorial V de dimension nita y T L(V )
tales que [T]
B
= A y [T]
c
= B.
Demostracion. Sea V un espacio vectorial de dimension n y B una base de
V . Por el Teorema 3.4.5, existe T L(V ) tal que [T]
B
= A. Sea Q /
n
(F)
una matriz invertible tal que B = Q
1
AQ. Veamos que es posible construir
una base ( de V tal que la matriz cambio de base de B a ( es P = Q
1
. En tal
caso obtenemos que
[T]
c
= P [T]
B
P
1
= Q
1
AQ = B
Recordando que [] : V F
n
es un isomorsmo, consideremos la base ( =
v
1
, . . . , v
n
de V determinada por la relacion
[v
i
]
B
= Qe
i
para todo i = 1, . . . , n. Entonces
Q
1
[v
i
]
B
= e
i
= [v
i
]
c
para todo i y, en consecuencia, Q
1
[v]
B
= [v]
c
para todo v V . Como P es
unica tal que
P [v]
B
= [v]
c
3.5. CAMBIO DE BASE Y SEMEJANZA DE MATRICES 73
para todo v V , concluimos que P = Q
1
.
En resumen, concluimos que las diferentes representaciones de un operador
lineal T L(V ) forman una de las clases de equivalencias determinadas por la
relacion de semejanza sobre /
n
(F).
EJERCICIOS
1. Dada T L
_
R
2
_
denida por T
_
x
y
_
=
_
4x y
2x +y
_
y las bases de R
2
c =
__
1
0
_
,
_
0
1
__
y B =
__
1
3
_
,
_
2
5
__
a) Encuentre la matriz cambio de base P de c a B, la matriz cambio de
base Q de B a c y compruebe que Q = P
1
.
b) Encuentre [T]
L
, [T]
B
y compruebe que
[T]
B
= Q
1
[T]
L
Q
donde Q es la matriz cambio de base de B a c.
2. Sea S L
_
R
3
_
denida por S
_
_
x
y
z
_
_
=
_
_
2y +z
x 4y
3x
_
_
y considere las
bases de R
3
c =
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
y B =
_
_
_
_
_
1
1
1
_
_
,
_
_
1
1
0
_
_
,
_
_
1
0
0
_
_
_
_
_
a) Encuentre la matriz cambio de base P de c a B, la matriz cambio de
base Q de B a c y compruebe que Q = P
1
.
b) Encuentre [T]
L
, [T]
B
y compruebe que
[T]
B
= Q
1
[T]
L
Q
donde Q es la matriz cambio de base de B a c.
3. Considere las bases B = 1, i y ( = 1 +i, 1 + 2i del espacio vectorial
C sobre R.
a) Encuentre las matrices cambio de base P y Q de B a ( y de ( a B,
respectivamente;
b) Compruebe que Q = P
1
;
c) Demuestre que [T]
B
= P
1
[T]
c
P, donde T es el operador lineal
T : C C denido por T (z) = z.
74 CAP

ITULO 3. TRANSFORMACIONES LINEALES


4. Sea V un espacio vectorial con bases B a c. Si P es la matriz cambio de
base de c a B y Q es la matriz cambio de base de B a c demuestre que
Q = P
1
.
5. Demuestre que la relacion de semejanza de matrices es una relacion de
equivalencia.
6. Demuestre que matrices semejante tienen la misma traza.
Captulo 4
Espacios con producto
interno
4.1. Producto interno
Es nuestro interes ahora extender la geometra basica de los espacios R
2
y
R
3
a espacio vectoriales de dimension nita. En lo que sigue, V es un espacio
vectorial de dimension nita sobre F, donde F = R o F = C.
Denicion 4.1.1 Un producto interno sobre V es una funcion que asigna a
cada par ordenado x, y V un elemento x, y) F que satisface las siguientes
condiciones:
1. x, y) = y, x) para todo x, y V ;
2. x +y, z) = x, z) +y, z) para todo x, y, z V ;
3. x, y) = x, y) para todo F y x, y V ;
4. x, x) 0. Ademas, x, x) = 0 si, y solo si, x = 0.
Un espacio vectorial V junto con un producto interno denido sobre V se
llama un espacio con producto interno.
La condicion 4 de la denicion de producto interno establece que x, x) es
un n umero real no-negativo, aun en el caso que F = C. Por otra parte, las
condiciones 2 y 3 establecen linealidad en la primera componente. En relacion
a la segunda componente tenemos que para todo x, y, z V y , F
x, y +z) = y +z, x) = y, x) +z, x) = x, y) +x, z)
Veamos algunos ejemplos importantes de espacios con producto interno.
Ejemplo 4.1.2 Los siguientes espacios vectoriales son espacios con producto
interno:
75
76 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


a El espacio F
n
con el producto interno
(x
1
, . . . , x
n
) , (y
1
, . . . , y
n
)) =
n

i=1
x
i
y
i
donde (x
1
, . . . , x
n
) , (y
1
, . . . , y
n
) F
n
. Este producto interno recibe el nom-
bre de producto interno canonico de F
n
.
b El espacio S = f T ([a, b] , R) : f es continua con el producto interno
f, g) =
b
_
a
f (x) g (x) dx
donde f, g S.
c El espacio /
mn
(F) con el producto interno
A, B) = Tr (AB

)
donde A, B /
mn
(F) .
d Sea
S = (x
n
) Suc (F) : x
n
= 0 para todo n excepto un n umero nito .
Es facil ver que S es un espacio con producto interno
(x
n
) , (y
n
)) =

i=1
x
i
y
i
En un espacio con producto interno es posible denir los conceptos de norma,
ortogonalidad y proyecciones de la misma manera como se realiza en los espacios
conocidos R
2
y R
3
.
Denicion 4.1.3 Sea V un espacio con producto interno. La norma de un
vector v V , denotado por |v|, esta denida como
|v| =
_
v, v)
Teorema 4.1.4 Sea V un espacio con producto interno. Si x, y V y F
entonces
1. |x| 0. Ademas, |x| = 0 si, y solo si, x = 0;
2. |x| = [[ |x|.
Demostracion. Probamos 2. Si x V y F entonces
|x|
2
= x, x) = x, x) = [[
2
x, x)
Ahora tomamos raz cuadrada en ambos miembros de la igualdad.
4.1. PRODUCTO INTERNO 77
Denicion 4.1.5 Sea V un espacio con producto interno. Los vectores x, y V
son ortogonales si x, y) = 0.
En la denicion anterior no importa el orden de los vectores porque x, y) = 0
si, y solo si, y, x) = 0, tomando en cuenta que x, y) = y, x). El vector 0 es
ortogonal a todo vector v V :
0, v) = 0 + 0, v) = 0, v) +0, v)
Por lo tanto, 0, v) = 0 para todo v V . De hecho, es el unico con esta propiedad
(ver Ejercicio 9).
Teorema 4.1.6 (Teorema de Pitagoras) Sea V un espacio con producto inter-
no. Si x, y V son ortogonales entonces
|x +y|
2
= |x|
2
+|y|
2
Demostracion. Si x, y V son ortogonales entonces x, y) = 0. Luego
|x +y|
2
= x +y, x +y)
= |x|
2
+x, y) +y, x) +|y|
2
= |x|
2
+|y|
2
Consideramos ahora el concepto de proyeccion de un vector sobre otro en
un espacio con producto interno V .
Teorema 4.1.7 Sean x, y V y y ,= 0. Existe un unico vector p V que es un
m ultiplo escalar de y y que es ortogonal a x p (ver Figura *).
Demostracion. Sea p =
x,y)
|y|
2
y. Entonces
x p, p) = x, p) |p|
2
=
x, y)
2
|y|
2

x, y)
2
|y|
2
= 0.
Para ver la unicidad, supongamos que y es ortogonal a x y. Entonces
0 = x y, y) = x, y) |y|
2
, de donde deducimos que =
x,y)
|y|
2
y, en
consecuencia, y = p.
Figura *
Denicion 4.1.8 Sea V un espacio con producto interno, x, y V y y ,= 0.
El vector p =
x,y)
|y|
2
y recibe el nombre de proyeccion de x sobre y. El escalar
x,y)
|y|
2
se llama el coeciente de Fourier de x con respecto a y.
78 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


Teorema 4.1.9 (Desigualdad de Cauchy-Schwarz) Sea V un espacio con pro-
ducto interno. Si x, y V entonces
[x, y)[ |x| |y| . (4.1)
La igualdad se satisface si, y solo si, uno de los vectores x, y es un m ultiplo
escalar del otro.
Demostracion. Si y = 0 entonces ambos lados de la desigualdad (4.1)
son iguales a 0. As suponemos que y ,= 0. Sea p la proyeccion de x sobre y.
Entonces x = p +(x p) donde p y xp son ortogonales. Se sigue del Teorema
de Pitagoras que
|x|
2
= |p|
2
+|x p|
2
|p|
2
=
_
_
_
_
_
x, y)
|y|
2
y
_
_
_
_
_
2
=
[x, y)[
2
|y|
4
|y|
2
=
[x, y)[
2
|y|
2
(4.2)
Multiplicando ambos lados de la desigualdad por |y|
2
y luego tomando raz
cuadrada se obtiene la desigualdad de Cauchy-Schwarz.
Para ver la segunda parte, notamos que (4.1) es una igualdad si, y solo si
(4.2) es una igualdad. Esto ocurre si, y solo si |x p| = 0, o equivalentemente,
x es un m ultiplo escalar de y.
Aplicando la desigualdad de Cauchy-Schwarz a los espacios con producto
interno del Ejemplo 4.1.2 obtenemos
1.

i=1
x
i
y
i

_
n

i=1
[x
i
[
2
_1
2
_
n

i=1
[y
i
[
2
_1
2
, para todo x
i
, y
i
F, i = 1, . . . , n;
2.

b
_
a
f (x) g (x) dx


_
b
_
a
[f (x)]
2
dx
_1
2
_
b
_
a
[g (x)]
2
dx
_1
2
, para toda las fun-
ciones continuas f, g T ([a, b] , R) ;
3. [Tr (AB

)[ [Tr (AA

)]
1
2
[Tr (BB

)]
1
2
, para todas las matrices A, B
/
n
(F) ;
4.

i=1
x
i
y
i

i=1
[x
i
[
2
_1
2
_

i=1
[y
i
[
2
_1
2
, para todas las sucesiones (x
n
) , (y
n
)
Suc (F) tales que x
n
= 0 y y
n
= 0 para todo n excepto un n umero nito.
Teorema 4.1.10 (Desigualdad triangular) Sea V un espacio con producto in-
terno. Si x, y V entonces |x +y| |x| + |y|. La igualdad se cumple si, y
solo si, uno de los vectores x, y es un m ultiplo no negativo del otro.
4.1. PRODUCTO INTERNO 79
Demostracion. Si x, y V entonces se sigue de la desigualdad de Cauchy-
Schwarz que
|x +y|
2
= x +y, x +y)
= |x|
2
+x, y) +y, x) +|y|
2
= |x|
2
+x, y) +x, y) +|y|
2
= |x|
2
+ 2Re x, y) +|y|
2
|x|
2
+ 2 [x, y)[ +|y|
2
|x|
2
+ 2 |x| |y| +|y|
2
= (|x| +|y|)
2
Tomando raz cuadrada ambos lados obtenemos la desigualdad triangular.
La igualdad ocurre si y solo si
|x|
2
+ 2 x, y) +|y|
2
= |x|
2
+ 2 |x| |y| +|y|
2
o equivalentemente, x, y) = |x| |y|. El resultado se sigue del teorema anterior.
EJERCICIOS
1. Compruebe que los espacios vectoriales dados en el Ejemplo 4.1.2 son
espacios con producto interno.
2. Considere el espacio C
4
con el producto interno canonico y los vectores
x = (1 +i, 3i, 3 2i, 5) y y = (3, 4 i, 0, 2i). Calcule x, y) , |x| y |y|.
3. Considere el espacio /
23
(R) con el producto interno
A, B) = Tr
_
B

A
_
donde A, B /
23
(R) . Sean
A =
_
3 2 5
1 2 3
_
, B =
_
1 0 1
4 2 3
_
y C =
_
2 2 2
3 5 7
_
Calcule 2A+ 3B, 4C) , |A| y |B|.
4. Demuestre que si x = (x
1
, x
2
) y y = (y
1
, y
2
) son elementos de R
2
entonces
x, y) = x
1
y
1
x
1
y
2
x
2
y
1
+ 3x
2
y
2
dene un producto interno sobre R
2
.
5. Demuestre que si V es un espacio sobre R con producto interno entonces
para todo x, y V
x, y) =
1
4
_
|x +y|
2
|x y|
2
_
80 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


6. Demuestre que si V es un espacio sobre C con producto interno entonces
para todo x, y V
x, y) =
1
4
_
|x +y|
2
|x y|
2
_
+
i
4
_
|x +iy|
2
|x iy|
2
_
7. Sea V un espacio sobre R con producto interno. Demuestre que dados
x, y V
a) |x| = |y| si, y solo si, x +y, x y) = 0;
b) |x +y|
2
= |x|
2
+|y|
2
si, y solo si, x, y) = 0.
Demuestre, por medio de contraejemplos, que las armaciones ante-
riores no son ciertas para C
2
.
8. En el espacio C
2
con producto interno canonico calcule el coeciente de
Fourier y la proyeccion de (3 + 4i, 2 3i) sobre (5 +i, 2i).
9. Sea V un espacio con producto interno. Demuestre que si u, v) = 0 para
todo v V entonces u = 0.
10. Sea V un espacio con producto interno y x, y V . Demuestre que x = y
si, y solo si, x, z) = y, z) para todo z V .
11. Sea V un espacio vectorial con producto interno y B = v
1
, . . . , v
n
una
base de V . Demuestre que si
1
, . . . ,
n
son escalares de F entonces existe
un unico v V tal que v, v
j
) =
j
para todo j = 1, . . . , n.
12. Sea V un espacio vectorial sobre F con producto interno. Demuestre la ley
del paralelogramo:
|x +y|
2
+|x y|
2
= 2 |x|
2
+ 2 |y|
2
13. Sea V un espacio con producto interno. Denimos la distancia entre los
vectores x y y en V por
d (x, y) = |x y|
Demuestre que
a) d (x, y) 0;
b) d (x, y) = 0 si, y solo si, x = y;
c) d (x, y) = d (y, x) ;
d) d (x, y) d (x, z) +d (z, y).
14. Sean v
1
, . . . , v
n
vectores mutuamente ortogonales y tales que |v
i
| ,= 0. Sea
v V y
i
el coeciente de Fourier de v con respecto a v
i
. Demuestre que
a) v

i
v
i
es ortogonal a cada uno de los v
i
;
b) |v

i
v
i
| |v

i
v
i
| para todo
i
F.
4.2. BASES ORTONORMALES 81
4.2. Bases ortonormales
Si V es un espacio vectorial y v
1
, . . . , v
n
es una base de V entonces para cada
vector v V existen escalares unicos
1
, . . . ,
n
tales que
v =
1
v
1
+ +
n
v
n
El procedimiento para calcular los escalares resulta en general complicado. Por
ejemplo, si los vectores v
1
, . . . , v
n
forman una base de R
n
entonces debemos
resolver la ecuacion Ax = v, donde A es la matriz (invertible) cuya columna
j es el vector v
j
. La solucion de esta ecuacion viene dada por x = A
1
v, por
lo tanto, debemos calcular la inversa de la matriz A de tama no n n. En esta
seccion construimos bases para espacios con producto interno que, entre otras
cosas, facilitan este calculo.
Denicion 4.2.1 Sea V un espacio con producto interno. Un conjunto de vec-
tores v
1
, . . . , v
k
de V es ortogonal si v
i
, v
j
) = 0 para todo i ,= j. Si ademas cada
uno de los vectores tiene norma 1 entonces los vectores v
1
, . . . , v
k
son ortonor-
males.
Ejemplo 4.2.2 Los siguientes conjuntos de vectores son ortonormales en el
espacio indicado:
1. Los vectores e
1
, . . . , e
n
de F
n
con el producto interno usual;
2. Las funciones
1

2
,
senx

,
sen2x

,
cosx

,
cos2x

son ortonormales en el espacio


S = f T ([0, 2] , R) : f es continua
con el producto interno
f, g) =
2
_
0
f (x) g (x) dx
3. Las matrices simetricas I
11
, . . . , I
nn
con el producto interno dado por la
traza.
Teorema 4.2.3 Sea V un espacio vectorial con producto interno y u
1
, . . . , u
k
un conjunto de vectores ortogonales diferentes de cero de V . Entonces los vec-
tores u
1
, . . . , u
k
son linealmente independientes.
Demostracion. Supongamos que

1
u
1
+ +
k
u
k
= 0
donde
1
, . . . ,
k
pertenecen a F. Entonces para cada j = 1, . . . , k tenemos que
0 = 0, u
j
) =
1
u
1
+ +
k
u
k
, u
j
)
=
1
u
1
, u
j
) + +
k
u
k
, u
j
) =
j
u
j
, u
j
)
82 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


Como u
j
,= 0 se sigue que u
j
, u
j
) > 0 y, en consecuencia,
j
= 0 para todo
j = 1, . . . , k.
En el siguiente resultado presentamos un metodo facil para encontrar las
coordenadas de un vector que se escribe como combinacion lineal de vectores en
un conjunto ortonormal.
Teorema 4.2.4 Sea V un espacio con producto interno. Si v V es una com-
binacion lineal de los vectores ortonormales u
1
, . . . , u
k
entonces
1. v = v, u
1
) u
1
+ +v, u
k
) u
k
;
2. |v|
2
= [v, u
1
)[
2
+ +[v, u
k
)[
2
.
Demostracion. Sea v V y supongamos que existen escalares
1
, ..,
k
pertenecientes a F tales que
v =
1
u
1
+ +
k
u
k
Tomando el producto interno ambos lados con u
j
obtenemos
v, u
j
) =
1
u
1
+ +
k
u
k
, u
j
) =
j
u
j
, u
j
) =
j
Ademas, por el Teorema de Pitagoras,
|v|
2
= |
1
u
1
+ +
k
u
k
|
2
= |
1
u
1
|
2
+ +|
k
u
k
|
2
= [
1
[
2
|u
1
|
2
+ +[
k
[
2
|u
k
|
2
= [
1
[
2
+ +[
k
[
2
= [v, u
1
)[
2
+ +[v, u
k
)[
2
La pregunta que nos planteamos ahora es Cuando existen bases ortonor-
males en espacios con producto interno? El siguiente teorema es crucial en este
sentido porque produce un algoritmo que permite convertir vectores linealmente
independiente en vectores ortonormales que generan exactamente el mismo sube-
spacio.
Teorema 4.2.5 (Gram-Schmidt) Sean v
1
, . . . , v
k
vectores linealmente indepen-
dientes en un espacio con producto interno V . Entonces existen vectores u
1
, . . . , u
k
ortonormales de V tales que gen(v
1
, . . . , v
k
) = gen(u
1
, . . . , u
k
).
Demostracion. La prueba es por induccion sobre k. Si k = 1 entonces
v
1
,= 0 y tomamos u
1
=
v
1
|v
1
|
. Supongamos que el resultado es cierto para k 1.
Sean v
1
, . . . , v
k
, v
k+1
vectores linealmente independientes. Como v
1
, . . . , v
k
son
vectores linealmente independientes, existen vectores u
1
, . . . , u
k
ortonormales
de V tales que gen(v
1
, . . . , v
k
) = gen(u
1
, . . . , u
k
). Consideremos el vector de
norma 1
u
k+1
=
v
k+1
v
k+1
, u
1
) u
1
v
k+1
, u
k
) u
k
|v
k+1
v
k+1
, u
1
) u
1
v
k+1
, u
k
) u
k
|
4.2. BASES ORTONORMALES 83
En primer lugar notamos que el denominador de esta expresion es diferente de
cero, de lo contrario, v
k+1
gen(u
1
, . . . , u
k
) = gen(v
1
, . . . , v
k
) pero esto no
es posible por la independencia lineal de los vectores v
1
, . . . , v
k
, v
k+1
. Por otra
parte, para cada j = 1, . . . , k
u
k+1
, u
j
) =
_
v
k+1
v
k+1
, u
1
) u
1
v
k+1
, u
k
) u
k
|v
k+1
v
k+1
, u
1
) u
1
v
k+1
, u
k
) u
k
|
, u
j
_
=
v
k+1
, u
j
) v
k+1
, u
j
)
|v
k+1
v
k+1
, u
1
) u
1
v
k+1
, u
k
) u
k
|
= 0
lo que prueba que los vectores u
1
, . . . , u
k+1
son ortonormales. Ademas, v
k+1

gen(u
1
, . . . , u
k+1
) y, por lo tanto,
gen(v
1
, . . . , v
k+1
) gen(u
1
, . . . , u
k+1
)
Esto junto con el hecho que
dim[gen(v
1
, . . . , v
k+1
)] = dim[gen(u
1
, . . . , u
k+1
)]
nos lleva a la conclusion que
gen(v
1
, . . . , v
k+1
) = gen(u
1
, . . . , u
k+1
)
Corolario 4.2.6 Si V es un espacio vectorial de dimension nita con producto
interno entonces V tiene una base ortonormal.
Demostracion. Seleccionamos una base v
1
, . . . , v
k
de V . Por el teorema
anterior, existen vectores ortonormales u
1
, . . . , u
k
tales que
gen(u
1
, . . . , u
k
) = gen(v
1
, . . . , v
k
) = V
Se sigue del Teorema 4.2.3 que u
1
, . . . , u
k
es una base ortonormal de V .
Ejemplo 4.2.7 Aplicamos el proceso de Gram-Schmidt a la base
_
1, x, x
2
_
del
espacio de polinomios de grado 2 con coecientes reales y el producto interno
p, q) =
1
_
0
p (x) q (x) dx
84 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


para obtener la base ortonormal
u
1
= 1
u
2
=
x
1
_
0
xdx
_
_
_
_
x
1
_
0
xdx
_
_
_
_
=
x
1
2
_
_
x
1
2
_
_
= 2

3
_
x
1
2
_
u
3
=
x
2

1
_
0
x
2
dx 12
_
x
1
2
_
1
_
0
x
2
_
x
1
2
_
dx
_
_
_
_
x
2

1
_
0
x
2
dx 24
_
x
1
2
_
1
_
0
x
2
_
x
1
2
_
dx
_
_
_
_
=
x
2
x +
1
6
_
_
x
2
x +
1
6
_
_
= 6

5
_
x
2
x +
1
6
_
Denicion 4.2.8 Sea V un espacio con producto interno. Si S es un subconjun-
to de V entonces el complemento ortogonal de S, denotado por S

, lo denimos
como
S

= v V : v, s) = 0 para todo s S
Es un ejercicio facil demostrar que para cualquier subconjunto S de V , el
complemento ortogonal S

es un subespacio de V .
Ejemplo 4.2.9 En R
2
con el producto interno usual, el complemento ortogonal
de la recta gen(u), donde 0 ,= u R
2
, es la recta gen(v), donde v es un vector
de R
2
diferente de cero tal que u, v) = 0.
Teorema 4.2.10 Sea V un espacio de dimension nita con producto interno.
Si U es un subespacio de V entonces V = U U

.
Demostracion. Sea u
1
, . . . , u
k
una base ortonormal de U. Para cada v V
denamos el elemento
v = v, u
1
) u
1
+ +v, u
k
) u
k
U
Entonces v = v + (v v). Ademas, para cada i = 1, . . . , k
v v, u
i
) = v, u
i
) v, u
i
)
= v, u
i
) v, u
1
) u
1
+ +v, u
k
) u
k
, u
i
)
= v, u
i
) v, u
i
) = 0
En consecuencia, v v U

. Por otra parte, si x U U

entonces 0 = x, x)
y, por lo tanto, x = 0. Esto prueba que U U

= 0 y el resultado sigue del


Teorema 2.4.14.
EJERCICIOS
4.3. OPERADORES LINEALES 85
1. Encuentre una base ortonormal para el subespacio W de R
4
generado por
los vectores
(1, 1, 1, 1) , (1, 1, 2, 4) , (1, 2, 4, 3)
2. Considerando a C
3
con el producto interno canonico, encuentre una base
ortonormal para el subespacio generado por (1, 0, i) y (2, 1, 1 +i).
3. Encuentre una base ortonormal para el espacio de soluciones del sistema
homogeneo
3x 2y +w +z = 0
x +y + 2z = 0
4. Sea V = f (x) R[x] : grado de f (x) es menor o igual a 3 con el pro-
ducto interno
f, g) =
1
_
0
f (x) g (x) dx
a) Halle el complemento ortogonal del subespacio W de V formado por
polinomios de grado 0;
b) Aplique el proceso de Gram-Schmidt a la base
_
1, x, x
2
, x
3
_
.
5. Considere el espacio /
n
(C) con el producto interno
A, B) = Tr (AB

)
Halle el complemento ortogonal del subespacio W de /
n
(C) formado por
las matrices diagonales.
6. Sea V un espacio con producto interno y B = v
1
, . . . , v
n
una base
ortonormal de V . Demuestre que para vectores x, y V
x, y) =
n

k=1
x, v
k
) y, v
k
)
4.3. Operadores lineales
Comenzamos esta seccion introduciendo el concepto de adjunto de un op-
erador lineal sobre un espacio con producto interno. Dado T L(V ), para
abreviar escribimos Tx en lugar de T (x), donde x V .
Lema 4.3.1 Sea V un espacio con producto interno y B = v
1
, . . . , v
n
una
base ortonormal de V . Si T L(V ) y A = [T]
B
entonces para todo 1 i, j n
[A]
ij
= Tv
j
, v
i
)
86 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


Demostracion. Por la parte 1 del Teorema 4.2.4, Tv
j
= Tv
j
, v
1
) v
1
+ +
Tv
j
, v
n
) v
n
. Luego,
A
j
= [Tv
j
]
B
= (Tv
j
, v
1
) , . . . , Tv
j
, v
n
))

As, [A]
ij
= Tv
j
, v
i
).
Teorema 4.3.2 Sea V un espacio con producto interno de dimension nita y
T L(V ). Entonces existe un unico operador lineal T

L(V ) que satisface


Tx, y) = x, T

y)
para todo x, y V . Ademas, para cualquier base ortonormal B de V se cumple
[T

]
B
= [T]

B
Demostracion. Sea B = v
1
, . . . , v
n
una base ortonormal de V y A = [T]
B
.
Por el Teorema 3.4.5, existe T

L(V ) tal que [T

]
B
= A

. Se sigue del teorema


anterior que
[A]
ij
= Tv
j
, v
i
) y [A

]
ij
= T

v
j
, v
i
)
Luego, para todo 1 i, j n
v
i
, T

v
j
) = T

v
j
, v
i
) = [A

]
ij
= [A]
ji
= [A]
ji
= Tv
i
, v
j
)
Se deduce de aqu que Tx, y) = x, T

y) para todo x, y V .
Supongamos que R L(V ) satisface Tx, y) = x, Ry) para todo x, y V .
En particular,
Rv
j
, v
i
) = v
i
, Rv
j
) = Tv
i
, v
j
) = v
j
, Tv
i
) = T

v
j
, v
i
)
Luego [R]
B
= [T

]
B
y, en consecuencia, R = T

.
Denicion 4.3.3 El operador lineal T

L(V ) del teorema anterior recibe el


nombre de operador adjunto de T.
Ejemplo 4.3.4 Encontremos el adjunto del operador lineal T : C
3
C
3
denido
por
T
_
_
x
y
z
_
_
=
_
_
2x + (1 i) y
(3 + 2i) x 4iz
2ix + (4 3i) y 3z
_
_
Si c es la base canonica de C
3
entonces
[T]
L
=
_
_
2 1 i 0
3 + 2i 0 4i
2i 4 3i 3
_
_
y [T]

L
=
_
_
2 3 2i 2i
1 +i 0 4 + 3i
0 4i 3
_
_
Por lo tanto, T

: C
3
C
3
esta denido por
T

_
_
x
y
z
_
_
=
_
_
2x + (3 2i) y 2iz
(1 +i) x + (4 + 3i) z
4iy 3z
_
_
4.3. OPERADORES LINEALES 87
El siguiente teorema contiene las propiedades basicas del adjunto de un op-
erador lineal.
Teorema 4.3.5 Sean R, S operadores lineales sobre el espacio con producto
interno V de dimension nita. Entonces
1. (R +S)

= R

+S

;
2. (R)

= R

;
3. (RS)

= S

;
4. (R

= R;
5. Si R es un isomorsmo entonces
_
R
1
_

= (R

)
1
.
Demostracion. Probamos 1. Sean x, y V . Entonces
(R +S) x, y) = Rx +Sx, y) = Rx, y) +Sx, y) = x, R

y) +x, S

y)
= x, R

y +S

y) = x, (R

+S

) y)
Por lo tanto, (R +S)

= R

+S

.
Sabemos que si B y ( son bases del espacio vectorial V y T L(V ) entonces
existe una matriz invertible P, la matriz cambio de base de B a (, tal que
[T]
B
= P
1
[T]
c
P
Esto nos llevo a considerar la relacion de semejanza sobre /
n
(F) :
A es semejante a B B = P
1
AP
donde P /
n
(F) es una matriz invertible. Veamos ahora que ocurre si suponemos
ademas que B y ( son bases ortonormales de un espacio con producto interior
V . Si B = v
1
, . . . , v
n
entonces recordamos que la columna j de P viene dada
por [v
j
]
c
, la coordenada de v
j
con respecto a la base (. Esto es,
[v
j
]
c
= (v
j
, w
1
) , . . . , v
j
, w
n
))

donde ( =w
1
, . . . , w
n
. Luego, la la i de P

es
_
v
i
, w
1
), . . . , v
i
, w
n
)
_
y, por
lo tanto,
[P

P]
ij
= v
i
, w
1
) v
j
, w
1
) + +v
i
, w
n
) v
j
, w
n
)
= v
j
, v
i
, w
1
) w
1
) + +w
j
, w
i
, w
n
) w
n
)
= v
j
, v
i
, w
1
) w
1
+ +v
i
, w
n
) w
n
)
= v
j
, v
i
) =
_
0 si i ,= j
1 si i = j

En consecuencia, P

P = I
n
.
88 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


Denicion 4.3.6 Una matriz U /
n
(F) es unitaria si U

U = I
n
. Si U

U =
I
n
decimos que U es ortogonal.
Es claro que si U /
n
(R) entonces U

= U

y as, matrices unitarias y


ortogonales coinciden.
Teorema 4.3.7 Sea U /
n
(F). Las siguientes condiciones son equivalentes:
1. U es unitaria ;
2. U es invertible y U
1
= U

;
3. U

es unitaria;
4. Las columnas de U forman una base ortonormal de F
n
;
5. Las las de U forman una base ortonormal de F
n
;
Demostracion. 1 2. Si U es unitaria entonces U

U = I
n
. Luego, por el
Ejercicio 4, UU

= I
n
. En consecuencia, U y U

son invertibles y U

= U
1
.
2 1. Es claro.
1 3. Esto es consecuencia de U

= U y la equivalencia U

U = I
UU

= I.
1 4. El elemento ij de la matriz U

U es
[U

U]
ij
= (U

)
i
(U)
j
=
_
U
_
i
(U)
j
Por lo tanto, U

U = I si, y solo si,


_
U
_
i
(U)
j
=
ij
, donde
ij
es el delta de
Kronecker.
3 5 Es similar.
Tenemos tambien una version de este teorema para matrices reales ortogo-
nales, sustituyendo unitaria por ortogonal, U

por U

y F
n
por R
n
.
Como vimos antes, si B y ( son bases ortonormales de V y T L(V )
entonces
[T]
B
= P

[T]
c
P
donde P es una matriz unitaria. Esto sugiere introducir una nueva relacion de
equivalencia sobre /
n
(F).
Denicion 4.3.8 Sean A, B /
n
(F). Decimos que la matriz A es unitaria-
mente equivalente a la matriz B si existe una matriz unitaria U /
n
(F) tal
que B = U

AU. Decimos que A es ortogonalmente equivalente a B si existe


una matriz O ortogonal tal que B = O

AO.
Por el teorema anterior y el hecho que producto de matrices unitarias (resp.
ortogonales) es unitaria (resp. ortogonal) (ver Ejercicio 6), se deduce que las
equivalencias unitaria y ortogonal son relaciones de equivalencia.
Probamos que las matrices asociadas a un operador lineal con respecto a
dos bases ortonormales son unitariamente equivalentes. El recproco tambien es
cierto, como vemos en nuestro proximo resultado.
4.3. OPERADORES LINEALES 89
Teorema 4.3.9 Sean A, B /
n
(F). Las matrices A y B son unitariamente
equivalentes si, y solo si, A y B son matrices asociadas a un operador lineal de
L(V ) con respecto a dos bases ortonormales de V .
Demostracion. Una de las implicaciones ya fue probada. Supongamos que
U es una matriz unitaria y B = U

AU. Sea B = v
1
, . . . , v
n
una base ortonor-
mal de un espacio vectorial V y T L(V ) tal que [T]
B
= A. Por el Teorema
3.5.6, la base ( = w
1
, . . . , w
n
que satisface
[w
i
]
B
= Ue
i
para cada i = 1, . . . n, cumple con [T]
c
= B. Solo debemos probar que ( es una
base ortonormal de V . Para cada i tenemos que
w
i
= u
1i
v
1
+u
2i
v
2
+ +u
ni
v
n
donde Ue
i
= (u
1i
, u
2i
, . . . , u
ni
)

es la columna i de la matriz unitaria U. Luego,


al ser B una base ortonormal de V se sigue que
w
i
, w
j
) =
_
n

k=1
u
ki
v
k
,
n

l=1
u
lj
v
l
_
=
n

r=1
u
ri
u
rj
= U
i
, U
j
)
Como U es unitaria, se deduce del Teorema 4.3.7 que U
1
, . . . , U
n
es una
base ortonormal de F
n
. En consecuencia, ( es una base ortonormal de V .
El resultado para equivalencia ortogonal es similar.
Teorema 4.3.10 Sean A, B /
n
(R). Las matrices A y B son ortogonal-
mente equivalentes si, y solo si, A y B son matrices asociadas a un operador
lineal real de L(V ) con respecto a dos bases ortonormales de R
n
.
Demostracion. Dejamos la prueba al lector.
Denicion 4.3.11 Sea T L(V ). Decimos que T es unitario si TT

= T

T =
I
V
.
Probamos en nuestro proximo resultado que en el isomorsmo L(V )
/
n
(F) denido por T [T]
B
, los operadores unitarios se corresponden con las
matrices unitarias.
Teorema 4.3.12 Sea T L(V ) y B una base ortonormal de V . T es unitario
si, y solo si, [T]
B
es unitaria.
Demostracion. Si T es unitario entonces TT

= T

T = I
V
. Luego, por el
Teorema 4.3.2,
[T]
B
[T]

B
= [T]
B
[T

]
B
= [TT

]
B
= [I
V
]
B
= I
Luego, [T]
B
es unitaria. Recprocamente, supongamos que [T]
B
es una matriz
unitaria. Entonces de nuevo usando el Teorema 4.3.2 obtenemos
[TT

]
B
= [T]
B
[T

]
B
= [T]
B
[T]

B
= I = [I
V
]
B
En consecuencia, TT

= I
V
y as, T es un operador unitario.
Finalizamos esta seccion con una caracterizacion de los operadores unitarios.
90 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


Teorema 4.3.13 Sea V un espacio con producto interno de dimension nita y
T L(V ). Las siguientes condiciones son equivalentes:
1. T es un operador unitario;
2. T enva bases ortonormales en bases ortonormales;
3. |Tx| = |x| para todo x V ;
4. Tx, Ty) = x, y) para todo x, y V .
Demostracion. 1 2 Primero que todo observamos que si T es unitario
entonces T es inyectiva. En efecto, si Tx = 0 entonces x, x) = Tx, Tx) = 0 lo
que implica x = 0. Se sigue del Corolario 3.2.7 que T es un isomorsmo. Luego,
si B = v
1
, . . . , v
n
es una base ortonormal de V entonces por el Teorema 3.3.5,
Tv
1
, . . . , Tv
n
es una base de V . Falta ver que es ortonormal. Pero esto se sigue
del hecho de que T es unitario: para todo i, j tenemos
Tv
i
, Tv
j
) = v
i
, T

Tv
j
) = v
i
, v
j
) =
ij
2 3 Supongamos que v
1
, . . . , v
n
y Tv
1
, . . . , Tv
n
son bases ortonor-
males de V . Entonces para todo i, j
v
i
, v
j
) =
ij
= Tv
i
, Tv
j
)
Luego, si x V entonces x =

i
v
i
y as
Tx, Tx) =
_

i
Tv
i
,

j
Tv
j
_
=

i
= x, x)
3 4 Sean x, y V . Entonces
T (x +y) , T (x +y)) = x +y, x +y)
lo que implica
Tx, Ty) +Tx, Ty) = x, y) +x, y)
De aqu se deduce que Re (Tx, Ty)) = Re (x, y)). Por otra parte,
T (x +iy) , T (x +iy)) = x +iy, x +iy)
Luego,
i Tx, Ty) +iTx, Ty) = i x, y) +ix, y)
y, en consecuencia,
Im(Tx, Ty)) = Im(x, y))
4 1 Sea x V . Entonces para todo y V tenemos
T

Tx x, y) = T

Tx, y) x, y) = Tx, Ty) x, y)


= x, y) x, y) = 0
4.3. OPERADORES LINEALES 91
Por lo tanto, T

Tx = x.
Se desprende de este teorema que un operador unitario T preserva las dis-
tancias:
|Tx Ty| = |x y|
para todo x, y V . Por esta razon, T se tambien recibe el nombre de isometra.
EJERCICIOS
1. Encuentre la matriz cambio de base de
(1, 0, 0) , (0, 1, 0) , (0, 0, 1) a
__
i

2
, 0,
1

2
_
, (0, 1, 0) , (0, 0, i)
_
en C
3
. Verique que la matriz obtenida es unitaria.
2. Encuentre el adjunto de cada uno de los operadores lineales siguientes:
a) S : R
3
R
3
denido por S
_
_
x
y
z
_
_
=
_
_
3x + 4y 5z
2x 6y + 7z
5x 9y +z
_
_
;
b) T : C
3
C
3
denido por T
_
_
x
y
z
_
_
=
_
_
2x + (1 i) y
(3 + 2i) x 4iz
2ix + (4 3i) y 3z
_
_
.
3. Sea V = f (x) R[x] : grado de f (x) es menor o igual a 3 con el pro-
ducto interno
f, g) =
1
_
0
f (x) g (x) dx
Encuentre el adjunto del operador derivacion D.
4. Sea V = /
n
(C) con el producto interno A, B) = Tr (AB

). Sea P una
matriz invertible en V y sea
P
: V V denido por
P
(A) = P
1
AP.
Encuentre el adjunto de
P
.
5. Sea V = /
n
(C) con el producto interno A, B) = Tr (AB

). Para cada
M en V , sea
M
: V V denida por
M
(A) = MA. Demuestre que

M
es unitario si, y solo si, M es una matriz unitaria.
6. Suponga que A, B /
n
(C) son unitarias. Demuestre que A
1
y AB son
unitarias. Similarmente para matrices ortogonales.
7. Demuestre que T L
_
R
2
_
es unitario si, y solo si, T es una rotacion o una
reexion sobre el eje x seguida de una rotacion. (Sugerencia: si e
1
, e
2
es la
base canonica de R
2
entonces u
1
= Te
1
, u
2
= Te
2
es una base ortonormal
de R
2
. Existe 0 2 tal que u
1
=
_
cos
sen
_
. Como u
2
es ortogonal
a u
1
entonces u
2
=
_
cos
_


2
_
sen
_


2
_
_
).
92 CAP

ITULO 4. ESPACIOS CON PRODUCTO INTERNO


8. Demuestre que si T

T = 0 entonces T = 0.
9. Sea T L(V ) y suponga que W es un subespacio de V tal que T (W)
W. Demuestre que T

_
W

_
W

.
10. Sea T un operador unitario sobre V y W un subespacio de V tal que
T (W) W. Demuestre que T
_
W

_
W

.
11. Sea V un espacio con producto interno de dimension nita. Demuestre
que
Im(T

) = (kerT)

En particular, rgo (T) = rgo (T

).
12. Demuestre que las relaciones equivalencia unitaria y ortogonal son rela-
ciones de equivalencia.
Captulo 5
Determinantes
5.1. Permutaciones
Vamos a comenzar con una breve introduccion a las permutaciones que nece-
sitamos para desarrollar el tema de los determinantes.
Denicion 5.1.1 Una permutacion de 1, . . . , n es una biyeccion
: 1, . . . , n 1, . . . , n
Usualmente la denotamos por
_
1 2 n
(1) (2) (n)
_
o simplemente por (1) (n)
El conjunto de las permutaciones de 1, . . . , n lo denotamos por S
n
.
El n umero de permutaciones en S
n
es n! (ver Ejercicio 1).
Ejemplo 5.1.2 Las permutaciones de S
2
son 12 y 21. En S
3
hay 6 permuta-
ciones:
123, 132, 231, 213, 312 y 321
Si S
n
entonces la funcion inversa la denotamos por
1
, de manera que

1
=
1
= , donde = 1 n es la permutacion identidad. Claramente

1
S
n
y =
_

1
_
1
. Por otra parte, la composicion de permutaciones es
tambien una permutacion. Es decir, si , S
n
entonces S
n
.
Ejemplo 5.1.3 Consideremos las permutaciones = 13524 y = 12543 de
S
5
. Entonces

1
= 14253 y = 13425
Teorema 5.1.4 Las siguientes condiciones se cumplen:
93
94 CAP

ITULO 5. DETERMINANTES
1. La funcion : S
n
S
n
denida por () =
1
es biyectiva;
2. Fijada la permutacion S
n
, la funcion : S
n
S
n
denida por
() = es biyectiva.
Demostracion. 1. Si , S
n
y () = () entonces
1
=
1
. Luego,
=
_

1
_
1
=
_

1
_
1
=
Esto prueba que es inyectiva. Por otra parte, dada S
n
entonces
1
S
n
y
_

1
_
=
_

1
_
1
= , lo que prueba la sobreyectividad.
2. Supongamos que () = (), donde , S
n
. Entonces = .
Componiendo con
1
ambos lados de esta ecuacion obtenemos

1
=
1

y, por lo tanto, = . Para ver la sobreyectividad notamos que dada la per-


mutacion S
n
se tiene que
1
S
n
y
_

_
=
_

_
= . Esto
termina la prueba.
Denicion 5.1.5 Una inversion de una permutacion S
n
es un par (j, k)
tal que 1 j < k n y (j) > (k). El signo de S
n
se dene como
sgn() = (1)
m
, donde m es el n umero de inversiones de .
En otras palabras, el signo de una permutacion S
n
es 1 cuando tiene un
n umero par de inversiones y 1 cuando tiene un n umero impar de inversiones.
Ejemplo 5.1.6 Consideremos la permutacion 142365 S
6
. Entonces las in-
versiones de esta son
(2, 3) , (2, 4) , (5, 6)
y, en consecuencia, sgn(142365) = 1.
Ejemplo 5.1.7 Fijemos 1 i < j n y denamos la permutacion S
n
como (i) = j, (j) = i y (k) = k para todo k 1, . . . , n tal que k ,= i y
k ,= j. Esto es,
= 1 (i 1) (j) (i + 1) (j 1) (i) (j + 1) n
Entonces las inversiones de son:
(i, i + 1) , (i, i + 2) , . . . , (i, j)
y
(i + 1, j) , (i + 2, j) , . . . , (j 1, j)
En la primera lista aparecen j i inversiones y en la segunda lista j i 1.
Por lo tanto, sgn() = (1)
2(ji)1
= 1.
5.1. PERMUTACIONES 95
La permutacion denida en el Ejemplo 5.1.7 recibe el nombre de trasposicion.
Es claro que si = (1) (n) S
n
y es la trasposicion que mueve a i, j
entonces es la permutacion que se obtiene a partir de intercambiando las
posiciones i y j. Luego, existen trasposiciones
1
, . . . ,
m
tales que

1

m
=
Desde luego, m no es unico: hay varias maneras de transformar una permutacion
en la identidad intercambiando dos posiciones en cada paso. Por ejemplo,
= 1423
24
1324
23
1234 =
o bien
= 1423
34
1432
23
1342
24
1243
34
1234 =
Sin embargo, probamos en el siguiente resultado que hay unicidad en la paridad
de m.
Teorema 5.1.8 Las siguientes condiciones se cumplen:
1. sgn() = sgn() sgn() para todo , S
n
;
2. sgn() = sgn
_

1
_
para todo S
n
.
3. Si S
n
y
1
, . . . ,
m
son trasposiciones tales que
1

m
= entonces
sgn() = 1 m es par
sgn() = 1 m es impar
Demostracion. 1. Consideremos el polinomio p = p (x
1
, . . . , x
n
) =

i<j
(x
i
x
j
)
y sea S
n
. Denamos (p) =

i<j
_
x
(i)
x
(j)
_
. Como es biyectiva en-
tonces vamos a tener (p) = p o (p) = p. De hecho, (p) = p si, y solo si,
hay un n umero par de terminos en (p) de la forma (x
r
x
s
) tales que r > s.
Es decir, existen un n umero par de (i, j) tales que i < j, (i) = r > s = (j).
Este es precisamente el n umero total de inversiones de . As hemos probado
que para cada S
n
(p) = sgn() p
Ahora sean , S
n
. Entonces
sgn() p = (p) = [ (p)] = [sgn() p]
= sgn() sgn() p
Esto implica que sgn() = sgn() sgn().
2. Por una parte sabemos que sgn() = (1)
0
= 1. Luego, si S
n
entonces
=
1
y, por la parte anterior,
1 = sgn() = sgn
_

1
_
= sgn() sgn
_

1
_
96 CAP

ITULO 5. DETERMINANTES
Esto prueba que sgn() = sgn
_

1
_
.
3. Por la parte 1. y el Ejemplo 5.1.7,
1 = sgn() = sgn(
1

m
) = sgn() sgn(
1
) sgn(
m
) = (1)
m
sgn()
EJERCICIOS
1. Demuestre que el n umero de permutaciones en S
n
es n!.
2. Determine el signo de las siguientes permutaciones de S
6
:
a) = 421635
b) = 124653
3. Para las permutaciones dadas en el Ejercicio 2, encuentre sgn() , sgn()
y sgn
_

1
_
.
5.2. Determinantes
En esta seccion introducimos la nocion de determinante de una matriz y
desarrollamos algunas de sus propiedades basicas.
Denicion 5.2.1 El determinante de una matriz A /
n
(F), donde [A]
ij
=
a
ij
, se dene como
[A[ =

Sn
sgn() a
1(1)
a
2(2)
a
n(n)
Observamos que cada uno de los sumandos a
1(1)
a
2(2)
a
n(n)
(sin tomar
en cuenta el signo) que aparece en el determinante de A es el producto de n
elementos de A, tomando uno y solo uno de cada la y columna de A.
Ejemplo 5.2.2 Sea A /
2
(F) con elementos [A]
ij
= a
ij
, para todo 1
i, j 2. Entonces S
2
= 12, 21, donde sgn(12) = 1 y sgn(21) = 1 y, en
consecuencia,
[A[ = a
11
a
22
a
12
a
21
En particular,

2 3
1 4

= 2 4 (3) (1) = 11.


Ejemplo 5.2.3 Sea A /
3
(F) con elementos [A]
ij
= a
ij
, para todo 1 i, j
3. Entonces
S
3
= 123, 231, 312, 321, 213, 132
donde
sgn(123) = sgn(231) = sgn(312) = 1
5.2. DETERMINANTES 97
y
sgn(321) = sgn(213) = sgn(132) = 1
Por lo tanto,
[A[ = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
13
a
22
a
31
a
12
a
21
a
33
a
11
a
23
a
32
Por ejemplo,

3 1 2
1 0 2
0 1 1

= (3 0 1) + (1 2 0) + (2 (1) 1)
(2 0 0) (1 (1) (1)) (3 2 1)
= 2 1 6 = 9
Comenzamos estudiando algunas propiedades basicas del determinante.
Teorema 5.2.4 Sea A /
n
(F). Entonces [A[ =

.
Demostracion. Para cada S
n
tenemos que
a
(1)1
a
(n)n
= a
1
1
(1)
a
n
1
(n)
Ademas, por el Teorema 5.1.8, sgn() = sgn
_

1
_
. Luego, si
_
A

ij
= b
ij
entonces

S
n
sgn() b
1(1)
b
2(2)
b
n(n)
=

S
n
sgn() a
(1)1
a
(2)2
a
(n)n
=

Sn
sgn
_

1
_
a
1
1
(1)
a
n
1
(n)
= [A[
La ultima igualdad ocurre porque, en virtud del Teorema 5.1.4, cuando recorre
a S
n
tambien lo hace
1
.
Ejemplo 5.2.5 En el ejemplo anterior probamos que para la matriz A =
_
_
3 1 2
1 0 2
0 1 1
_
_
se tiene que [A[ = 9. Por otro lado, la traspuesta de A es A

=
_
_
3 1 0
1 0 1
2 2 1
_
_
y

= (3 0 (1)) + ((1) 1 2) + (0 1 2)
(0 0 2) ((1) 1 (1)) (3 1 2)
= 9
En el proximo resultado estudiamos el comportamiento del determinante
cuando efectuamos operaciones elementales a una matriz.
98 CAP

ITULO 5. DETERMINANTES
Teorema 5.2.6 Sea A /
n
(F). Entonces se cumplen las siguientes condi-
ciones:
1. Si B se obtiene a partir de A intercambiando dos las (o columnas) en-
tonces [B[ = [A[ ;
2. Si A tiene dos las (o columnas) iguales entonces [A[ = 0.
3. Si B se obtiene a partir de A multiplicando una la (o columna) de A por
F entonces [B[ = [A[ ;
4. Si B se obtiene a partir de A al sumar un m ultiplo escalar de la la i
(columna i) a la la j (a la columna j), donde i ,= j, entonces [B[ = [A[ ;
Demostracion. 1. Supongamos que B es la matriz que se obtiene al inter-
cambiar la columna i con la columna j de A. Consideremos la trasposicion
tal que (i) = j y (j) = i. Entonces, por el Ejemplo 5.1.7, sgn() = 1 y
ademas, por el Teorema 5.1.8, para todo S
n
sgn() = sgn() sgn() = sgn()
Por lo tanto, si [B]
ij
= b
ij
entonces
[B[ =

Sn
sgn() b
1(1)
b
2(2)
b
n(n)
=

Sn
sgn() a
1(1)
a
2(2)
a
n(n)
=

S
n
sgn() a
1(1)
a
2(2)
a
n(n)
= [A[ .
La ultima igualdad es por el Teorema 5.1.4 que nos asegura que cuando recorre
todo S
n
tambien lo hace . Aplicando el Teorema 5.2.4 obtenemos la version
para las.
2. Supongamos que la columna i y la columna j (i ,= j) de A son iguales.
Entonces la matriz que se obtiene al intercambiar la columna i y la columna j
es de nuevo la matriz A. Se sigue de la primera parte que [A[ = [A[ y, por lo
tanto, [A[ = 0. De nuevo, por el Teorema 5.2.4 obtenemos la version para las.
Las partes 3. y 4. son consecuencia del siguiente hecho:

A
1
.
.
.
A
j1
X +Y
A
j+1
.
.
.
A
n

A
1
.
.
.
A
j1
X
A
j+1
.
.
.
A
n

A
1
.
.
.
A
j1
Y
A
j+1
.
.
.
A
n

(5.1)
5.2. DETERMINANTES 99
donde A
i
= (a
i1
, . . . , a
in
), X = (x
j1
, . . . , x
jn
) y Y = (y
j1
, . . . , y
jn
). En efecto,
el determinante en la izquierda es igual a

Sn
sgn() a
1(1)
a
j1(j1)
_
x
j(j)
+y
j(j)
_
a
j+1(j+1)
a
n(n)
=

S
n
sgn() a
1(1)
a
j1(j1)
x
j(j)
a
j+1(j+1)
a
n(n)
+

S
n
sgn() a
1(1)
a
j1(j1)
y
j(j)
a
j+1(j+1)
a
n(n)
Ahora tenemos una tecnica para calcular el determinante de una matriz:
efectuamos una sucesion nita de operaciones elementales hasta llegar a una
matriz triangular. Luego aplicamos el siguiente resultado:
Teorema 5.2.7 Si A es una matriz triangular entonces [A[ = [A]
11
[A]
nn
.
Demostracion. Supongamos que A es una matriz triangular inferior, es
decir, a
kl
= 0 siempre que k < l. Sea S
n
y supongamos que (1) ,= 1.
Entonces 1 < (1) y, en consecuencia, a
1(1)
= 0. Luego, los terminos de la
forma sgn() a
1(1)
a
2(2)
a
n(n)
son cero para las permutaciones S
n
tales que (1) ,= 1. Consideremos las permutaciones que tienen (1) = 1. Si
(2) ,= 2 entonces 2 < (2) y as a
2(2)
= 0. Luego, los terminos
sgn() a
1(1)
a
2(2)
a
n(n)
son ceros cuando (1) = 1 y (2) ,= 2. Tomamos la permutaciones que satis-
facen (1) = 1 y (2) = 2 .... Continuando de esta manera es claro que el unico
posible sumando distinto de cero ocurre cuando es la identidad. Por lo tanto,
[A[ = [A]
11
[A]
nn
.
Ejemplo 5.2.8 Consideremos la matriz A =
_
_
1 3 2
2 8 3
1 7 1
_
_
. Entonces
_
_
1 3 -2
2 8 -3
1 7 1
_
_
E
21
(-2)

_
_
1 3 -2
0 2 1
1 7 1
_
_
E
31
(-1)

_
_
1 3 -2
0 2 1
0 4 3
_
_
E
32
(-2)

_
_
1 3 -2
0 2 1
0 0 1
_
_
Luego, usando los Teoremas 5.2.6 y 5.2.7 obtenemos

1 3 2
2 8 3
1 7 1

= 1 2 1 = 2
EJERCICIOS
100 CAP

ITULO 5. DETERMINANTES
1. Use el Teorema 5.2.6 para calcular el determinante de la matrices A y B
dadas a continuacion:
A =
_
_
1 3 2
4 2 3
0 2 1
_
_
y B =
_
_
_
_
1 2 3 4
2 3 4 1
3 4 1 2
4 1 2 3
_
_
_
_
2. Demuestre que en general, [A+B[ ,= [A[ +[B[ .
3. Sea F. Demuestre que para cualquier matriz A /
n
(F) se tiene que
[A[ =
n
[A[.
4. Demuestre que si A, B /
n
(F) son matrices triangulares entonces [AB[ =
[A[ [B[.
5.3. Funciones n-lineales y alternadas
La funcion determinante es la funcion
[[ : /
n
(F) F
que asigna a cada A /
n
(F) su determinante [A[ F. Notamos que el espacio
de las matrices /
n
(F) esta en correspondencia biunvoca con el espacio vecto-
rial (F
n
)
n
= F
n
F
n
formado por n-uplas (X
1
, . . . , X
n
), donde cada X
i
es un vector la de F
n
, para i = 1, . . . , n. La correpondencia es natural: a cada
matriz A /
n
(F) le asociamos el vector (A
1
, . . . , A
n
), donde A
i
es la la i de
A para todo i = 1, . . . , n. Es facil ver que esta correspondencia es biyectiva y,
aun mas, es un isomorsmo de espacios vectoriales. De esta manera, podemos
considerar a la funcion determinante como una funcion
[[ : (F
n
)
n
F
denida en n coordenadas.
Denicion 5.3.1 Sea f : (F
n
)
n
F una funcion. Decimos que
1. f es n-lineal si para todo , F y X, Y F
n
se tiene que
f
_
. . . ,
j
X +Y , . . .
_
= f
_
. . . ,
j
X, . . .
_
+f
_
. . . ,
j
Y , . . .
_
para todo j = 1, . . . , n.
2. f es alternada si f (X
1
, . . . , X
n
) = 0 cuando X
i
= X
j
para alg un i ,= j.
En la demostracion del Teorema 5.2.6 se obtiene que la funcion determinante
[[ : F
n
F
n
F es n-lineal y alternada. Veremos a continuacion que estas
dos propiedades junto con el hecho de que el determinante de la identidad es 1
(Teorema 5.2.7) caracterizan a la funcion determinante.
5.3. FUNCIONES N-LINEALES Y ALTERNADAS 101
Lema 5.3.2 Sea f : F
n
F
n
F una funcion n-lineal, alternada y
X
1
, . . . , X
n
F
n
. Si 1 i < j n entonces
f
_
. . . ,
i
X
i
, . . . ,
j
X
j
, . . .
_
= f
_
. . . ,
i
X
j
, . . . ,
j
X
i
, . . .
_
Es decir, f cambia de signo cuando se intercambian la la i y la la j. Ademas,
si S
n
, entonces
f
_
X
(1)
, . . . , X
(n)
_
= sgn() f (X
1
, . . . , X
n
)
Demostracion. Al ser f alternada y n-lineal se sigue que
0 = f
_
. . . ,
i
X
i
+X
j
, . . . ,
j
X
i
+X
j
, . . .
_
= f
_
. . . ,
i
X
i
, . . . ,
j
X
i
, . . .
_
+f
_
. . . ,
i
X
i
, . . . ,
j
X
j
, . . .
_
+f
_
. . . ,
i
X
j
, . . . ,
j
X
i
, . . .
_
+f
_
. . . ,
i
X
j
, . . . ,
j
X
j
, . . .
_
= f
_
. . . ,
i
X
i
, . . . ,
j
X
j
, . . .
_
+f
_
. . . ,
i
X
j
, . . . ,
j
X
i
, . . .
_
Supongamos ahora que S
n
. Entonces existen trasposiciones
1
, . . . ,
m
tales
que
1

m
= . Luego, por la primera parte y la parte 3 del Teorema 5.1.8,
f
_
X
(1)
, . . . , X
(n)
_
= (1)
m
f (X
1
, . . . , X
n
) = sgn() f (X
1
, . . . , X
n
)
Teorema 5.3.3 Sea f : F
n
F
n
F una funcion n-lineal, alternada y
f (e
1
, . . . , e
n
) = 1. Entonces f es la funcion determinante.
Demostracion. Sean A
i
= (a
i1
, . . . , a
in
) las las de A, donde i = 1, . . . , n.
Entonces
A
i
=
n

j=1
a
ij
e
j
Luego, por la n-linealidad de f deducimos que
f (A
1
, . . . , A
n
) = f
_
_
n

j
1
=1
a
1j1
e
j1
, . . . ,
n

j
n
=1
a
njn
e
jn
_
_
=
n

j
1
=1

n

j
n
=1
a
1j1
a
njn
f (e
j1
, . . . , e
jn
)
Ahora, como f es alternada, los terminos diferentes de cero ocurren cuando
j
1
, . . . , j
n
son diferentes. Es decir,
f (A
1
, . . . , A
n
) =

S
n
a
1(1)
a
n(n)
f
_
e
(1)
, . . . , e
(n)
_
102 CAP

ITULO 5. DETERMINANTES
Por otra parte, como f es alternada y n-lineal se sigue del Lema 5.3.2 que
f
_
e
(1)
, . . . , e
(n)
_
= sgn() f (e
1
, . . . , e
n
) = sgn()
As, concluimos que
f (A
1
, . . . , A
n
) =

S
n
sgn() a
1(1)
a
n(n)
= [A[
EJERCICIOS
1. Demuestre que si f : F
n
F
n
F satisface la condicion mas debil
f (X
1
, . . . , X
n
) = 0 cuando X
i
= X
i+1
para alg un i, entonces f es alter-
nada.
2. Sea f : F
3
F
3
F
3
F denida por
f
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
= a
11

a
22
a
23
a
32
a
33

a
12

a
21
a
23
a
31
a
33

+a
13

a
21
a
22
a
31
a
32

Demuestre que f es 3-lineal, alternada y f (I


3
) = 1.
5.4. La expansion de Laplace
Vamos a presentar en esta seccion un metodo para calcular el determinante
de una matriz.
Denicion 5.4.1 Sea A /
n
(F) tal que [A]
ij
= a
ij
. Consideremos la matriz
A
ij
/
n1
(F) obtenida a partir de A al eliminar la la i y la columna j de A.
Entonces A
ij
se llama el menor del elemento a
ij
de A. El escalar (1)
i+j
[A
ij
[
se llama el cofactor de a
ij
.
Ejemplo 5.4.2 Para la matriz A dada en el Ejemplo 5.2.8, el menor del ele-
mento a
23
de A es
A
23
=
_
1 3
1 7
_
y el cofactor de a
23
es (1)
2+3
4 = 4.
Teorema 5.4.3 Sea A /
n
(F) tal que [A]
ij
= a
ij
. Entonces para cada i =
1, . . . , n
[A[ =
n

j=1
(1)
i+j
a
ij
[A
ij
[
y para cada j = 1, . . . , n
[A[ =
n

i=1
(1)
i+j
a
ij
[A
ij
[
5.4. LA EXPANSI

ON DE LAPLACE 103
Demostracion. Probamos la segunda formula. Por el Teorema 5.3.3 bas-
ta probar que para j jo, la funcion : /
n
(F) F dada por (A) =
n

i=1
(1)
i+j
a
ij
[A
ij
[ es n-lineal, alternada y (I) = 1. Supongamos que A
1
, . . . , A
n
son las las de A y A
k
= A
l
, donde 1 k < l n. Si i ,= k o i ,= l entonces
claramente [A
ij
[ = 0 porque es el determinante de una matriz que tiene dos las
iguales. Por otra parte, como A
lj
se obtiene a partir de A
kj
intercambiando la
la l 1 por la las k, k + 1, . . . , l 2, se sigue de la parte 1 del Teorema 5.2.6
que [A
lj
[ (1)
lk1
= [A
kj
[. En consecuencia,
(A) = (1)
k+j
a
kj
[A
kj
[ + (1)
l+j
a
lj
[A
lj
[
= (1)
k+j
a
kj
[A
lj
[ (1)
lk1
+ (1)
l+j
a
lj
[A
lj
[
= (1)
j+l1
a
kj
[A
lj
[ + (1)
l+j
a
kj
[A
lj
[ = 0
Esto prueba que es alternada. Probamos ahora que es n-lineal. Para esto,
supongamos que la la p de A tiene la forma A
p
= B
p
+ C
p
y consideremos
las matrices B con elementos [B]
ij
= b
ij
y C con elementos [C]
ij
= c
ij
, que
tienen las
A
1
, . . . , A
p1
, B
p
, A
p+1
, . . . , A
n
y
A
1
, . . . , A
p1
, C
p
, A
p+1
, . . . , A
n
respectivamente. En primer lugar, si i = p entonces [A
pj
[ = [B
pj
[ = [C
pj
[ y, por
lo tanto,
a
pj
[A
pj
[ = (b
pj
+c
pj
) [A
pj
[
= b
pj
[B
pj
[ +c
pj
[C
pj
[
Si i ,= p, entonces sabemos por la (n 1)-linealidad del determinante que
[A
ij
[ = [B
ij
[ + [C
ij
[
Ademas, en este caso a
ij
= b
ij
= c
ij
, por lo tanto,
a
ij
[A
ij
[ = b
ij
[B
ij
[ +c
ij
[C
ij
[
Esto prueba que es n-lineal. Finalmente, es claro que (I) = 1.
Las formulas para el determinante de una matriz encontradas en el Teorema
5.4.3 se llaman expansion de Laplace del determinante de A por la la i y por
la columna j, respectivamente.
Ejemplo 5.4.4 Sea A =
_
_
1 3 2
2 8 3
1 7 1
_
_
. Consideremos las siguientes opera-
ciones elementales:
_
_
1 3 2
2 8 3
1 7 1
_
_
E
21
(2)

_
_
1 3 2
0 2 1
1 7 1
_
_
E
31
(1)

_
_
1 3 2
0 2 1
0 4 3
_
_
104 CAP

ITULO 5. DETERMINANTES
Luego, por el Teorema 5.2.6, [A[ =

1 3 2
0 2 1
0 4 3

. Usamos ahora la expansion


de Laplace por la columna 1 y obtenemos
[A[ = a
11
[A
11
[ = 1

2 1
4 3

= 6 4 = 2
EJERCICIOS
1. Para cada 1 i, j 3, calcule los menores A
ij
y los cofactores de a
ij
para
la matriz A =
_
_
2 8 1
2 3 1
3 1 5
_
_
.
2. Encuentre el determinante de la matrices A =
_
_
_
_
1 1 3 2
2 3 6 1
3 1 0 1
2 2 3 1
_
_
_
_
,
B =
_
_
1 2 3
1 1 2
1 1 1
_
_
y C =
_
_
0 1 +i 1 + 2i
1 i 0 2 3i
1 2i 2 + 3i 0
_
_
3. Usando el Teorema 5.4.3 demuestre que el determinante de una matriz
triangular es el producto de los elementos sobre la diagonal.
4. Demuestre que si A /
n
(F) es antisimetrica entonces

= (1)
n
[A[.
5. Demuestre que si A /
n
(F) es antisimetrica y n es impar entonces
[A[ = 0.
6. Demuestre que [V [ =

1i<jn
(x
j
x
i
), donde V es la matriz de Vander-
monde
V =
_
_
_
_
_
_
_
1 1 1 1
x
1
x
2
x
3
x
n
x
2
1
x
2
2
x
2
3
x
2
n
.
.
.
.
.
.
.
.
.
.
.
.
x
n1
1
x
n1
2
x
n1
3
x
n1
n
_
_
_
_
_
_
_
5.5. La adjunta y la inversa de una matriz
Usamos en esta seccion los cofactores para construir la inversa de una matriz.
Denicion 5.5.1 La adjunta de A /
n
(F), que denotamos por A
a
, la den-
imos como
[A
a
]
ij
= (1)
i+j
[A
ji
[
5.5. LA ADJUNTA Y LA INVERSA DE UNA MATRIZ 105
Ejemplo 5.5.2 Para la matriz A =
_
_
1 3 2
2 8 3
1 7 1
_
_
tenemos que
[A
a
]
11
= 29 [A
a
]
12
= 17 [A
a
]
13
= 7
[A
a
]
21
= 5 [A
a
]
22
= 3 [A
a
]
23
= 1
[A
a
]
31
= 6 [A
a
]
32
= 4 [A
a
]
33
= 2
Luego,
A
a
=
_
_
29 17 7
5 3 1
6 4 2
_
_
Relacionamos la adjunta de una matriz con la inversa en nuestro proximo
resultado.
Teorema 5.5.3 Si A /
n
(F) entonces AA
a
= [A[ I
n
. Ademas, A es invert-
ible si, y solo si, [A[ ,= 0, en cuyo caso
A
1
=
1
[A[
A
a
Demostracion. El termino i, j de AA
a
es
[AA
a
]
ij
=
n

k=1
a
ik
(1)
k+j
[A
jk
[
Si i = j entonces por el Teorema 5.4.3
[AA
a
]
ii
=
n

k=1
(1)
k+i
a
ik
[A
ik
[ = [A[
Supongamos que i ,= j, digamos i < j. Si A
1
, . . . , A
n
son las las de A con-
struyamos la matriz C con las C
1
, . . . , C
n
dadas por C
k
= A
k
para todo k ,= j
y C
j
= A
i
. Entonces es claro que c
ik
= a
ik
= c
jk
y [A
jk
[ = [C
jk
[ para todo k.
Ademas, [C[ = 0 porque tiene dos las iguales. Luego,
[AA
a
]
ij
=
n

k=1
a
ik
(1)
k+j
[A
jk
[ =
n

k=1
(1)
k+j
c
jk
[C
jk
[
= [C[ = 0
Esto prueba que AA
a
= [A[ I.
Para ver la segunda parte, si [A[ ,= 0 entonces por lo anterior,
A
A
a
[A[
= I
106 CAP

ITULO 5. DETERMINANTES
Ademas, como A

_
A

_
a
=

I entonces
[A[ I =

I = A

_
A

_
a
= A

(A
a
)

= (A
a
A)

y, en consecuencia, A
a
A = (A
a
A)

= [A[ I

= [A[ I. Esto prueba que


A
a
[A[
A = I
As, A es invertible y A
1
=
A
a
]A]
. Recprocamente, si A es invertible entonces, por
el Teorema 1.4.5, A es equivalente por las a la matriz identidad. Por el Teorema
5.2.6, [A[ = (1)
t
r
1
r
s
donde r
1
, . . . , r
s
son los escalares diferentes de cero
que aparecen al multiplicar una la y (1)
t
es el signo que aparece cuando
intercambiamos dos las. Esto prueba que [A[ ,= 0.
Ejemplo 5.5.4 En un ejemplo anterior demostramos que

1 3 2
2 8 3
1 7 1

= 2 y
_
_
1 3 2
2 8 3
1 7 1
_
_
a
=
_
_
29 17 7
5 3 1
6 4 2
_
_
Se sigue del teorema anterior que
A
1
=
_
_
29/2 17/2 7/2
5/2 3/2 1/2
3 2 1
_
_
Teorema 5.5.5 Sean A, B /
n
(F). Entonces:
1. [AB[ = [A[ [B[ ;
2. Si A es invertible entonces

A
1

=
1
]A]
.
Demostracion. 1. Si A no es invertible tampoco lo es AB. Se sigue del
teorema anterior que [AB[ = 0 = [A[ [B[. Luego, suponemos que A es invertible,
en cuyo caso
A = E
1
E
k
donde E
j
es una matriz elemental para cada j = 1, . . . , n. Luego, el problema
se reduce a probar que [EB[ = [E[ [B[ para cualquier matriz elemental E. Por
el Teorema 1.4.3 tenemos
E
pq
= f
pq
(I
n
)
E
p
() = f
p
() (I
n
)
E
pq
() = f
pq
() (I
n
)
5.5. LA ADJUNTA Y LA INVERSA DE UNA MATRIZ 107
Luego, por el Teorema 5.2.6
[E
pq
[ = 1 [I
n
[ = 1
[E
p
()[ = [I
n
[ =
[E
pq
()[ = [I
n
[ = 1
y as,
[E
pq
B[ = 1 [B[ = [E
pq
[ [B[
[E
p
() B[ = [B[ = [E
p
()[ [B[
[E
pq
() B[ = [B[ = [E
pq
()[ [B[
2. Si A es invertible entonces AA
1
= I. Luego por la parte anterior,
1 = [I[ =

AA
1

= [A[

A
1

En consecuencia,

A
1

=
1
]A]
.
Corolario 5.5.6 (La regla de Cramer) Sea A /
n
(F) y B = (b
1
, . . . , b
n
)


F
n
. Si [A[ ,= 0 entonces la ecuacion matricial AX = B tiene una unica solucion
dada por
x
j
= [A[
1
n

i=1
(1)
i+j
b
i
[A
ij
[
para todo j = 1, . . . , n.
Demostracion. A es invertible porque [A[ ,= 0. En consecuencia, AX = B
tiene unica solucion X = A
1
B. Pero por el Teorema 5.5.3,
X = A
1
B =
1
[A[
A
a
B
EJERCICIOS
1. Considere la matriz B =
_
_
1 1 1
2 3 4
5 8 9
_
_
. Encuentre i) [B[ ; ii) B
a
y iii)
B
1
usando B
a
.
2. Determine si las matrices dadas a continuacion son invertibles. Si son
invertibles, calcule la inversa.
A =
_
3 6
4 8
_
, B =
_
_
2 1 4
1 0 5
19 7 3
_
_
, C =
_
_
_
_
1 1 1 1
1 2 1 2
1 1 2 1
1 3 3 2
_
_
_
_
108 CAP

ITULO 5. DETERMINANTES
3. Demuestre que si A es ortogonal entonces [A[ = 1.
4. Demuestre que si U es unitaria entonces [U[ = 1.
5. La matriz N /
n
(F) se llama nilpotente si N
k
= 0 para alg un entero
k 1. Demuestre que si N es nilpotente entonces [N[ = 0.
6. Una matriz A /
n
(F) se llama idempotente si A
2
= A. Cuales son los
valores posibles para [A[?
7. Resuelva cada uno de los sistemas de ecuaciones usando la Regla de
Cramer:
a)
2x +y +z = 6
3x 2y 3z = 5
8x + 2y + 5z = 11
_
_
_
; b)
2x +y z = 4
x +z = 2
y + 5z = 1
_
_
_
.
Captulo 6
Diagonalizacion
6.1. Autovalores y autovectores
Uno de los objetivos principales de este curso consiste en estudiar los oper-
adores lineales denidos sobre un espacio vectorial V . En vista del isomorsmo
entre L(V ) y /
n
(F), para estudiar un operador lineal T es posible elegir una
base B de V y estudiar a [T]
B
, la matriz asociada a T con respecto a la base B.
Teniendo en cuenta que un operador lineal tiene distintas representaciones ma-
triciales, es natural elegir una base de V de forma que la representacion resulte
lo mas simple posible. Las matrices diagonales son bastante sencillas.
Denicion 6.1.1 Una matriz D /
n
(F) es diagonal si cumple [D]
ij
= 0
para todo i ,= j.
Es decir, todos los elementos fuera de la diagonal son 0. Si los elementos
sobre la diagonal son [D]
ii
=
i
, para i = 1, . . . , n, entonces escribimos
D = diag (
1
, . . . ,
n
)
Presentamos en este captulo criterios para decidir cuando existe una base B de
V tal que [T]
B
es una matriz diagonal.
Denicion 6.1.2 Sea V un espacio vectorial. Un operador lineal T L(V ) es
diagonalizable si existe una base B de V tal que [T]
B
es una matriz diagonal.
Ejemplo 6.1.3 Consideremos el operador lineal T L
_
R
2
_
denido por
T
_
x
y
_
=
_
6x y
3x + 2y
_
Entonces B =
__
1
3
_
,
_
1
1
__
es una base de R
2
. Ademas,
T
_
1
3
_
=
_
3
9
_
= 3
_
1
3
_
+ 0
_
1
1
_
109
110 CAP

ITULO 6. DIAGONALIZACI

ON
y
T
_
1
1
_
=
_
5
5
_
= 0
_
1
3
_
+ 5
_
1
1
_
Por lo tanto,
[T]
B
=
_
3 0
0 5
_
y as, T es diagonalizable.
Ejemplo 6.1.4 Sea S L
_
R
2
_
denida por
S
_
x
y
_
=
_
y
0
_
La matriz asociada a S con respecto a la base canonica es A =
_
0 1
0 0
_
. Si
S fuera diagonalizable, existira una matriz invertible Q tal que Q
1
AQ = D,
donde D es diagonal. Luego,
0 =A
2
=
_
QDQ
1
_
2
= QD
2
Q
1
Al ser Q invertible y D diagonal, concluimos que D = 0 y esto obliga a A = 0,
una contradiccion.
El problema de decidir si un operador lineal es diagonalizable es equivalente
a determinar si una matriz es semejante a una matriz diagonal.
Teorema 6.1.5 Sea V un espacio vectorial y A /
n
(F) una matriz asociada
a T L(V ). T es diagonalizable si, y solo si, A es semejante a una matriz
diagonal.
Demostracion. Sea B una base de V tal que [T]
B
= A. Si T es diagonaliz-
able entonces existe una base ( de V tal que [T]
c
= D, donde D es una matriz
diagonal. Por el Teorema 3.5.4,
D = [T]
c
= P [T]
B
P
1
= PAP
1
As, A es semejante a una matriz diagonal. Recprocamente, si A = [T]
B
es
semejante a una matriz diagonal D entonces por el Teorema 3.5.6, existe una
base ( de V tal que [T]
c
= D. Esto prueba que T es diagonalizable.
Denicion 6.1.6 Decimos que la matriz A /
n
(F) es diagonalizable si existe
una matriz diagonal D tal que A es semejante a D.
Introducimos la teora de autovalores con el n de estudiar el problema de
diagonalizacion de una matriz.
6.1. AUTOVALORES Y AUTOVECTORES 111
Denicion 6.1.7 Sea A /
n
(F). Un autovalor de A es un escalar F tal
que
Ax = x
para alg un 0 ,= x F
n
. Decimos que x es un autovector de A asociado a .
Ejemplo 6.1.8 Consideremos la matriz A =
_
7 2
4 1
_
/
2
(R). Entonces
3 es un autovalor de A porque
A
_
1
2
_
= 3
_
1
2
_
El vector
_
1
2
_
es un autovector de A asociado a 3.
Teorema 6.1.9 Sea A /
n
(F). Las siguientes condiciones son equivalentes:
1. es un autovalor de A;
2. [I A[ = 0.
Demostracion. Esto es consecuencia de los Teoremas 2.7.12 y 5.5.3.
Este resultado nos proporciona un metodo para encontrar los autovalores y
autovectores de una matriz. Si tratamos a como una variable entonces [I A[
es un polinomio en y los autovalores de Ason las races de la ecuacion polinomi-
ca [I A[ = 0. Despues de encontrar los autovalores de A encontramos los
autovectores como la solucion no trivial del sistema de ecuaciones homogeneas
(I A) x = 0. Es decir, los vectores diferentes de cero en ker (I A). Lla-
mamos a ker (I A) el autoespacio de A asociado al autovalor .
Denicion 6.1.10 El polinomio p
A
= p
A
(x) = [xI A[ F[x] se llama el
polinomio caracterstico de A.
El hecho de que los autovalores de una matriz A se obtienen como races de
p
A
(x) nos indica que hay diferencias cuando tomamos F = R o F = C
Ejemplo 6.1.11 Consideremos la matriz B =
_
0 1
1 0
_
/
2
(R). En-
tonces el polinomio caracterstico de B es
p
B
=

x 1
1 x

= x
2
+ 1 R[x]
Este polinomio no tiene races sobre R y, por lo tanto, B no tiene autovalores.
Ejemplo 6.1.12 Consideremos la matriz B =
_
0 1
1 0
_
/
2
(C). En-
tonces el polinomio caracterstico de B es
p
B
=

x 1
1 x

= x
2
+ 1 = (x +i) (x i)
112 CAP

ITULO 6. DIAGONALIZACI

ON
En este ejemplo notamos que los autovalores de B son i, i. El autoespacio
asociado al autovalor = i es el subespacio generado por el vector
_
1
i
_
.
El autoespacio asociado a = i es el subespacio generado por el vector
_
1
i
_
.
El proximo resultado muestra que matrices semejantes tienen el mismo poli-
nomio caracterstico.
Teorema 6.1.13 Sean A, B /
n
(F) matrices semejantes. Entonces p
A
=
p
B
.
Demostracion. Sea P /
n
(F) una matriz invertible tal que B = P
1
AP.
Entonces
p
A
= [xI A[ =

P
1
(xI A) P

= [xI B[ = p
B
En particular, matrices semejantes tienen los mismos autovalores.
Concluimos esta seccion con un importante resultado sobre la independencia
lineal de autovectores.
Teorema 6.1.14 Sea A /
n
(F) y
1
, . . . ,
k
los diferentes autovalores de A.
1. Si x
i
es un autovector asociado a
i
para cada i = 1, . . . , k entonces el
conjunto x
1
, . . . , x
k
es linealmente independiente;
2. Si para cada i = 1, . . . , k, B
i
es una base de ker (
i
I A) entonces B =
B
1
B
k
es un conjunto linealmente independiente.
Demostracion. 1. Supongamos que el conjunto x
1
, . . . , x
k
es linealmente
dependiente. Entonces para alg un entero 1 s < k tenemos que x
1
, . . . , x
s
es
linealmente independiente pero x
1
, . . . , x
s+1
es linelamente dependiente. Luego
x
s+1
=
1
x
1
+ +
s
x
s
(6.1)
donde no todos los
i
F son ceros. Multiplicando ambos lados por A obten-
emos

s+1
x
s+1
=
1

1
x
1
+ +
s

s
x
s
y multiplicando ambos lados de (6.1) por
s+1
obtenemos

s+1
x
s+1
=
s+1

1
x
1
+ +
s+1

s
x
s
Por la independencia lineal de x
1
, . . . , x
s
concluimos que
j

j
=
s+1

j
para
todo j = 1, . . . , s. Sea r tal que
r
,= 0. Entonces
r
(
r

s+1
) = 0 y as
r
=

s+1
, una contradiccion.
2. Vamos a probar que
ker (
j
I A) [ker (
1
I A) + + ker (
j1
I A)] = 0
6.1. AUTOVALORES Y AUTOVECTORES 113
para todo j = 2, . . . , k. En efecto, supongamos que x ker (
j
I A) y x =
x
1
+ +x
j1
, donde x
i
ker (
i
I A) para todo i = 1, . . . , j 1. Entonces
j1

i=1
(
i

j
) x
i
=
j1

i=1

i
x
i

j
j1

i=1
x
i
= Ax
j
x = 0
Se sigue de la primera parte que todos los x
i
son cero y, por lo tanto, x = 0.
Ahora supongamos que B
i
= x
i,1
, . . . , x
i,t
i
y consideremos una combi-
nacion lineal

1,1
x
1,1
+ +
1,t1
x
1,t1
+ +
k,1
x
k,1
+ +
k,t
k
x
k,t
k
= 0
Si llamamos y
i
=
i,1
x
i,1
+ +
i,t
i
x
i,t
i
ker (
i
I A) entonces y
1
+ +y
k
=
0. Sea j el maximo entero positivo tal que y
j
,= 0. Luego
y
j
= y
1
+ +y
j1
ker (
j
I A)[ker (
1
I A) + + ker (
j1
I A)] = 0
Esto es una contradiccion. Por la tanto, y
i
= 0 para todo i y as,
i,t
= 0 para
todo 1 i k y 1 t t
i
. Esto termina la prueba.
EJERCICIOS
1. Encuentre el polinomio caracterstico de la matriz A =
_
2 3
1 1
_

/
2
(R), los autovalores y los autoespacios correspondientes. Que ocurre
si considera a A =
_
2 3
1 1
_
/
2
(C)?
2. Sea A /
n
(F) una matriz triangular. Demuestre que los autovalores de
A son los elementos de la diagonal de A.
3. Encuentre el polinomio caracterstico de la matriz A =
_
_
9 4 4
8 3 4
16 8 7
_
_

/
2
(R), los autovalores y los autoespacios correspondientes.
4. Sea T L(V ) donde V es un espacio vectorial de dimension n. Si T tiene
n autovalores diferentes demuestre que T es diagonalizable.
5. Sean A, B /
n
(F). Demuestre que si I AB es invertible entonces
I BA es invertible y que
(I BA)
1
= I +B(I AB)
1
A
Concluya que AB y BA tienen los mismos autovalores.
6. Sea V el espacio de las funciones continuas de R en R y T : V V el
operador lineal sobre V denido por
(Tf) (x) =
x
_
0
f (t) dt
Demuestre que T no tiene autovalores.
114 CAP

ITULO 6. DIAGONALIZACI

ON
7. Sea D /
n
(F) una matriz diagonal con polinomio caracterstico
(x c
1
)
d1
(x c
k
)
d
k
donde c
1
, . . . , c
k
son distintos. Sea V = A /
n
(F) : AD = DA. De-
muestre que la dimension de V es d
2
1
+ +d
2
k
.
8. Demuestre que 0 es un autovalor de A si, y solo si, A no es invertible.
9. Suponga que es un autovalor de la matriz invertible A. Demuestre que

1
es un autovalor de A
1
.
10. Suponga que v es un autovector de las matrices A, B /
n
(F). Demuestre
que v es un autovector de A+B, donde , F.
11. Suponga que es un autovalor de la matriz A con autovector asociado
v. Demuestre que para todo entero n > 0,
n
es un autovalor de A
n
con
autovector asociado v.
12. Sean A, B /
n
(F) tales que AB = BA. Sea un autovalor de B y W
el autoespacio de B asociado a . Demuestre que AW W.
13. Sea T L(V ). Un autovalor de T es un escalar F tal que
Tx = x
para alg un 0 ,= x V . Se dice que x es un autovector de T asociado a .
Sea A = [T]
B
la matriz asociada a T con respecto a la base B. Demuestre
que F es un autovalor de T si, y solo si, es un autovalor de A.
6.2. Diagonalizacion
En esta seccion establecemos la conexion entre la teora de autovalores y el
problema de diagonalizacion.
Teorema 6.2.1 La matriz A /
n
(F) es diagonalizable si, y solo si, existe
una base de F
n
formada por autovectores de A.
Demostracion. Sea P una matriz invertible tal que AP = PD, donde
D = diag (
1
, . . . ,
n
) .
Por el Teorema 2.7.12, las columnas de P
1
, . . . , P
n
de P forman una base de
F
n
. Por otra parte, un calculo simple demuestra que
AP
j
= (AP)
j
= (PD)
j
=
j
P
j
para cada j = 1, . . . , n. As, cada P
j
es un autovector asociado al autovalor

j
. Recprocamente, supongamos que y
1
, . . . , y
n
es una base de F
n
formada por
6.2. DIAGONALIZACI

ON 115
autovectores de A, digamos Ay
j
=
j
y
j
. Sea P la matriz cuya columna j es el
vector y
j
. Entonces P es invertible y para todo j = 1, . . . , n
(AP)
j
= Ay
j
=
j
y
j
= (PD)
j
donde D = diag (
1
, . . . ,
n
). Esto prueba que P
1
AP = diag (
1
, . . . ,
n
).
Damos a continuacion un criterio util para decidir cuando una matriz A
/
n
(F) es diagonalizable, en el caso que el polinomio caracterstico p
A
de A se
expresa como producto de factores lineales:
p
A
= (x
1
)
m
1
(x
k
)
m
k
(6.2)
donde
1
, . . . ,
k
son los autovalores diferentes de A y m
1
+ + m
k
= n.
Para cada j = 1, . . . , k, recordamos que la multiplicidad algebraica de
j
, que
denotamos por ma
A
(
j
), es el n umero m
j
. Esto es, ma
A
(
j
) = m
j
.
Es importante notar que por el Teorema Fundamental del

Algebra, si tomamos
F = C entonces cualquier matriz A /
n
(C) tiene polinomio p
A
en la forma
dada en (6.2).
Denicion 6.2.2 Sea A /
n
(F). La dimension del autoespacio ker (I A)
asociado a un autovalor de A se llama la multiplicidad geometrica de y la
denotamos por mg
A
().
En general, la multiplicidad algebraica y geometrica de un autovalor son
diferentes.
Ejemplo 6.2.3 Consideremos la matriz A =
_
0 0
1 0
_
. Entonces
A
= x
2
y,
por lo tanto, el unico autovalor de A es el cero. En este caso dim[ker (0I A)] =
dim[ker (A)] = 1. Esto es, mg
A
(0) = 1 ,= 2 = ma
A
(0).
Teorema 6.2.4 Sea A /
n
(F) y
0
un autovalor de A. Entonces mg
A
(
0
)
ma
A
(
0
).
Demostracion. Supongamos que mg
A
(
0
) = r y sea Q
1
, . . . , Q
r
una base
de ker (
0
I A). Extendamos hasta una base
Q
1
, . . . , Q
r
, Q
r+1
, . . . , Q
n
de F
n
y consideremos la matriz invertible Q que tiene a Q
j
como columna j,
para j = 1, . . . , n. Entonces
_
Q
1
AQ
_
j
= Q
1
AQ
j
= Q
1
AQ
j
= Q
1

0
Q
j
=
0
e
j
para todo j = 1, . . . , r. Por lo tanto
Q
1
AQ =
_

0
I
r
B
0 C
_
116 CAP

ITULO 6. DIAGONALIZACI

ON
para ciertas B /
r,nr
(F) y C /
nr
(F). Se sigue del Teorema 6.1.13 que
p
A
= p
Q
1
AQ
=

(x
0
) I
r
B
0 xI
nr
C

Desarrollando este determinante por las primeras m columnas obtenemos que


p
A
= (x
0
)
r
[xI
nr
C[ lo que prueba que
ma
A
(
0
) r = mg
A
(
0
)
Ahora estamos en condiciones de presentar un criterio para decidir cuando
una matriz es diagonalizable.
Teorema 6.2.5 Sea A /
n
(F) tal que p
A
se expresa como producto de fac-
tores lineales. Entonces A es diagonalizable si, y solo si, mg
A
() = ma
A
()
para todo (A).
Demostracion. Supongamos que A es diagonalizable y sea un autovalor
de A tal que ma
A
() = r. Entonces
P
1
AP =
_
I
r
0
0 B
_
donde B /
nr
(F) es diagonal y no es autovalor de B. En consecuencia,
(I A) = P
_
0 0
0 I
nr
B
_
P
1
y as,
rgo (I A) = rgo
_
0 0
0 I
nr
B
_
= rgo (I
nr
B) = n r
Se sigue del Teorema de la dimension que
mg
A
() = dim[ker (I A)] = n rgo (I A) = n (n r) = r
Recprocamente, supongamos que
1
, . . . ,
k
son los diferentes autovalores
de A y supongamos que mg
A
(
i
) = ma
A
(
i
) para todo i. Elijamos para cada
i = 1, . . . , k una base B
i
de ker (
i
I A). Entonces por el Teorema 6.1.14, el
conjunto B = B
1
B
k
es linealmente independiente. Ademas, el n umero
de vectores en B es
k

i=1
mg
A
(
i
) =
k

i=1
ma
A
(
i
) = n. En consecuencia, B es
una base de F
n
formada por autovectores de A y el resultado sigue del Teorema
6.2.1.
6.2. DIAGONALIZACI

ON 117
Ejemplo 6.2.6 Sea A =
_
_
2 1 1
2 3 2
1 1 2
_
_
/
3
(R). Entonces
p
A
=

x 2 1 1
2 x 3 2
1 1 x 2

= (x 5) (x 1)
2
Por lo tanto, el conjunto de autovalores de A es el conjunto 1, 5 , ma
A
(1) = 2
y ma
A
(5) = 1. Calculemos ahora las multiplicidades geometricas de los auto-
valores de A. Usando las tecnicas del primer captulo tenemos
5I A =
_
_
3 1 1
2 2 2
1 1 3
_
_

f
_
_
1 0 1
0 1 2
0 0 0
_
_
(6.3)
Luego, rgo (5I A) = 2 y por el Teorema de la dimension, mg
A
(5) = 1. Simi-
larmente,
1I A =
_
_
1 1 1
2 2 2
1 1 1
_
_

f
_
_
1 1 1
0 0 0
0 0 0
_
_
(6.4)
y as, rgo (I A) = 1 lo que implica mg
A
(1) = 2. El Teorema 6.2.5 nos garan-
tiza que A es diagonalizable. Para encontrar la matriz P invertible tal que
P
1
AP es diagonal debemos construir bases de los autoespacios ker (5I A)
y ker (I A) . De la relaci on (6.3) obtenemos que
y 2z = 0
x z = 0
Luego, la solucion del sistema homogeneo (5I A) X = 0 viene dado por los
vectores de la forma
_
_
x
2x
x
_
_
= x
_
_
1
2
1
_
_
. Es decir,
_
_
_
_
_
1
2
1
_
_
_
_
_
es una base de
ker (5I A). Por otra parte, se sigue de la relacion (6.4) que
x +y +z = 0
Luego el conjunto
_
_
_
_
_
0
1
1
_
_
,
_
_
1
0
1
_
_
_
_
_
forma una base de ker (I A). La
matriz invertible P que buscamos es
P =
_
_
1 0 1
2 1 0
1 1 1
_
_
En efecto,
AP = (AP
1
, AP
2
, AP
3
) = (5P
1
, P
2
, P
3
)
= (P
1
, P
2
, P
3
) diag (5, 1, 1) = Pdiag (5, 1, 1)
118 CAP

ITULO 6. DIAGONALIZACI

ON
Ejemplo 6.2.7 Sea B =
_
_
3 1 0
0 3 1
0 0 3
_
_
/
3
(R). Entonces
p
B
=

x 3 1 0
0 x 3 1
0 0 x 3

= (x 3)
3
As, 3 es el unico autovalor de B y ma
B
(3) = 3. Por otro lado,
3I B =
_
_
0 1 0
0 0 1
0 0 0
_
_
En consecuencia, rgo (3I B) = 2 y mg
B
(3) = 1. Concluimos que la matriz
B no es diagonalizable.
EJERCICIOS
1. Sea F : R
2
R
2
el operador lineal denido por F
_
x
y
_
=
_
6x y
3x + 2y
_
.
Es F diagonalizable? En caso de serlo, encuentre una base B de R
2
tal
que [F]
B
es diagonal.
2. Sea T : R
3
R
3
el operador lineal denido por T
_
_
x
y
z
_
_
=
_
_
2x +y
y z
2y + 4z
_
_
.
Es T diagonalizable? En caso de serlo, encuentre una base B de R
3
tal
que [T]
B
es diagonal.
3. Sea A =
_
_
6 3 2
4 1 2
10 5 3
_
_
. Es A semejante, sobre C, a una matriz diag-
onal?
4. Sea A /
2
(R) simetrica. Demuestre que A es diagonalizable.
5. Bajo que condiciones es la matriz A =
_
_
_
_
0 0 0 0
a 0 0 0
0 b 0 0
0 0 c 0
_
_
_
_
diagonalizable?
6.3. Diagonalizacion unitaria
En las secciones anteriores estudiamos el problema de decidir cuando un
operador lineal T L(V ) (o, equivalentemente una matriz) es diagonalizable,
donde V es un espacio vectorial. En esta seccion nos planteamos el mismo proble-
ma pero con la condicion adicional de que V es un espacio con producto interno.
6.3. DIAGONALIZACI

ON UNITARIA 119
En este caso, es posible elegir una matriz asociada al operador lineal T L(V )
con respecto a una base ortonormal. Luego la pregunta que nos planteamos es la
siguiente: cuando existe una base ortonormal de V de tal manera que la matriz
asociada a T es diagonal?
Denicion 6.3.1 Sea V un espacio con producto interno. Decimos que T
L(V ) es unitariamente diagonalizable si existe una base ortonormal B de V tal
que [T]
B
es diagonal.
Esta seccion tiene como objetivo determinar cuando un operador T L(V )
es unitariamente diagonalizable. Como antes, trasladamos el problema a las
matrices.
Teorema 6.3.2 Sea V un espacio con producto interno, T L(V ) y A una
matriz asociada a T con respecto a una base ortonormal de V . Entonces T es
unitariamente diagonalizable si, y solo si, A es unitariamente equivalente a una
matriz diagonal.
Demostracion. Sea B una base ortonormal de V tal que [T]
B
= A. Si T
es unitariamente diagonalizable entonces existe una base ortonormal ( de V tal
que [T]
c
= D, donde D es una matriz diagonal. Por el Teorema 4.3.9,
D = [T]
c
= P

[T]
B
P
donde P es una matriz unitaria. As, A es unitariamente equivalente a una
matriz diagonal. Recprocamente, si A = [T]
B
es unitariamente equivalente a
una matriz diagonal D entonces por el Teorema 4.3.9, existe una base ortonormal
( de V tal que [T]
c
= D. Esto prueba que T es diagonalizable.
Denicion 6.3.3 Decimos que una matriz A /
n
(F) es unitariamente (or-
togonalmente) diagonalizable si A es unitariamente (ortogonalmente) equiva-
lente a una matriz diagonal.
Uno de los resultados mas importantes en la teora elemental de matrices
establece que cualquier matriz A /
n
(F) es unitariamente equivalente a una
matriz triangular superior que tiene los autovalores de A en la diagonal.
Teorema 6.3.4 (Schur) Sea A /
n
(F) con autovalores
1
, . . . ,
n
. Existe
una matriz unitaria U /
n
(F) tal que U
1
AU = T, donde T es una matriz
triangular superior con elementos sobre la diagonal [T]
ii
=
i
para cada i =
1, . . . , n. Ademas, si A /
n
(R) y si todos los autovalores de A son reales,
entonces U la tomamos real ortogonal.
Demostracion. Sea x
1
F
n
un autovector de A asociado a
1
y supong-
amos que |x
1
| = 1. Extendemos este vector a una base de F
n
y luego aplicamos
el proceso de Gram-Schmidt para obtener una base ortonormal x
1
, y
2
, . . . , y
n
de F
n
. Consideremos la matriz U
1
/
n
(F) que tiene primera columna a x
1
y
120 CAP

ITULO 6. DIAGONALIZACI

ON
para 2 j n, la columna j de U
1
es y
j
. Entonces un calculo simple muestra
que
U
1
1
AU
1
=
_

1

0 A
1
_
donde A
1
/
n1
(F) tiene autovalores
2
, . . . ,
n
. Sea x
2
F
n1
un autovector
de A
1
asociado al autovalor
2
y supongamos que |x
2
| = 1. Por el mismo
procedimiento anterior construimos una matriz unitaria U
2
/
n1
(F) tal que
U
1
2
A
1
U
2
=
_

2

0 A
2
_
donde A
2
/
n2
(F) tiene autovalores
3
, . . . ,
n
. Sea W
2
=
_
1 0
0 U
2
_
.
Entonces U
1
W
2
es unitaria y
(U
1
W
2
)
1
AU
1
W
2
= W
1
2
U
1
1
AU
1
W
2
= W
1
2
_

1

0 A
1
_
W
2
=
_
_

1

0
2

0 A
2
_
_
Continuamos este procedimiento para obtener matrices unitarias U
k
/
n(k1)
(F)
y matrices W
k
/
n
(F) para k = 1, . . . , n 1. La matriz U = U
1
W
2
W
n1
es unitaria y U
1
AU tiene la forma deseada.
Si A /
n
(R) y si todos los autovalores de A son reales, entonces los
autovectores correspondientes los tomamos reales y el procedimiento anterior se
repite.
Notamos que en el Teorema de Schur, ni la matriz unitaria U ni la matriz
triangular T son unicas, como vemos en el siguiente ejemplo.
Ejemplo 6.3.5 Sea A =
_
_
1 1 4
0 2 2
0 0 3
_
_
/
n
(R). Entonces
U
1
AU =
_
_
2 1 3

2
0 1

2
0 0 3
_
_
e I
1
AI =
_
_
1 1 4
0 2 2
0 0 3
_
_
Una primera aplicacion del Teorema de Schur demuestra que las matrices
reales simetricas son ortogonalmente diagonalizables.
Denicion 6.3.6 Una matriz A /
n
(F) es hermitiana si A

= A.
Ejemplo 6.3.7 La matriz A =
_
_
1 2i 1 i
2i 2 1 +i
1 +i 1 i 0
_
_
es hermitiana.
6.3. DIAGONALIZACI

ON UNITARIA 121
Teorema 6.3.8 Los autovalores de una matriz hermitiana son reales. En par-
ticular, una matriz simetrica real es ortogonalmente equivalente a una matriz
diagonal.
Demostracion. Sea Auna matriz hermitiana y un autovalor de A. Sea x ,=
0 un autovector asociado. Como Ax = x entonces x

A = x

. Multiplicamos
por x

a la izquierda de la primera relacion y por x a la derecha en la segunda,


para obtener
x

Ax = x

x
x

Ax = x

x
Se sigue que x

x = x

x y como x , = 0, = . Es decir, es un n umero real.


Para ver la segunda parte, si A es simetrica real (con autovalores reales)
entonces U

AU = T, para una matriz real ortogonal U y una matriz triangular


superior T. En particular, U

AU es simetrica y triangular, y, por lo tanto,


diagonal.
Nos planteamos ahora el problema de determinar cuando una matriz A
/
n
(F) es unitariamente diagonalizable.
Teorema 6.3.9 Sea A /
n
(F) con autovalores
1
, . . . ,
n
. Las siguientes
condiciones son equivalentes:
1. A es unitariamente diagonalizable;
2. AA

= A

A;
3.

i,j

[A]
ij

2
=
n

i=1
[
i
[
2
;
4. Existe una base ortonormal de autovectores de F
n
.
Demostracion. 1 2. Si A /
n
(F) es unitariamente equivalente a la
matriz diagonal D, entonces U

AU = D, donde U es una matriz unitaria. Luego


A = UDU

y A

= UD

. De aqu se sigue que


AA

= UDU

UD

= UDD

= UD

DU

= UD

UDU

= A

A
y as, A es normal.
2 1. Por el Teorema de Schur exite una matriz unitaria U y una matriz
triangular superior T tal que
U

AU = T =
_
_
_
_
_
_
_

1
t
12
t
13
t
1n
0
2
t
23
t
2n
0 0
3
t
3n
.
.
.
.
.
.
.
.
.
0 0 0
n
_
_
_
_
_
_
_
(6.5)
122 CAP

ITULO 6. DIAGONALIZACI

ON
donde
1
, . . . ,
n
son los autovalores de A. Como U es unitaria y A es normal
entonce es facil ver que T es normal. Por lo tanto,
(T

T)
11
=
1

1
= (TT

)
11
=
1

1
+t
12
t
12
+ +t
1n
t
1n
En consecuencia,
t
12
= = t
1n
= 0
Analogamente,
(T

T)
22
=
2

2
= (TT

)
22
=
2

2
+t
23
t
23
+ +t
2n
t
2n
y por lo tanto,
t
23
= = t
2n
= 0
Continuando as concluimos que T = diag(
1
,
2
, . . . ,
n
).
1 3. Supongamos que D = U

AU, donde U es unitaria y D diagonal.


Entonces usando el hecho de que la traza es invariante por semejanza obtenemos
n

i=1
[
i
[
2
= Tr (D

D) = Tr (U

UU

AU)
= Tr (U

AU) = Tr (A

A) =

i,j

[A]
ij

2
3 1. Sabemos por el Teorema de Schur que existe una matriz unitaria U tal
que U

AU = T, donde T tiene la forma dada en (6.5). Luego, A = UTU

y
A

= UT

y, por lo tanto, AA

= UTT

. Se sigue que
n

i=1
[
i
[
2
=

i,j

[A]
ij

2
= Tr (AA

) = Tr (TT

)
=
n

i=1
[
i
[
2
+
n

i<j
[t
ij
[
2
En consecuencia,
n

i<j
[t
ij
[
2
= 0 y as, t
ij
= 0 para todo i < j. Esto prueba que
T es diagonal.
1 4. Supongamos que AU = UD, donde D = diag (
1
, . . . ,
n
). Por el
Teorema 4.3.7, las columnas de U forman una base ortonormal de C
n
. Ademas,
A[U]
j
= [AU]
j
= [UD]
j
= U [D]
j
= U
j
e
j
=
j
[U]
j
lo que prueba que las columnas de U son autovectores de A.
4 1. Es claro.
Denicion 6.3.10 Una matriz A /
n
(F) es normal si AA

= A

A.
6.3. DIAGONALIZACI

ON UNITARIA 123
Es claro que las matrices unitarias y las matrices hermitianas son matrices
normales. Tambien lo son las matrices anti-hermitianas: A /
n
(F) es anti-
hermitiana si A

= A.
Ejemplo 6.3.11 La matriz
_
1 1
1 1
_
es normal pero no es unitaria, hermi-
tiana ni anti-hermitiana.
EJERCICIOS
1. Considere las matrices
A =
1
2
_
_
1 i 1 +i
i 1 1 +i
1 +i 1 +i 0
_
_
, B =
_
_
3 1 2i 4 + 7i
1 + 2i 4 2i
4 7i 2i 2
_
_
y
C =
_
2 + 3i 1
i 1 + 2i
_
Demuestre que A es unitaria, B es hermitiana y C es normal.
2. Sea A /
2
(R) una matriz normal. Demuestre que A es simetrica o A es
suma de una matriz m ultiplo de la identidad y una antisimetrica.
3. Suponga que A /
n
(C). Demuestre que AA

y A

A son ambas hermi-


tianas.
4. Suponga que A /
n
(C). Demuestre que A+A

es hermitiana y AA

es antihermitiana. En particular, cualquier matriz de /


n
(C) se escribe
como suma de una matriz hermitiana y una antihermitiana.
5. Suponga que A, U /
n
(C) , A es normal y U es unitaria. Demuestre
que U

AU es normal.
6. Calcule una forma de Schur para cada una de las siguientes matrices:
_
_
1 1 1
1 0 2
1 1 2
_
_
,
_
_
1 1 1
0 0 2
1 1 1
_
_
7. Dada la matriz
A =
_
_
1 14 10
14 2 4
10 4 10
_
_
encuentre una matriz ortogonal Q tal que Q

AQ es diagonal.
8. Compruebe que la matriz A =
_
2 i
i 2
_
es normal. Encuentre una matriz
unitaria U tal que U

AU es diagonal.
124 CAP

ITULO 6. DIAGONALIZACI

ON
9. Sea V un espacio con producto interno y T L(V ). Dena
a) T es un operador hermitiano o autoadjunto si T

= T;
b) T es un operador unitario si T

= T
1
;
c) T es un operador normal si TT

= T

T.
Sea B una base ortonormal del espacio V sobre F . Demuestre que
T L(V ) es hermitiano (resp. unitario o normal) si, y solo si [T]
B
es una matriz hermitiana (resp. unitaria o normal).