Sei sulla pagina 1di 166

ALGEBRA LINEAL

CON EL USO DE MATLAB


AUTOR
Omar Saldarriaga
Ph.D., State University of New York at Binghamton
Profesor Asociado
Departamento de Matematicas
Universidad de Antioquia.
ii
c _ Copyright by Omar Saldarriaga, 2009.
All rights reserved.
Autor: OMAR DAR

IO SALDARRIAGA iii
Prefacio
El algebra lineal es el topico mas importante en Matematicas por sus numerosas aplicaciones en todas las
areas de la Matematica y a muchas otras areas, como la economa, la ingeniera, la qumica, la biologa entre
otras. Este material se escribio bajo tres ideas principales:
1. Un texto computacional, en este texto casi todos los temas se ven desde un punto de vista computacional
que ense na a los lectores como hacer calculos en algebra lineal sin abandonar la componente teorica.
2. Un texto autocontenido: en este libro se dan las demostraciones de todos los teoremas, con excepcion del
Teorema 1.1 cuya demostracion se omite por ser muy engorrosa.
3. Un texto algortmico: En este libro se dan procedimientos paso por paso de como hacer los calculos
respectivos en cada tema.
La losoa del texto consiste en desarrollar cada seccion en el siguiente orden: dar primero la teora, de
esta deducir posibles algoritmos, despues dar el procedimiento paso por paso para hacer calculos y nalmente
dar ejemplos algunos con calculos manuales y otros con el uso del MatLab, escribiendo los respectivos comandos
para obtener la respuesta.
La teora esta escrita en orden cronologico, cada captulo tiene una dependencia del anterior y se desarrolla
de una manera consisa y clara. Este material se ha usado como notas de clase y en encuestas realizadas a los
estudiantes, estos han expresado que las notas son muy claras y que se pueden entender con mucha facilidad.
Espero que los lectores encuentren en este libro un buen texto, si lo usan como tal para un curso, en caso
de no ser el texto gua, espero que encuentren en el una excelente referencia.
iv

Indice general
Prefacio III
0. Comandos en MatLab 3
1.

Algebra de matrices 7
1.1. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2. Matrices y Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.6. Inversa a la izquierda y a la derecha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2. Espacios Vectoriales 35
2.1. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5. Bases y Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6. Subespacios fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.7. Subespacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.8. El teorema de la base incompleta en R
m
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3. Transformaciones Lineales 61
3.1. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2. Transformaciones Lineales Inyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3. Transformaciones lineales sobreyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
v
Autor: OMAR DAR

IO SALDARRIAGA 1
3.5. Espacios Vectoriales arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios. . . . . . . . . . . . . . . . 75
3.6. Propiedades de los Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4. Ortogonalidad en R
n
87
4.1. Deniciones Basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.2. Proyeccion ortogonal sobre un vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.3. Proyeccion ortogonal sobre un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.4. Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.5. El proceso Gramm-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.6. La factorizacion QR de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5. Determinantes 113
5.1. Denicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.2. Determinantes y operaciones elementales de la . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.3. Determinante de matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.4. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
5.5. La Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.6. Interpretacion Geometrica del Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6. Valores y Vectores Propios 131
6.1. Polinomio Caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6.2. Matrices Similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.3.1. La matriz de una transformacion con respecto a dos bases . . . . . . . . . . . . . . . . . . 144
6.4. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6.5. Matrices Simetricas y Diagonalizacion Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.6. Formas Cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
2
Captulo 0
Comandos en MatLab
En este mini captulo damos una peque na introduccion al uso del MatLab para hacer calculos en algebra
lineal, estos comandos son muy utiles y se hara uso constante de estos en los ejemplos en el texto. La lectura
de este captulo se puede obviar, ya que solo se usa como referencia para el lector.
1. Para denir una matriz en MatLab se escriben las entradas la por la separando las entradas de una la
con coma o espacio y punto y coma para entrar una nueva la.
Ejemplo:
>> A = [1, 1; 2, 0] Con este comando se dene la matriz A =
_
_
1 1
2 0
_
_
.
o en lugar de coma se dejan espacios entre los n umeros
>> A = [1 1; 2 0]
2. El sistema
2x +y = 3
x 2y = 6
se resuelve con el comando Ab donde A es la matriz de coecientes y b es el
vector de terminos independientes
>> A = [2, 1; 1, 2], b = [3; 6], x = Ab
3. La forma escalonada de una matriz se calcula con el comando rref(A)
>> A = [2, 1; 1, 2], R = rref(A)
Si se desean las respuestas en n umeros racionales se cambia el formato format rat
2
se ejecuta la orden
de nuevo
>> format rat
>> R = rref(A)
4. La suma de las matrices A y B se ejecuta con el comando A+B
>> A = [2, 1; 1, 2], B = [1, 1; 2, 1], A+B
3
4
5. El producto de escalar por una matriz A se ejecuta con el comando A
>> A = [2, 1; 1, 2], A
6. El producto de las matrices A y B se ejecuta con el comando A B
>> A = [2, 1; 1, 2; 1, 0], B = [1, 1, 2; 0, 1, 2], A B
7. La inversa de la matriz A se ejecuta con el comando inv(A)
>> A = [2, 1; 1, 2], inv(A)
8. La transpuesta de una matriz A se calcula con el comando transpose(A) o A

>> A = [2, 1; 1, 2], transpose(A)


o tambien
>> A

9. El espacio nulo de una matriz se calcula con el comando null(A)


>> A = [2, 1; 1, 2], null(A)
10. El proceso Gramm-Schmidt se ejecuta con la orden orth(A), en este caso se obtiene una base orthonormal
para el espacio columna de A
>> A = [2, 1; 1, 2], orth(A)
11. La factorizacion QR de una matriz A se calcula con el comando qr(A)
>> A = [2, 1; 1, 2], [Q, R] = qr(A)
12. la solucion de los mnimos cuadrados de un sistema inconsistente, Ax = b, se calcula ejecutando el comando
lsqr(A, b)
>> A = [2, 1; 1, 2; 0, 0], b = [1; 1; 1], lsqr(A, b)
13. La solucion de los mnimos cuadrados tambien se puede hallar como se muestra a continuacion
>> A = [2, 1; 1, 2; 0, 0], b = [1; 1; 1], inv(A

A) A

b
14. El determinante de una matriz se calcula con el comando det(A)
>> A = [2, 1; 1, 2], det(A)
15. El rango de una matriz se calcula con el comando rank(A)
>> A = [2, 1; 1, 2], rank(A)
16. El espacio columna de una matriz A se calcula con el comando colspace(a) pero se necesita usar el comando
especial sym(a) para que MatLab entienda las columnas de A como vectores
>> a = sym([1, 2; 1, 2; 1, 1]), colspace(a)
Autor: OMAR DAR

IO SALDARRIAGA 5
17. El polinomio caracterstico de una matriz A se calcula con el comando poly(A).
Advertencia: MatLab escribe solamente los coecientes del polinomio caracteristico
>> c = [1 2 1; 1 2 0; 1 1 3/4]; poly(c)
ans =
1.00 -3.75 5.25 0.00
Esta respuesta signica que el polinomio caraterstico de A es
3
3,75
2
+ 5,25.
18. Como los valores propios son las races del polinomio caraterstico, los valores propios tambien se pueden
calcular con el comando roots(poly(A)), el cual nos daria las races del polinomio caracterstico
>> c = [1 2 1; 1 2 0; 1 1 3/4]; roots(polyc)
ans =
1.8750 + 1.3170i
1.8750 - 1.3170i
-0.0000
Advertencia: No se debe usar el formato format bank
2
a que este formato no muestra la parte imaginaria.
19. Tambien se puede usar el comando poly(sym(A)), de esta manera se obtiene el poinomio caraterstico y
no solo los coecientes
>> c = [1 2 1; 1 2 0; 1 1 3/4]; poly(sym(c))
ans =
x3 15/4 x2 + 21/4 x
20. Si se quiere factorizar el polinomio caraterstico, para encontrar por ejemplo los valores propios, se usa el
comando factor(p)
>> c = [1 2 1; 1 2 0; 1 1 3/4]; factor(poly(sym(c)))
21. Para calcular los valores propios de una matriz A se ejecuta el comando eig(c)
Advertencia: No se debe usar el formato format bankporque estte podria eliminar la parte imaginaria
de los valores propios complejos, se debe usar format short.
o
format rat
>> format short
>> c = [1 2 1; 1 2 0; 1 1 3/4]; eig(c)
22. Para calcular los valores y vectores propios de una matriz A se ejecuta el comando [V, D] = eig(c). MatLab
escribira los vectores propios en la matriz V y los valores propios en la diagonal de la matriz D. Estas
matrices V y D son tambien las matrices de la diagonalizacion de A
6
>> format short (o format rat)
>> c = [1 2 1; 1 2 0; 1 1 3/4]; [V, D] = eig(c)
23. Las potencias de una matriz A se calculan usando el comando A seguido por la potencia. Por ejemplo A
2
se calcula con el comando A2
>> A = [1 2 1; 1 2 0; 1 1 3/4]; A2
24. Si se tiene una matriz A de tamano mn y un vector columna b con m componentes, se puede aumentar
la matriz A por el vector b con el comando [A, b]
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4], b = [1; 0; 2; 1], [A, b]
25. Si se tienen dos matrices A y B de tamanos mn y mq, respectivamente, se puede aumentar la matriz
A por la matriz B con el comando [A, B]
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4], B = [1 3; 1 1; 0 0; 0 4], [A, B]
26. Si se tiene una matriz A de tamano mn y un vector la b con n componentes, se pueden aumentar las
las de A agregando el vector b en la parte inferior de la matriz con el comando [A; b]
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4], b = [1 0 2 1], [A; b]
27. Si se tienen dos matrices A y B de tamanos mn y q n, respectivamente, se pueden aumentar las las
de A agregando la matriz B en la parte inferior de la A con el comando [A; B]
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4], B = [1 3 1 1; 0 0 0 4], [A; B]
28. Si se quiere extraer la i-esima la de una matriz A se usa el comando A(i, :). Por ejemplo si se quiere
extraer la tercera la de una matriz A se escribe A(3, :)
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4], A(3, :)
29. Si se quiere denir una matriz formada por varias las de una matriz A, se pegan estas en una matriz
como se muestra en el siguiente ejemplo
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4], [A(3, :); A(4, :)]
Esta instruccion produce una matriz formada por las las tercera y cuarta de la matriz A.
30. Si se quiere extraer la i-esima columna de una matriz A se usa el comando A(:, i). Por ejemplo si se quiere
extraer la segunda columna de una matriz A se escribe A(:, 2)
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4], A(:, 2)
31. Si se quiere denir una matriz formada por varias columnas de una matriz A, se pegan estas en una matriz
como se muestra en el siguiente ejemplo
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4], [A(:, 2); A(:, 4)]
Esta instruccion produce una matriz formada por las columnas segunda y cuarta de la matriz A.
Captulo 1

Algebra de matrices
1.1. Sistemas de Ecuaciones Lineales
Comenzaremos esta seccion ilustrando un ejemplo del tema central del captulo, el cual es la solucion de sis-
temas de ecuaciones lineales, y utilizaremos este ejemplo para introducir el metodo de solucion usando reduccion
Gauss-Jordan en matrices.
Para comenzar, consideremos el siguiente sistema de dos ecuaciones en dos incognictas:
x + 2y = 3 (1.1)
4x + 5y = 6
Hay varios metodos para resolver este sistema, entre los cuales destacaremos los siguientes:
1. Por eliminaci on: Este metodo usa dos operaciones basicas para llevar a la solucion de un sistema lineal las
cuales son:
1. Sumar un multiplo de una ecuacion a otra ecuacion con el objetivo de eliminar una de las variables, por
ejemplo la operacion
-4 ecuacion(1.1)+ ecuacion(1.2)
elimina la variable x y produce la ecuacion 3y = 6.
2. Multiplicar una ecuacion por una constante no cero con el objetivo de simplicar la ecuaciones, por ejemplo
si multiplicamos la nueva ecuacion 3y = 6 por
1
3
obtenemos y = 2.
3. Finalmente si multiplicamos esta ultima ecuacion (y = 2) por -2 y se la sumamos a la ecuacion (1.1) y
obtenemos x = 1, obteniendo as la solucion al sistema: x = 1 y y = 2.
2. Determinantes: El metodo de Cramer (ver Seccion 5.5) nos da una formula para la solucion del sistema como
un cociente de determinantes de la siguiente forma:
7
8
x =

3 2
6 5

1 2
4 5

=
3
3
= 1 y y =

1 3
4 6

1 2
4 5

=
6
3
= 2
En general, si tenemos un sistema de dos ecuaciones lineales en dos incognitas, hay tres posibles respuestas y
estas son:
1. El sistema tiene solucion unica, (como en el ejemplo ilustrado)
2. El sistema no tiene solucion, caso en el cual, decimos que es inconsistente
3. el sistema tiene innitas soluciones, caso en el cual decimos que el sistema es redundante.
Cuando tratamos de resolver un sistema 3x3, de tres ecuaciones en tres incognitas, tambien podemos obtener,
al igual que en el caso 2x2, tres posibles respuestas: solucion unica, solucion vacia o innitas soluciones.
Uno de los objetivos de la seccion es mostrar que a un en dimensiones mayores se presentan exactamente las
mismas tres posibilidades. Para resolver el caso general necesitamos denir la nocion de matriz y asociar a cada
sistema lineal una de estas y usarla para resolverlo. Tambien introduciremos la nocion de operacion elemental
de la, las cuales seran las equivalentes a las mencionadas en el metodo de eliminacion al principio de la seccion.
Denicion 1.1. Una matriz es un arreglo rectangular de n umeros reales en m las y n columnas
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
;
donde a
ij
es un n umero real para i = 1, . . . , m y j = 1, . . . , n. A esta matriz se le llama una matriz de tama no
mn.
Ejemplo 1.1. (MatLab) A =
_
_
1 1
2 0
_
_
es una matriz de tama no 22
* Esta matriz la denimos en MatLab de la siguiente forma
>> A = [1, 1; 2, 0]
y MatLab guardaria la matriz como el arreglo rectangular
A =
1 1
2 0
En general, para denir matrices en MatLab se escriben las entradas entre corchetes, escribiendo las entradas
separadas con coma la por la separando las las con punto y coma.
A un sistema lineal
a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
a
m1
x
1
+ +a
mn
x
n
= b
m
de mecuaciones con n incognitas, se le asocia la matriz
_

_
a
11
a
1n
b
1
.
.
.
.
.
.
.
.
.
.
.
.
a
mn
a
1n
b
m
_

_
de tama no m(n+1), llamada la matriz de coecientes. Cada la de esta matriz tiene los coecientes de cada
una de las ecuaciones incluyendo el termino constante al nal de la misma y hay una columna por cada incognita
mas una columna extra que contiene los terminos independientes.
Autor: OMAR DAR

IO SALDARRIAGA 9
Ejemplo 1.2. Al sistema lineal
x + 2y = 3
4x + 5y = 6
le podemos asignar la matriz de coecientes
_
_
1 2 3
4 5 6
_
_
.
Las operaciones descritas al principio de la seccion que se pueden realizar sobre las ecuaciones de un sistema
lineal se traducen en operaciones de la sobre matrices, llamadas operaciones elementales de la, las cuales
describimos a continuacion.
Denicion 1.2. Sea A una matriz de tama no m n, una operacion elemental de la sobre A es una de las
siguientes operaciones:
1. multiplicar una la por una constante no cero,
2. sumar un multplo de una la a otra la,
3. intercambiar dos las.
Ejemplo 1.3. Al principio de la seccion resolvimos el sistema de ecuaciones
x + 2y = 3
4x + 5y = 6
aplicando las opera-
ciones
1. -4 ecuacion 1 mas ecuacion 2,
2.
1
3
de la nueva ecuacion,
3. -2 ecuacion (y = 2) mas ecuacion (1.1).
Como en la matriz asociada a un sistema lineal las ecuaciones se representan en las, estas operaciones se
traducen en operaciones de la, de hecho, la primera operacion se traduce en la operaci on de la 4F
1
+F
2
F
2
,
la segunda en
1
3
F
2
F
2
y la tercera en 2F
2
+F
1
F
1
. Al aplicar estas operaciones obtenemos:
_
_
1 2 3
4 5 6
_
_
4F1+F2F2
_
_
1 2 3
0 3 6
_
_
1
3
F2F2
_
_
1 2 3
0 1 2
_
_
2F2+F1F1
_
_
1 0 1
0 1 2
_
_
De esta ultima matriz obtenemos las ecuaciones x = 1 y y = 2 las cuales son la solucion al sistema.
En este ejemplo se ilustra el metodo de solucion de un sistema lineal con operaciones de la sobre matrices, el
cual es el objetivo de la seccion. Para ilustrar el caso general debemos mostrar como aplicar operaciones de la
sobre una matriz de una manera eciente que garantice una solucion, una manera efectiva es llevar la matriz a
su forma escalonada reducida, la cual denimos a continuacion.
Denicion 1.3. Sea A una matriz de tama no m n, decimos que A esta en forma escalonada reducida si A
satisface las siguientes condiciones:
1. todas las las nulas (las donde todas las entradas, en esa la, son ceros) estan en la parte inferior de la
matriz,
10
2. La primera entrada no cero de una la no nula es un uno, a esta entrada se le llama pivote,
3. Si dos las consecutivas son no nulas, entonces el pivote de la de arriba esta mas a la izquierda de la de
abajo,
4. Todas las entradas de una columna con un pivote son cero, excepto la entrada donde esta el pivote.
Ejemplo 1.4. Las siguientes matrices estan en forma escalonada reducida:
A =
_

_
1 0 0
0 1 0
0 0 1
_

_
B =
_

_
1 0
0 1
0 0 0
_

_
C =
_

_
1 0
0 0 1
0 0 0
_

_
D =
_

_
1
0 0 0
0 0 0
_

_
E =
_

_
0 1 0
0 0 1
0 0 0
_

_
F =
_

_
0 1
0 0 0
0 0 0
_

_
G =
_

_
0 0 1
0 0 0
0 0 0
_

_
De hecho estas son todas las formas escalonadas reducidas de tama no 3 3.
Ejemplo 1.5. (MatLab) La forma escalonada reducida de una matriz se calcula en MatLab con el comando
rref como se muestra a continuacion. Sea A =
_

_
1 2 3 1
0 3 2 1
2 1 8 1
_

_
,
>> A = [1, 2, 3, 1; 0, 3, 2, 1; 2, 1, 8, 1]; R = rref(A)
R =
1 0 13/3 1/3
0 1 2/3 1/3
0 0 0 0
El proceso de aplicar operaciones elementales de la sobre una matriz hasta llevarla a su forma escalonada
reducida se le conoce como reduccion Gauss-Jordan. Este proceso nos lleva tambien a determinar si el sistema
tiene solucion y a encontrarla en el caso de que exista (Ver Teorema 1.2). Primero debemos garantizar que es
posible llevar cualquier matriz a su forma escalonada reducida por medio de operaciones elementales.
Teorema 1.1. Toda matriz se puede reducir una forma escalonada reducida unica
Teorema 1.2. Considere el sistema de ecuaciones
a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
a
m1
x
1
+ +a
mn
x
n
= b
m
, sea A =
_

_
a
11
a
1n
b
1
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
mn
b
m
_

_
la matriz de coecientes asociada al sistema y sea A

la forma escalonada reducida de A. Entonces el sistema


tiene:
1. solucion unica si y solo si A

tiene pivote en todas las columnas excepto la ultima,


2. solucion vacia si y solo si A

tiene pivote en la ultima columna,


Autor: OMAR DAR

IO SALDARRIAGA 11
3. innitas soluciones si y solo si A

no tiene pivote en la ultima columna y hay al menos otra columna sin


pivote.
Corolario 1.3. Un sistema de ecuaciones con mas variables que ecuaciones (n > m) nunca tiene solucion
unica.
Observacion 1.1. Sea A la matriz del Teorema 1.2 asociada a un sistema de ecuaciones lineales y A

su
forma escalonada reducida. El Teorema 1.2 determina, usando la matriz A

, si el sistema tiene soluciones


y cuantas soluciones hay ( unica o innitas). La matriz A

tambien nos permite encontrar las soluciones de


manera explicita, como lo describimos a continuacion.
1. Si el sistema tiene solucion unica entonces m n y la solucion esta dada por x
1
= c
1
, . . . , x
n
= c
n
, donde
c
1
, . . . , c
n
son las entradas en la ultima columna de A

.
2. Si el sistema tiene innitas soluciones entonces por el Teorema 1.2 hay columnas sin pivote y la solucion
queda en terminos de estas variables, a las cuales se le llamara variables libres. En particular, si j
1
, . . . , j
k
son las columnas de A

con pivote, entonces una solucion al sistema est a dada por x


j1
= c
1
, . . . , x
j
k
= c
k
y x
i
= 0 si x
i
es una variable libre.
Ejemplo 1.6. Determine si el sistema
x
1
+x
2
+x
3
+x
4
= 4
x
3
x
4
= 3
tiene soluciones y en el caso armativo escribalas
de forma parametrica
Solucion La matriz de coecientes es
_
_
1 1 1 1 4
0 0 1 1 3
_
_
y su forma escalonada reducida esta dada por A

=
_
_
1 1 0 2 1
0 0 1 1 3
_
_
. Notese que las columnas 1 y 3 de A

tienen pivote, entonces por la Observacion 1.1, una


solucion particular al sistema esta dada por x
1
= 1, x
3
= 3 y las variables libres iguales a cero, es decir,
x
2
= x
4
= 0. Las innitas soluciones al sistema se pueden dar en forma parametrica leyendo el sistema de
ecuaciones de la matriz A

, las cuales son x


1
+ x
2
+ 2x
4
= 0 y x
3
x
4
= 3, y despejando en terminos de las
variables libres
x
1
= 1 x
2
2x
4
(1.2)
x
3
= 3 + x
4
De acuerdo a estas ecuaciones las variables x
2
y x
4
toman valores arbitrarios y cada par de valores que se le
asignen a estas variables, se tiene una solucion particular, as de esta manera las ecuaciones (1.2) nos dan todas
las soluciones al sistema de manera parametrica.
Ejemplo 1.7. Considere el sistema
x + 2y + 3z = 1
3y 2z = 1
2x y 8z = 1
. La matriz aumentada asociada al sistema esta dada
12
por A =
_

_
1 2 3 1
0 3 2 1
2 1 8 1
_

_
cuya forma escalonada reducida R fue calculada en en el Ejemplo 1.5
R =
_

_
1 0 4,3333 0,3333
0 1 0,6667 0,3333
0 0 0 0
_

_
=
_

_
1 0
13
3
1
3
0 1
2
3

1
3
0 0 0 0
_

_
De aqui tenemos que el sistema tiene innitas soluciones las cuales estan dadas por
x =
1
3
+
13
3
z
y =
1
3
+
2
3
z
Ejemplo 1.8. (MatLab) El sistema
x + 2y + 3z = 1
2x 4y 6z = 1
2x y 8z = 1
tiene matriz asociada al sistema dado por A =
_

_
1 2 3 1
2 4 6 1
2 1 8 1
_

_
. Usando MatLab para calcular la forma escalonada reducida de A obtenemos
>> A = [1, 2, 3, 1; 2, 4, 6, 1; 2, 1, 8, 1]; R=rref(A)
R =
1 0 4,3333 0
0 1 0,6667 0
0 0 0 1
De aqui tenemos que la forma escalonada reducida R de la matriz A es la matriz
R =
_

_
1 0 4,3333 0
0 1 0,6667 0
0 0 0 1
_

_
.
Como esta ultima matriz tiene un pivote en la ultima columna, entonces por el Teorema 1.2 el sistema no tiene
solucion.
Denicion 1.4. Un sistema lineal homogeneo es un sistema lineal de la forma
a
11
x
1
+ +a
1n
= 0
.
.
.
a
m1
x
1
+ +a
mn
= 0
,
es decir, un sistema donde todos los terminos independientes son cero.
Corolario 1.4. Un sistema lineal homogeneo siempre tiene solucion.
Autor: OMAR DAR

IO SALDARRIAGA 13
Terminamos la seccion con la denicion de rango de una matriz.
Denicion 1.5. Sea A una matriz y A

su forma escalonada reducida. Denimos el rango de A, denotado por


rango(A), como rango(A) = # de pivotes de A

.
Ejemplo 1.9. Para las matrices del Ejemplo 1.4 se tiene que
rango(A) = 3, rango(B) = rango(C) = rango(E) = 2 y
rango(D) = rango(F) = rango(G) = 1.
1.1.1. Ejercicios
1. Use el metodo Gauss-Jordan para resolver los siguientes sistemas.
a.
x 2y + 3z = 7
2x +y z = 7
2x y z = 7
b.
2x + 4y 4z = 6
2x 5y + 4z = 6
x + 16y 14z = 3
c.
x +y z = 7
x y +z = 4
2x +y +z = 3
d.
x + 2y + 3z = 1
4x + 5y + 6z = 2
7x + 8y + 9z = 4
e.
x + 2y + 3z +w = 7
4x + 5y + 6z + 2w = 7
7x + 8y + 9z + 4w = 7
f.
x + 2y + 3z + 4w = 1
x + 2y + 3z + 3w = 2
x + 2y + 2z + 2w = 3
x + y + z + w = 1
2. Encuentre las soluciones parametricas al sistema y uselas para calcular dos soluciones particulares:
x 2y + 3z +w = 3
y = 2
w = 1
3. Demuestre que el sistema
2x y + 3z = a
3x +y 5z = b
5x 5y + 21z = c
es consistente si y solo si c = 2a 3b.
4. Para los sistemas cuyas matrices aumentadas estan dadas en los numerales a.-c. determine los valores a y
b para los cuales el sistema tenga
I. ninguna solucion
II. solucion unica
III. innitas soluciones y en este caso dar dos soluciones particulares.
14
a.
_

_
1 0 a 0
0 1 b 1
0 0 a +b a b 2
_

_
b.
_

_
1 0 a 0
0 1 b 1
0 0 2a +b a +b 1
_

_
c.
_

_
1 0 a 0
0 1 b 1
0 0 a b a b 2
_

_
5. Muestre que el sistema
ax +by = 0
cx +dy = 0
tiene solucion si y solo si ad bc = 0.
6. Haga una lista de todas las matrices 3x4 que esten en forma escalonada reducida.
1.2. Matrices y Vectores
Denicion 1.6. Denimos vector columna(la) como una matriz con una sola columna(la).
Ejemplo 1.10. v =
_

_
1
2
1
_

_
es un vector columna y w =
_
0 1
_
es un vector la.
Denicion 1.7. (Operaciones con matrices y vectores)
1. (Suma de matrices) Sean A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
y B =
_

_
b
11
b
1n
.
.
.
.
.
.
.
.
.
b
m1
b
mn
_

_
matrices del mismo tama no,
denimos la matriz A+B como la matriz dada por:
A+B =
_

_
a
11
+b
11
a
1n
+b
1n
.
.
.
.
.
.
.
.
.
a
m1
+b
m1
a
mn
+b
mn
_

_
.
Similarmente, denimos la suma de los vectores x =
_

_
x
1
.
.
.
x
n
_

_
y y =
_

_
y
1
.
.
.
y
n
_

_
como el vector x +y =
_

_
x
1
+y
1
.
.
.
x
n
+y
n
_

_
.
2. (Producto de una matriz por un escalar) Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
una matriz de tama no m n y un
escalar, denimos la matriz A como la matriz dada por
A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
.
Autor: OMAR DAR

IO SALDARRIAGA 15
Ejemplo 1.11. (MatLab) Sean A =
_

_
1 2
1 3
0 1
_

_
y B =
_

_
2 2
3 1
1 1
_

_
. Podemos calcular las matrices A + B,
AB y 3A en MatLab como sigue
>> A = [1, 2; 1, 3; 0, 1]; B = [2, 2; 3, 1; 1, 1]; A+B
A+B=
1 0
2 2
1 2
>> AB
AB =
3 4
4 4
1 0
>> 2 A
2 A=
2 4
2 6
0 2
Notacion 1. Denotaremos por O
mn
a la matriz de ceros de tama no m n, o simplemente por O si no hay
lugar a confusion y al vector cero lo denotaremos por
n
o simplemente si no hay lugar a confusi on.
El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores.
Teorema 1.5. Sean A, B y C matrices de tama nos mn, y escalares, entonces tenemos
1. (A+B) +C = A+ (B +C)
3. A+ (1)A = 1A+A = O
5. (A+B) = A+B
7. ()A = (A)
2. A+O
mn
= O
mn
+A = A
4. A+B = B +A
6. ( +)A = A+A
8. 1A = A
El siguiente teorema establece las propiedades analogas que se cumplen para vectores.
Teorema 1.6. Sean x, y y z vectores con n componentes, y escalares, entonces tenemos
1. (x +y) +z = x + (y +z)
3. x + (1)x = 1x +x =
n
5. (x +y) = x +y
7. ()x = (x)
2. x +
n
=
n
+x = x
4. x +y = y +x
6. ( +)x = x +x
8. 1x = x
16
1.2.1. Ejercicios
1. Ejecutar las operaciones indicadas con los vectores v =
_

_
1
1
3
_

_
, w =
_

_
3
1
2
_

_
y z =
_

_
2
5
0
_

_
.
a. v +w b. 3v c. 3w d. 3v + 2d 3w
2. Ejecutar las operaciones indicadas con las matrices A =
_

_
1 2
1 3
0 1
_

_
y B =
_

_
2 2
3 1
1 1
_

_
y z =
_

_
2
5
0
_

_
.
a. A+B b. AB c. 3A d. 3A+ 2B
Sean v, w y z vectores en R
n
y y R, demuestre lo siguiente:
1.3. Producto de matrices
Comenzaremos la seccion con las deniciones de producto interno de vectores y transpuesta de una matriz,
las cuales no permitiran denir el producto de matrices.
Denicion 1.8. Sean x =
_

_
x
1
.
.
.
x
n
_

_
y y =
_

_
y
1
.
.
.
y
n
_

_
vectores de n componentes, denimos el producto interno o
producto escalar de los vectores x y y, denotado por x y, por la formula
x y = x
1
y
1
+ +x
n
y
n
=
n

i=1
x
i
y
i
.
Denicion 1.9. Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
una matriz de tama no mn, denimos la matriz transpuesta de
A, denotada por A
t
, como la matriz que se obtiene al intercambiar las las y las columnas de A, esto es:
A
t
=
_

_
a
11
a
m1
.
.
.
.
.
.
.
.
.
a
1n
a
mn
_

_
Ahora pasemos a denir el producto de matrices.
Autor: OMAR DAR

IO SALDARRIAGA 17
Denicion 1.10. (Producto de matrices) Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
una matriz de tama no m n y B =
_

_
b
11
b
1q
.
.
.
.
.
.
.
.
.
b
n1
b
nq
_

_
de tama no nq. Denimos el producto A B como la matriz A B de tama no mq dada por
AB =
_

_
c
11
c
1q
.
.
.
.
.
.
.
.
.
c
m1
c
mq
_

_
donde
c
ij
=
n

k=1
a
ik
b
kj
= a
i1
b
1j
+a
i2
b
2j
+ +a
in
b
nj
para i = 1, . . . , m y j = 1, . . . , q.
La ij-esima entrada de la matriz AB es la suma del producto de las entadas en la la i de A por las entradas
de la columna j de B:
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
_

_
c
11
c
1j
c
1q
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
nj
c
nq
_

_
Este producto coincide con el producto escalar
_
A
i
_
t
B
j
donde A
i
es la i-esima la de A y B
j
es la j-esima
columna de B.
Ejemplo 1.12. Calcular el producto AB donde A =
_
_
1 1 0
2 2 3
_
_
y B =
_

_
2 0
2 1
1 0
_

_
.
18
Solucion Vamos a calcular cada una de las entradas c
ij
de la matriz AB:
c
11
=
_
A
1
_
t
B
1
=
_
1 1 0
_
t

_
2
2
1
_

_
=
_

_
1
1
0
_

_
2
2
1
_

_
= 2 + 2 + 0 = 4,
c
12
=
_
A
1
_
t
B
2
=
_
1 1 0
_
t

_
0
1
0
_

_
=
_

_
1
1
0
_

_
0
1
0
_

_
= 0 1 + 0 = 1,
c
21
=
_
A
2
_
t
B
1
=
_
2 2 3
_
t

_
2
2
1
_

_
=
_

_
2
2
3
_

_
2
2
1
_

_
= 4 4 3 = 3,
c
22
=
_
A
2
_
t
B
2
=
_
2 2 3
_
t

_
0
1
0
_

_
=
_

_
2
2
3
_

_
0
1
0
_

_
= 0 + 2 + 0 = 2,
De estos resultados tenemos
AB =
_
_
c
11
c
12
c
21
c
22
_
_
=
_
_
4 1
3 2
_
_
.
Ejemplo 1.13. (MatLab) Sean A =
_
_
1 1 0
2 2 3
_
_
y B =
_

_
2 0
2 1
1 0
_

_
las matrices del ejemplo anterior,
podemos calcular el producto de matrices en MatLab con el comando >> AB como se muestra a continuacion:
>> A = [1, 1, 0; 2, 2, 3], B = [2, 0; 2, 1; 1, 0], C = A B, D = B A
C=
4 1
3 2
D=
2 2 0
0 4 3
1 1 0
El producto de matrices no es en general conmutativo pero si satisface la asociatividad.
Teorema 1.7. Sean A, B y C matrices de tama nos mn, n p y p q, respectivamente. Entonces se tiene
que
A(BC) = (AB)C.
Demostracion. Sean a
ij
, b
ij
y c
ij
las entradas de las matrices A, B y C, respectivamente, y sean d
ij
y e
ij
las
entradas de las matrices AB y BC, respectivamente. Por denicion del producto de matrices tenemos que
d
ij
=
n

k=1
a
ik
b
kj
y e
ij
=
p

h=1
b
ih
c
hj
.
Autor: OMAR DAR

IO SALDARRIAGA 19
Ahora, sean f
ij
y g
ij
las entradas de las matrices A(BC) y (AB)C, respectivamente. Entonces
f
ij
=
n

k=1
a
ik
e
kj
=
n

k=1
a
ik
p

h=1
b
kh
c
hj
=
n

k=1
p

h=1
a
ik
b
kh
c
hj
y (1.3)
g
ij
=
p

h=1
d
ih
c
hj
=
p

h=1
n

k=1
a
ik
b
kh
c
hj
=
n

k=1
p

h=1
a
ik
b
kh
c
hj
(1.4)
De las ecuaciones (1.3) y (1.4) tenemos que (AB)C = A(BC).
El producto de matrices cuadradas satisface otras propiedades importantes, entre ellas la existencia de una
matriz neutra bajo el producto, a la cual se le llama la matriz identidad y se denota por I
n
. Esta matriz se
dene por I
n
=
_

_
1 0
.
.
.
.
.
.
.
.
.
0 1
_

_
, es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal
son uno y ceros por fuera esta. Listamos las propiedades a continuacion.
Teorema 1.8. Sean A y C matrices de tama nos mn y n q respectivamente, entonces se tiene lo siguiente
1. I
m
A = A y AI
n
= A. En particular si A es una matriz cuadrada de tama no nn entonces AI
n
= I
n
A = A.
2. O
qm
A = O
qn
y AO
nq
= O
mq
para cualquier q = 1, 2, 3, . . . . En particular si A es una matriz cuadrada de
tama no n n entonces AO
nn
= O
nn
A = O
nn
.
3. (A+B)C = AC +BC, donde B es una matriz de tama no mn.
4. A(B +C) = AB +AC, donde B es una matriz de tama no n q.
A continuacion listamos otras propiedades del producto de matrices que nos van a ser muy utiles especialmente
para simplicar algunas demostraciones en los captulos.
Otras propiedades del producto de matrices A continuacion listamos tres propiedades, que aunque parecen
no tener mucho sentido, seran muy utiles en muchas demostraciones en el resto del libro.
Lema 1.9. Sean A =
_

_
A
1
.
.
.
A
m
_

_
una matriz de tama no m n donde A
1
, . . . , A
m
son las las de A, B =
_
B
1
B
q
_
de tama no n q donde B
1
, . . . , B
q
son las columnas de B y x =
_

_
x
1
.
.
.
x
q
_

_
un vector columna,
entonces
1. Las columnas del producto AB son los vectores AB
1
, . . . , AB
q
, es decir
AB =
_
AB
1
AB
q
_
.
20
2. las las del producto AB son los vectores la A
1
B, . . . , A
m
B, es decir AB =
_

_
A
1
B
.
.
.
A
m
B
_

_
.
3. El producto Bx es el vector x
1
B
1
+ + x
q
B
q
. Es decir, el vector Bx es una combinacion lineal de las
columnas de B con coecientes tomados de x.
Ejemplo 1.14. Sean A =
_
_
1 3
4 1
_
_
, B =
_
_
1 0 3
2 1 1
_
_
y x =
_

_
2
3
1
_

_
. El producto AB se puede ver de la
siguientes formas
AB =
_
_
_
1 3
_
B
_
4 1
_
B
_
_
y
AB =
_
_
A
_
_
1
2
_
_
A
_
_
0
1
_
_
A
_
_
3
1
_
_
_
_
=
_
_
1
_
_
1
4
_
_
+ 2
_
_
3
1
_
_
0
_
_
1
4
_
_
1
_
_
3
1
_
_
3
_
_
1
4
_
_
+ 1
_
_
3
1
_
_
_
_
=
_
_
5 3 0
2 1 11
_
_
.
El producto Bx es una combinacion de las columnas de B:
Bx = 2
_
_
1
2
_
_
3
_
_
0
1
_
_
+ 1
_
_
3
1
_
_
=
_
_
5
8
_
_
.
El producto de matrices sirve para establecer otra coneccion entre matrices y sistemas de ecuaciones lineales. Sea
a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
a
m1
x
1
+ +a
mn
x
n
= b
m
un sistema de ecuaciones lineales, entonces por denicion del producto de matrices
tenemos que este sistema es equivalente a la ecuacion matricial Ax = b donde A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
, x =
_

_
x
1
.
.
.
x
n
_

_
y b =
_

_
b
1
.
.
.
b
m
_

_
. En lo que sigue del libro usaremos la ecuacion matricial Ax = b en lugar del sistema de ecuaciones.
Finalizamos la seccion con el siguiente resultado
Teorema 1.10. Sea A una matriz de tamano m n y A

su forma escalonada reducida. Entonces Ax = 0 si


y solo si A

x = 0, es decir, x es una solucion al sistema homogeneo Ax = 0 si y solo si x es una solucion al


sistema A

x = 0.
Autor: OMAR DAR

IO SALDARRIAGA 21
Demostracion. Si A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
, entonces el sistema es equivalente a
a
11
x
1
+ +a
1n
x
n
= 0
.
.
.
a
m1
x
1
+ +a
mn
x
n
= 0
el
cual se puede resolver aplicando las operaciones elementales de la a la matriz aumentada
_
A 0
_
. Si aplicamos
operaciones hasta llegar a la forma escalonada reducida obtenemos la matriz
_
A

0
_
, la cual nos da las soluciones
al sistema A

x = 0. Ahora como las operaciones elementales son reversibles, comenzando con el sistema A

x = 0,
podemos llegar al sistema Ax = 0. Por tanto Ax = 0 si y solo si A

x = 0
1.4. Inversa de una matriz
Denicion 1.11. Sea A una matriz cuadrada de tama no nn, decimos que A es invertible si existe una matriz
B de tama no n n tal que AB = BA = I
n
.
Ejemplo 1.15. La matriz A =
_
_
2 1
1 1
_
_
es invertible ya que el producto
A
_
_
1 1
1 2
_
_
=
_
_
2 1
1 1
_
_
_
_
1 1
1 2
_
_
=
_
_
1 0
0 1
_
_
= I
2
.
Ejemplo 1.16. No toda matriz tiene inversa, por ejemplo, si la matriz A =
_
_
1 1
0 0
_
_
tuviera una inversa,
entonces existiria una matriz B =
_
_
a c
b d
_
_
tal que AB = BA = I
2
. Sin embargo AB =
_
_
a +b c +d
0 0
_
_
entonces
tendriamos que
_
_
a +b c +d
0 0
_
_
= I
2
=
_
_
1 0
0 1
_
_
por tanto 0=1 lo cual es una contradccion y A no puede ser
invertible.
Las matrices inversas satisfacen las siguientes propiedades.
Lema 1.11. Sea A una matriz n n una matriz invertible, entonces la inversa es unica.
Demostracion. Sean B y C matrices inversas de A, entonces tenemos que
AB = BA = I
n
y AC = CA = I
n
.
Entonces tenemos que:
B = BI
n
= B(AC) = ( BA
..
In
)C = I
n
C = C.
Notacion 2. Como la inversa de una matriz invertible es unica, entonces de ahora en adelante denotaremos
la inversa de A por A
1
.
22
Teorema 1.12. Sean A y B matrices de tama nos n n, entonces:
1. Si A y B son invertibles entonces AB es invertible y (AB)
1
= B
1
A
1
.
2. A es invertible si y solo si A
t
es invertible y (A
t
)
1
=
_
A
1
_
t
.
Ejemplo 1.17. Sean A =
_

_
1 1 3
1 2 2
2 0 2
_

_
y B =
_

_
1 1 2
0 0 1
1 2 2
_

_
, de acuerdo al teorema anterior hay dos maneras
de calcular (AB)
1
, las cuales son multiplicar A y B y despues calcular su inversa, o calcular A
1
y B
1
y
multiplicarlas. Aca exhibimos los calculos en MatLab
>> A = [1 1 3; 1 1 2; 2 0 2], B = [1 1 1; 0 0 1; 2 1 2], C = inv(A B)
C =
1 0 1
3 3 1
1 2 1/2
>> A = [1 1 3; 1 1 2; 2 0 2], B = [1 1 1; 0 0 1; 2 1 2], D = inv(B) inv(A)
D =
1 0 1
3 3 1
1 2 1/2
Notese que C = D.
El teorema tambien nos dice que hay dos maneras de calcular la inversa de A
t
, una de forma directa y la otra
se obitene al transponer A
1
>> A = [1 1 3; 1 1 2; 2 0 2], D = transpose(inv(A))
D =
1 1 1
1 2 1
1/2 1/2 0
Se obtiene lo mismo si se calcula de la siguiente forma
>> E = inv(transpose(A))
E =
1 1 1
1 2 1
1/2 1/2 0
Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene solucion unica y esta es facl
de calcular como se muestra a continuacion.
Teorema 1.13. Sea Ax = b un sistema de ecuaciones lineales de n ecuaciones con n incognitas. Si A es
invertible entonces el sistema tiene soluci on unica y esta esta dada por x = A
1
b.
Autor: OMAR DAR

IO SALDARRIAGA 23
Ejemplo 1.18. (MatLab) Resuelva el sistema lineal
x y + 3z = 2
x 2y + 2z = 1
2x + 2z = 0
.
Solucion El sistema es equivalente a la ecuacion Ax = b con A =
_

_
1 1 3
1 2 2
2 0 2
_

_
y b =
_

_
2
1
0
_

_
y de acuerdo al
teorema anterior la solucion esta dada por x = A
1
b la cual calculamos con MatLab
>> A=[1 -1 3;1 -2 2;2 0 2]; b=[2;1;0]; x=inv(A)*b
x =
1
0
1
Entonces la solucion al sistema est a dad por x = 1, y = 0 y z = 1.
1.5. Matrices Elementales
Denicion 1.12. Sea E una matriz de tama no n n, decimos que E es una matriz elemental si E se obtiene
de la identidad al aplicar una operacion elemental de la.
Ejemplo 1.19. Las siguientes matrices son matrices elementales:
A =
_

_
0 1 0
1 0 0
0 0 1
_

_
, B =
_

_
1 2 0
0 1 0
0 0 1
_

_
y C =
_

_
1 0 0
0 3 0
0 0 1
_

_
.
Cada una de estas matrices se obtiene al aplicar una operaci on sobre la matriz identidad, como se muestra a
conitunacion:
_

_
1 0 0
0 1 0
0 0 1
_

_
F
1
F
2
_

_
0 1 0
1 0 0
0 0 1
_

_
= A
_

_
1 0 0
0 1 0
0 0 1
_

_
2F
2
+F
1
F
1
_

_
1 2 0
0 1 0
0 0 1
_

_
= B
_

_
1 0 0
0 1 0
0 0 1
_

_
3F
2
F
2
_

_
1 0 0
0 3 0
0 0 1
_

_
= C
Notacion 3. Como hay tres tipos diferentes de operaciones elementales, hay un n umero igual de tipos de
matrices elementales entonces usaremos la siguiente notacion.
24
E
ij
denotara la matriz elemental que se obtiene al intercambiar las las i y j de la matriz identidad.
E
ij
(c) denotara la matriz que se obtiene al sumar c veces la la i a la la j de la matriz identidad.
E
i
(c) la matriz que se obtiene al multiplicar por la constante c la la i de la matriz identidad.
Ejemplo 1.20. En el ejemplo anterior tenemos que A = E
12
, B = E
21
(2) y C = E
2
(3).
Las operaciones elementales de la son reversibles, es decir, al aplicar una operacion elemental de la, siempre
se puede aplicar otra operacion elemental que deshaga la operacion aplicada. Esto se muestra en le siguiente
ejemplo.
Ejemplo 1.21. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A =
_

_
0 1 3
2 0 2
3 1 0
_

_
, si intercambiamos las las 1 y 2 de esta matriz y aplicaramos nuevamente la misma operacion,
obtenemos la matriz orginal como se muestra a continuaci on
_

_
0 1 3
2 0 2
3 1 0
_

_
F
1
F
2
_

_
2 0 2
0 1 3
3 1 0
_

_
F
1
F
2
_

_
0 1 3
2 0 2
3 1 0
_

_
En general, si se intercambian dos las de una matriz, la operacion se puede revertir al volver a intercambiarlas
una vez mas. Esto a la vez nos dice que la matriz elemental E
ij
, asociada a esta operacion de intercambio de
dos las, es invertible y es igual a su propia inversa, esto es E
1
ij
= E
ij
.
Volviendo a la matriz A, si multiplicamos la la 2 por 1/2 y despues multiplicamos la misma la por 2 obtenemos
la matriz original como se muestra a continuacion
_

_
0 1 3
2 0 2
3 1 0
_

_
1
2
F
2
F
2
_

_
0 1 3
1 0 1
3 1 0
_

_
2F
2
F
2
_

_
0 1 3
2 0 2
3 1 0
_

_
En general, si se multiplica una la de una matriz por una constante c ,= 0, la operacion se puede revertir al
volver a multiplicar la misma la de la nueva matriz por la constante
1
c
. Esto a la vez nos dice que la matriz
elemental E
i
(c), asociada a esta operacion de multiplicar la la i por una constante c ,= 0, es invertible y su
inversa esta dada por E
i
(c)
1
= E
i
_
1
c
_
.
Una vez mas regresamos a la matriz A, si le sumaramos
1
2
de la la 2 a la la 1 y despues le sumaramos
1
2
de la la 2 a la la 1 obtenemos la matriz original como se muestra a continuacion
_

_
0 1 3
2 0 2
3 1 0
_

_
1
2
F
2
+F
1
F
1
_

_
1 1 4
2 0 2
3 1 0
_

_
1
2
F
2
+F
1
F
1
_

_
0 1 3
2 0 2
3 1 0
_

_
En general, si se le suma c veces la la i de una matriz a la la j, la operacion se puede revertir al volver a sumar
c veces la la i a la la j. Esto una vez mas nos dice que la matriz elemental E
ij
(c), asociada a esta operacion
de sumar c veces la la i a la la j, tambien es invertible y su inversa esta dada por E
ij
(c)
1
= E
ij
(c) .
Autor: OMAR DAR

IO SALDARRIAGA 25
De acuerdo a lo observado en el ejemplo anterior tenemos el siguiente resultado.
Teorema 1.14. Toda matriz elemental es invertible y las inversas estan dadas por
E
1
ij
= E
ij
, E
ij
(c)
1
= E
ij
(c) y E
i
(c)
1
= E
i
_
1
c
_
.
Teorema 1.15. Sea A una matriz de tama no m n y E una matriz elemental de tama no m m asociada a
una operacion elemental de la, el producto EA es la matriz que se obtiene al aplicar la operacion elemental de
la a la matriz A.
Al aplicar reduccion Gauss-Jordan a una matriz, por cada operacion elemental de la, hay una matriz elemental,
la matriz que se obtiene al aplicar la operacion de la a la matriz identidad. Como toda matriz se puede reducir
a una forma escalonada reducida, entonces se tiene el siguiente teorema.
Teorema 1.16. Toda matriz se puede expresar como el producto de un n umero nito de matrices elementales
por una matriz en forma escalonada reducida. Mas concretamente, si A es una matriz de tama no mn, existen
matrices elementales E
1
, . . . , E
k
todas de tama no mm y una matriz escalonada reducida A

tal que
A = E
1
E
k
A

.
Ejemplo 1.22. Expresar la matriz A =
_

_
1 1 0
1 1 2
2 2 2
_

_
como un producto de matrices elementales por una matriz
en forma escalonada reducida.
Solucion Necesitamos aplicar reduccion Gauss-Jordan a la matriz A indicando las matrices elementales asoci-
adas a cada operacion aplicada
_

_
1 1 0
1 1 2
2 2 2
_

_
F1+F2F2
. .
E12(1)
_

_
1 1 0
0 0 2
2 2 2
_

_
2F1+F3F3
. .
E13(2)
_

_
1 1 0
0 0 2
0 0 2
_

_
1
2
F2F2
. .
E2(
1
2
)
_

_
1 1 0
0 0 1
0 0 2
_

_
2F2+F3F3
. .
E23(2)
_

_
1 1 0
0 0 1
0 0 0
_

_
Por el Teorema 1.15 tenemos que E
23
(2)E
2
_
1
2
_
E
13
(2)E
12
(1)A = A

con A

=
_

_
1 1 0
0 0 1
0 0 0
_

_
. Entonces se
tiene que
A = E
12
(1)
1
E
13
(2)
1
E
2
_
1
2
_
1
E
23
(2)
1
A

= E
12
(1)E
13
(2)E
2
(2)E
23
(2)A

.
26
Escribiendo las matrices de manera explicita tenemos:
A =
_

_
1 0 0
1 1 0
0 0 1
_

_
_

_
1 0 0
0 1 0
2 0 1
_

_
_

_
1 0 0
0 2 0
0 0 1
_

_
_

_
1 0 0
0 1 0
0 2 1
_

_
_

_
1 1 0
0 0 1
0 0 0
_

_
.
A continuacion vericamos el resultado con MatLab
>> E1=[1 0 0;1 1 0;0 0 1]; E2=[1 0 0;0 1 0;2 0 1]; E3=[1 0 0;0 2 0;0 0 1]; E4=[1 0 0;0 1 0;0 2 1]; A

=[1 1
0;0 0 1;0 0 0]; A = E1 E2 E3 E4 b
A =
1 1 0
1 1 2
2 2 2
Ahora usaremos matrices elementales para dar un criterio de invertibilidad de una matriz. Primero debemos
observar lo siguiente.
Lema 1.17. Sea A una matriz de tama no n n en forma escalonada reducida, entonces A es invertible si y
solo si A = I.
Teorema 1.18. Sea A una matriz de tama no n n, entonces A es invertible si y solo si A se puede escribir
como un producto de matrices elementales.
Ejemplo 1.23. Expresar la matriz A =
_

_
0 1 2
1 1 1
1 2 2
_

_
y su inversa como un producto de matrices elementales.
Solucion Abajo se muestra la reducci on Gauss-Jordan de esta matriz indicando la matriz elemental asociada a
cada operacion aplicada de acuerdo a la Notacion 3
_

_
0 1 2
1 0 1
1 1 2
_

_
F1F2
. .
E12
_

_
1 0 1
0 1 2
1 1 2
_

_
F1+F3F3
. .
E13(1)
_

_
1 0 1
0 1 2
0 1 1
_

_
F2+F3F3
. .
E23(1)
_

_
1 0 1
0 1 2
0 0 1
_

_
F3+F1F1
. .
E31(1)
_

_
1 0 0
0 1 2
0 0 1
_

_
2F3+F2F2
. .
E32(2)
_

_
1 0 0
0 1 0
0 0 1
_

_
De aqu tenemos que E
32
(2)E
31
(1)E
23
(1)E
13
(1)E
12
A = I, por tanto
A
1
= E
32
(2)E
31
(1)E
23
(1)E
13
(1)E
12
y
A = E
1
12
E
13
(1)
1
E
23
(1)
1
E
31
(1)
1
E
32
(2)
1
= E
12
E
13
(1)E
23
(1)E
31
(1)E
32
(2)
Autor: OMAR DAR

IO SALDARRIAGA 27
Las matrices elementales tambien nos ayudan a demostrar un algoritmo para calcular la inversa de una matriz,
el cual enunciamos a continuacion.
Teorema 1.19. (Algoritmo para calcular A
1
) Sea A una matriz invertible de tama no nn, al aplicar reduccion
Gauss-Jordan a la matriz aunmentada
_
A I
_
obtenemos la matriz
_
I A
1
_
. Mas a un, si B es una matriz
de tama no n q, al aplicar reduccion Gauss-Jordan a la matriz aumentada
_
A B
_
obtenemos la matriz
_
I A
1
B
_
.
Ejemplo 1.24. (MatLab) Sea A =
_

_
0 1 2
1 1 1
1 2 2
_

_
calcular A
1
.
Solucion Usando MatLab para calcular la forma escalonada reducida de la matriz
_
A I
_
obtenemos
>> AI = [0 1 2 1 0 0; 1 1 1 0 1 0; 1 2 2 0 0 1]; rref(AI)
1 0 0 0 2 1
0 1 0 1 2 2
0 0 1 1 1 1
De donde se tiene que A
1
=
_

_
0 2 1
1 2 2
1 1 1
_

_
.
Ejemplo 1.25. (MatLab) Sean A =
_

_
0 1 2
1 1 1
1 2 2
_

_
y B =
_

_
1 2
2 3
0 1
_

_
, calcular A
1
B.
Solucion De acuerdo al teorema anterior debemos encontrar la forma escalonada reducida de la matriz aumen-
tada C =
_
A B
_
=
_

_
0 1 2 1 2
1 1 1 2 3
1 2 2 0 1
_

_
, la cual calculamos usando MatLab
>> C = [0 1 2 1 2; 1 1 1 2 3; 1 2 2 0 1]; rref(C)
1 0 0 4 7
0 1 0 5 10
0 0 1 3 6
De acuerdo al teorema anterior A
1
B =
_

_
4 7
5 10
3 6
_

_
.
Observacion 1.2. Si en el teorema anterior las columnas de la matriz B son los vectores b
1
, . . . , b
q
, entonces al
aplicar reduccion Gauss-Jordan a la matriz aumentada
_
A B
_
=
_
A b
1
b
q
_
obtenemos la matriz
A
1
B =
_
A
1
b
1
A
1
b
q
_
, obteniendo soluciones simultaneas a los sistemas Ax = b
1
, . . . , Ax = b
q
.
28
Ejemplo 1.26. Usar la observacion anterior para resolver los sistemas
x
2
+ 2x
3
= 1
x
1
+ x
2
+ x
3
= 2
x
1
2x
2
2x
3
= 0
y
x
2
+ 2x
3
= 2
x
1
+ x
2
+ x
3
= 3
x
1
2x
2
2x
3
= 1
.
Solucion Estos sistemas son equivalentes a las ecuaciones matriciales
Ax = b
1
y Ax = b
2
donde A =
_

_
0 1 2
1 1 1
1 2 2
_

_
, b
1
=
_

_
1
2
0
_

_
y b
1
=
_

_
2
3
1
_

_
y se pueden resolver simultaneamente calculando la forma escalonada reducida de la matriz aumentada
_
A b
1
b
2
_
=
_

_
0 1 2 1 2
1 1 1 2 3
1 2 2 0 1
_

_
, la cual esta dada por (ver ejemplo anterior)
_

_
1 0 0 4 7
0 1 0 5 10
0 0 1 3 6
_

_
y por tanto
las respectivas soluciones a los sistemas estan dadas por
x
1
=
_

_
4
5
3
_

_
y x
2
=
_

_
7
10
6
_

_
.
1.6. Inversa a la izquierda y a la derecha
Denicion 1.13. Sea A una matriz de tama no mn,
1. decimos que A tiene inversa a la izquierda si existe una matriz L de tama no n m tal que LA = I
n
,
2. decimos que A tiene inversa a la derecha si existe una matriz R de tama no n m tal que AR = I
m
.
Tenemos el siguiente criterio para caracterizar las matrices que tienen inversa a la derecha.
Teorema 1.20. Sea A una matriz de tama no mn, entonces las siguientes armaciones son equivalentes:
1. A tiene inversa a la derecha.
2. El sistema Ax = b tiene solucion para cada b R
m
.
3. rango(A) = m = # de las de A,
4. La funcion T
A
: R
n
R
m
denida por T
A
(x) = Ax es sobreyectiva.
Demostracion. Vamos a demostrar que 1 2, 2 3 y 2 4
1 2Si A tiene inversa a la derecha, existe R =
_
r
1
r
m
_
de tama no n m tal que AR = I, donde
r
1
, r
2
, . . . , r
m
son las columnas de R. Sea b = b
1
e
1
+ +b
m
e
m
R
m
entonces el vector c = b
1
r
1
+ +b
m
r
m
Autor: OMAR DAR

IO SALDARRIAGA 29
es una solucion al sistema Ax = b ya que
Ac = A(b
1
r
1
+ +b
m
r
m
) = b
1
Ar
1
+ +b
m
Ar
m
=
_
Ar
1
Ar
m
_
_

_
b
1
.
.
.
b
m
_

_
= A
_
r
1
r
m
_
. .
=R
b
= AR
..
=I
b
= b.
2 1Supongamos que la ecuacion Ax = b tiene solucion para cada b, entonces para cada i = 1, . . . , m, la
ecuacion Ax = e
i
tiene solucion. Sean r
1
, . . . , r
m
las soluciones respectivas dichas ecuaciones. Es decir,
Ar
1
= e
1
, . . . , Ar
m
= e
m
.
Sea R =
_
r
1
r
m
_
, entonces se tiene que
AR = A
_
r
1
r
m
_
=
_
Ar
1
..
=e1
Ar
m
..
=em
_
=
_
e
1
e
m
_
= I
m
Por tanto R es la inversa a la derecha de A.
2 3Supongamos que Ax = b tiene solucion para cada b y supongamos que rango(A) < m, entonces las forma
escalonada A

de A tiene al menos una la de ceros. Sean E


1
, . . . , E
k
matrices elementales tal que A

= E
1
E
k
A
y sea b = E
1
k
E
1
1
e
m
entonces al aplicar reduccion Gauss-Jordan a la matriz
_
A b
_
usando las operaciones
elementales de la asociadas a las matrices E
1
, . . . , E
k
obtenemos la matriz
_
E
1
E
k
A
. .
=A

E
1
E
k
b
. .
em
_
=
_
A

e
m
_
. Como la ultima la de A

es de ceros, entonces el sistema es inconsistente, es decir, para b =


E
1
k
E
1
1
e
m
, la ecuacion Ax = b no tiene solucion, lo que contradice la hipotesis. Por tanto rango(A) = m.
3 2Si rango(A) = m entonces A

tiene un pivote en cada la, por tanto para todo b R


m
se tiene que
la matriz
_
A b
_
no tiene pivote en la ultima columna y as el sistema Ax = b siempre tiene al menos una
solucion.
2 4Si la ecuacion Ax = b tiene solucion para todo b, entonces para todo b R
m
, existe c R
n
tal que
b = Ac = T
A
(c). Por tanto T
A
es sobre.
4 2Si T
A
es sobre, para todo b R
m
, existe c R
n
tal que b = T
A
(c) = Ac, es decir, x = c es una solucion
al sistema Ax = b.
La parte 3. de este teorema nos dice que una matriz tiene inversa a la derecha si y solo si su forma escalonada
reducida tiene un pivote en cada la, lo cual es el criterio para determinar si una matriz tiene inversa a la
30
derecha. De el teorema tambien nos ofrece un metodo calcular la inversa a la derecha, el cual esta casi explcito
en la demostracion de 1 2, ya que en ese numeral se prueba que las columnas r
1
, . . . , r
m
de la inversa a la
derecha R son las respectivas soluciones a las ecuaciones Ax = e
1
, Ax = e
2
, . . . , Ax = e
n
como se ilustra en el
siguiente ejemplo.
Ejemplo 1.27. Determine si la matriz A =
_
_
1 2 2
1 0 4
_
_
tiene inversa a la derecha y en caso armativo
calcular una inversa a la derecha de A.
Solucion Como la forma escalonada de reducida de A es la matriz A

=
_
_
1 0 4
0 1 3
_
_
se tiene que rango(A) =
2 = # de las, por tanto A tiene inversa a la derecha.
Para encontrar la inversa a la derecha de A debemos encontrar soluciones a las ecuaciones Ax = e
1
y
Ax = e
2
. Se puede vericar que soluciones particulares a estas ecuaciones estan dadas por r
1
=
_

_
0
1/2
0
_

_
y
r
2
=
_

_
0
1/4
1/4
_

_
y por tanto una inversa a la derecha de A esta dada por
R =
_
r
1
r
2
_
=
_

_
0 0
1/2 1/4
0 1/4
_

_
El siguiente teorema carateriza las matrices con inversa a la izquierda, las propiedades son analogas a las del
teorema anterior para la inversa a derecha.
Teorema 1.21. Sea A una matriz de tama no mn, entonces las siguientes armaciones son equivalentes:
1. A tiene inversa a la izquierda.
2. El sistema Ax = b tiene a lo sumo una solucion para cada b R
m
.
3. La funcion T
A
: R
n
R
m
denida por T
A
(x) = Ax es inyectiva.
4. El sistema Ax =
n
tiene solucion unica.
5. rango(A) = n = # de columnas de A.
Demostracion. Para este teorema demostraremos las equivalencias en el orden 1 2, 2 3 3 4, 4 5 y
5 1.
1 2Supongamos que A tiene inversa a la izquierda L , y sean v y w soluciones al sistema Ax = b. Entonces
v = Iv = L Av
..
=b
= L b
..
=Aw
= LA
..
=I
w = Iw = w
Autor: OMAR DAR

IO SALDARRIAGA 31
Como v = w el sistema tiene a lo sumo una solucion.
2 3Supongamos que Ax = b tiene a lo sumo una solucion para todo b y que T
A
(v) = T
A
(w), entonces
Av = Aw. Sea b = Av, entonces la ecuacion Ax = b tiene dos soluciones v y w, entonces v = w.
3 4Supongamos que T
A
es inyectiva. Entonces si v es tal que Av = se tiene que = Av = T
A
(v) y como
T
A
() = A = entonces T
A
(v) = T
A
() y como T
A
es inyectiva, v = .
4 5 Supongamos que el sistema Ax = tiene solucion unica, entonces por el Teorema 1.2 la forma escalonada
reducida de la matriz
_
A
_
=
_
A


_
, donde A

es la forma escalonada reducida de A, tiene un pivote


en todas la columnas excepto la ultima, entonces A

tiene un pivote en cada columna y por tanto rango(A) = n.


5 1Supongamos que rango(A) = n, entonces la forma escalonada A

de A tiene un pivote en cada columna,


por tanto
A

=
_

_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_

_
.
Sean E
1
, . . . , E
k
matrices elementales tal que A = E
1
E
k
A

y sea
B = E
1
k
E
1
1
, entonces A

= BA. Sean b
1
, . . . , b
m
las las de B, es decir B =
_

_
b
1
.
.
.
b
m
_

_
. Como A

= BA
tenemos lo siguiente
A

= BA =
_

_
b
1
.
.
.
b
m
_

_
A =
_

_
b
1
A
.
.
.
b
m
A
_

_
.
Ahora tomemos C =
_

_
b
1
.
.
.
b
n
_

_
la matriz formada con las primeras n las de B, veamos que C es la matriz inversa
a la izquierda de A.
CA =
_

_
b
1
.
.
.
b
n
_

_
A =
_

_
b
1
A
.
.
.
b
n
A
_

_
= primeras n las de A

=
_

_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
= I
Este teorema nos da una forma de determinar si una matriz tiene inversa a la izquierda (se calcula el rango y
32
la matriz tiene inversa a la izquierda si y solo si el rango es igual al n umero de columnas). El teorema tambien
provee un algorimo para calcular dicha matriz, el cual describimos a continuacion
1. Se aplica reduccion Gauss-Jordan a la matriz
2. Se calculan las matrices elementales E
1
, . . . , E
k
asociadas a cada una de las operaciones elementales apli-
cadas en el paso 1.
3. Se calcula el producto E
k
E
1
.
4. La matriz L formada por las primeras n las de la matriz E
k
E
1
es la inversa a la izquierda.
Ejemplo 1.28. (MatLab) Para cada una de las matrices abajo, determine si tienen inversa a la izquierda y
encuentrela en caso armativo.
a. A =
_

_
2 1
4 2
2 1
_

_
b. B =
_
_
1 1 0
2 1 1
_
_
c. C =
_

_
1 1
0 1
2 1
_

_
.
Solucion a. Usando MatLab para calcular el rango de la matriz A obtenemos
>> A = [2 1; 4 2; 2 1], r = rank(A)
r = 1
Como rango(A) = 1 < # de columnas, entonces la matriz no tiene inversa a la izquierda.
b. La matriz B tiene 2 las, de donde rango(B) 2 < 3 = # de columnas. Por tanto B no tiene inversa a la
izquierda.
c. El rango de esta matriz C es dos, entonces C tiene inversa a la izquierda. Para calcular una inversa a la
izquierda debemos aplicar el procedimiento descrito arriba,
1. apliquemos reduccion Gauss-Jordan a la matriz C
_

_
1 1
0 1
2 1
_

_
2F1+F3F3
. .
E1
_

_
1 1
0 1
0 3
_

_
F2+F1F1
. .
E2
_

_
1 0
0 1
0 3
_

_
3F2+F3F3
. .
E3
_

_
1 0
0 1
0 0
_

_
Donde E
1
, E
2
y E
3
son las matrices elementales asociadas a cada una de las operaciones ejecutadas.
2. Aplicamos las operaciones efectuadas en la reduccion a la matriz identidad 3 3. Esto es equivalente a
multiplicar las matrices elementales asociadas a las operaciones.
_

_
1 0 0
0 1 0
0 0 1
_

_
2F1+F3F3
_

_
1 0 0
0 1 0
2 0 1
_

_
. .
E1
F2+F1F1
_

_
1 1 0
0 1 0
2 0 1
_

_
. .
E2E1
Autor: OMAR DAR

IO SALDARRIAGA 33
3F2+F3F3
_

_
1 1 0
0 1 0
2 3 1
_

_
= E
3
E
2
E
1
.
3. La matriz L =
_
_
1 1 0
0 1 0
_
_
, obtenida al suprimir la ultima la a la matriz E
3
E
2
E
1
, es una inversa a la
izquierda de C.
Hay otra forma de calcular la inversa a la izquierda de una matriz. Es facil ver que si R es una inversa a la
derecha de A
t
entonces L = R
t
es una inversa a la izquierda de A. Esto se ilustra en el siguiente ejemplo.
Ejemplo 1.29. (MatLab) Calcular una inversa a la izquierda de la matriz C =
_

_
1 1
0 1
2 1
_

_
.
Solucion Para calcular la inversa a la derecha de C
t
, necesitamos resolver las ecuaciones C
t
x = e
1
y C
t
x = e
2
.
Estas soluciones las calculamos con MatLab
>> C
t
= [1, 0, 2; 1, 1, 1], e1 = [1; 0], e2 = [0; 1], r1 = Ae1, r2 = Ae2
r1 =
1/3
0
1/3
r2 =
2/3
0
1/3
Entonces una inversa a la derecha de C
t
es la matriz R =
_

_
1/3 2/3
0 0
1/3 1/3
_

_
, por tanto una inversa a la izquierda
de C es la matriz L = R
t
=
_
_
1/3 0 1/3
2/3 0 1/3
_
_
.
De estos resultados obtenemos la siguiente caracterizacion para matrices invertibles.
Corolario 1.22. (Caracterizacion de una matriz invertible) Sea A una matriz cuadrada de tama no n n,
entonces las siguientes armaciones son equivalentes:
1. A es invertible.
2. A tiene inversa a la izquierda.
3. El sistema Ax = b tiene a lo sumo una solucion para cada b R
n
.
4. La funcion T
A
: R
n
R
n
denida por T
A
(x) = Ax es inyectiva.
34
5. El sistema Ax =
n
tiene solucion unica.
6. rango(A) = n = # de columnas de A=# de las deA.
7. A tiene inversa a la derecha.
8. El sistema Ax = b tiene solucion para cada b R
m
.
9. La funcion T
A
: R
n
R
n
denida por T
A
(x) = Ax es sobreyectiva.
10. La funcion T
A
: R
n
R
n
denida por T
A
(x) = Ax es biyectiva.
11. A
t
es invertible.
12. A es un producto de matrices elementales.
Demostracion. Las condiciones 1. y 12 son equivalentes por el Teorema 1.12, las condiciones 1. y 13. son
equivalentes por el Teorema 1.18, las condiciones 2. a 6. son equivalentes por el Teorema 1.21 y las condiciones
6. a 10. son equivalentes por el Teorema 1.20. Es suciente demostrar que 1 2, 1 10 y 1 11.
12Si A es invertible, entonces A
1
A = I y por tanto A
1
es inversa a la izquierda de A.
21Si A tiene inversa a la izquierda, entonces existe B tal que BA = I y por el Teorema 1.21, rango(A) =
n = # de columnas. Como A es cuadrada entonces # de las=# de columnas=rango(A), entonces por el
Teorema 1.20, A tiene una inversa a la derecha C, de donde AC = I, entonces se tiene que
B = BI = B(AC) = (BA)C = IC = C
Entonces BA = AB = I y por tanto A es invertible y B = A
1
.
1 11Supongamos que A es invertible, veamos que la funcion T
A
1 denida por T
A
1(B) = A
1
B es la
inversa de T
T
A
(T
A
1(B)) = T
A
(A
1
B) = A(A
1
B) = B y
T
A
1(T
A
(B)) = T
A
1(AB) = A
1
(AB) = B
Por tanto T
A
1 = T
1
A
.
1 11Si T es biyectiva es en particular inyectiva y por el Teorema 1.21 A tiene inversa a la izquierda y por
la parte 2. de este teorema la matriz A es invertible.
Captulo 2
Espacios Vectoriales
2.1. Denici on y Ejemplos
En el captulo anterior se dieron ejemplos, sin mencionarlo, de espacios vectoriales. Mas concretamente en los
Teorema 1.5 y 1.6 se mostro que el conjunto de matrices de tama no m n y el conjunto de vectores columna
R
n
son espacios vectoriales. Solo nos falta enunciar la denicion y ver que estos conjuntos la satisfacen. En
este captulo solo trabajaremos sobre R
n
y los teoremas seran acerca de este conjunto, en el Captulo 3 se
demostraran los teoremas generales.
Denicion 2.1. Sea V un conjunto no vacio con dos operaciones + : V V V y : R V V , decimos
que V es un espacio vectorial sobre R si para todo x, y y z V y para todo y R se cumple lo siguiente:
1. (x +y) +z = x + (y +z),
2. existe V tal que +x = x + = x, (A se le llama el neutro de V )
3. existe w tal que x +w = w +x = , (A w se le llama el inverso aditivo de x)
4. x +y = y +x,
5. (x +y) = x + y,
6. ( +) x = x + x,
7. ( x) = () x,
8. 1 x = x.
Ejemplo 2.1. 1. El conjunto de vectores en R
m
es un espacio vectorial, por el Teorema 1.6.
2. El conjunto M
mn
de matrices mn es un espacio vectorial, esto por el Teorema 1.5
3. Sea P
n
= a
0
+a
1
t + +a
n
t
n
[ a
0
, . . . , a
n
R el conjunto de polinomios de grado a lo sumo n en la
indeterminada t, este conjunto es un espacio vectorial sobre R bajo las operaciones:
a
0
+a
1
t + +a
n
t
n
+b
0
+b
1
t + +b
n
t
n
= (a
0
+b
0
) + (a
1
+b
1
)t + + (a
n
+b
n
)t
n
y
(a
0
+a
1
t + +a
n
t
n
) = a
0
+ a
1
t + + a
n
t
n
.
35
36
Veamos que estas operaciones satisfacen todas las propiedades de la
denicion de espacio vectorial.
Sean p
1
= a
0
+a
1
t + +a
n
t
n
, p
2
= b
1
t + +b
n
t
n
y p
3
= c
0
+c
1
t + +c
n
t
n
P
n
, , R,
1.
(p
1
+p
2
) +p
3
=(a
0
+a
1
t + +a
n
t
n
+b
0
+b
1
t + +b
n
t
n
)
+c
0
+c
1
t + +c
n
t
n
=(a
0
+b
0
) + (a
1
+b
1
)t + + (a
n
+b
n
)t
n
+c
0
+c
1
t + +c
n
t
n
(denicion de suma en P
n
)
=((a
0
+b
0
) +c
0
) + ((a
1
+b
1
) +c
1
)t +. . .
+ ((a
n
+b
n
) +c
n
)t
n
(denicion de suma en P
n
)
=(a
0
+ (b
0
+c
0
)) + (a
1
+ (b
1
+c
1
))t +. . .
+ (a
n
+ (b
n
+c
n
))t
n
(asociatividad en R)
=a
0
+a
1
t + +a
n
t
n
+ (b
0
+c
0
) + (b
1
+c
1
)t +. . .
+ (b
n
+c
n
)t
n
(denicion de suma en P
n
)
=a
0
+a
1
t + +a
n
t
n
+ (b
0
+b
1
t + +b
n
t
n
+c
0
+c
1
t + +c
n
t
n
)
(denicion de suma en P
n
)
=p
1
+ (p
2
+p
3
)
2. Sea = 0 el polinomio constante = 0, entonces
p
1
+ = a
0
+a
1
t + +a
n
t
n
+ 0 = a
0
+a
1
t + +a
n
t
n
= p
1
3. Sea w = a
0
a
1
t + a
n
t
n
entonces
w +p
1
= a
0
a
1
t + a
n
t
n
+a
0
+a
1
t + +a
n
t
n
+
= (a
0
+a
0
) + (a
1
+a
1
)t + + (a
n
+a
n
)t
n
= 0 = .
Autor: OMAR DAR

IO SALDARRIAGA 37
4.
p
1
+p
2
= a
0
+a
1
t + +a
n
t
n
+b
0
+b
1
t + +b
n
t
n
= (a
0
+b
0
) + (a
1
+b
1
)t + + (a
n
+b
n
)t
n
(Denicion de suma en P
n
)
= (b
0
+a
0
) + (b
1
+a
1
)t + + (b
n
+a
n
)t
n
(Conmuatitividad en R)
= b
0
+b
1
t + +b
n
t
n
+a
0
+a
1
t + +a
n
t
n
(Denicion de suma en P
n
)
= p
2
+p
1
5.
(p
1
+p
2
) = (a
0
+a
1
t + +a
n
t
n
+b
0
+b
1
t + +b
n
t
n
)
= ((a
0
+b
0
) + (a
1
+b
1
)t + + (a
n
+b
n
)t
n
)
denicion de suma en P
n
= (a
0
+b
0
) +(a
1
+b
1
)t + +(a
n
+b
n
)t
n
denicion de producto por escalar en P
n
= (a
0
+b
0
) + (a
1
+b
1
)t + + (a
n
+b
n
)t
n
distributividad en R
= a
0
+a
1
t + +a
n
t
n
+b
0
+b
1
t + +b
n
t
n
denicion de suma en P
n
= (a
0
+a
1
t + +a
n
t
n
) + (b
0
+b
1
t + +b
n
t
n
)
denicion de producto por escalar en P
n
= p
1
+ p
2
38
6.
( +) p
1
= ( +) (a
0
+a
1
t + +a
n
t
n
)
= ( +)a
0
+ ( +)a
1
t + + ( +)a
n
t
n
denicion de producto por escalar en P
n
= (a
0
+a
0
) + (a
1
+a
1
)t + + (a
n
+a
n
)t
n
ditributividad en R
= a
0
+a
1
t + +a
n
t
n
+a
0
+a
1
t + +a
n
t
n
denicion de suma en P
n
= (a
0
+a
1
t + +a
n
t
n
) + (a
0
+a
1
t + +a
n
t
n
)
denicion de producto por escalar en P
n
= p
1
+ p
1
7.
() p
1
= () (a
0
+a
1
t + +a
n
t
n
)
= ()a
0
+ ()a
1
t + + ()a
n
t
n
denicion de producto por escalar en P
n
= (a
0
) +(a
1
)t + +(a
n
)t
n
asociatividad en R
= (a
0
+a
1
t + +a
n
t
n
)
denicion de producto por escalar en P
n
= ( (a
0
+a
1
t + +a
n
t
n
))
denicion de producto por escalar en P
n
= ( p
1
)
8.
1 p
1
= 1 (a
0
+a
1
t + +a
n
t
n
) = 1 a
0
+ 1 a
1
t + + 1 a
n
t
n
= a
0
+a
1
t + +a
n
t
n
= p
1
.
Los espacios vectoriales satisfacen las siguientes propiedades que se desprenden de la denicion.
Teorema 2.1. Sea V un espacio vectorial, x V y R entonces
1. El neutro es unico, es decir, si y

son neutros entonces =

,
Autor: OMAR DAR

IO SALDARRIAGA 39
2. el inverso aditivo de x es unico, es decir, si w y w

son inversos aditivos de x entonces w = w

, (dada la
unicidad del inverso aditivo de x, este ser a denotado por x)
3. = , 4. 0 x = ,
5. 1 x = x, 6. Si x = entonces = 0 o x = .
Demostracion. 1. = +

+ =

.
2. w = w + = w + (x +w

) = (w +x) +w

= +w

= w

.
3. + = ( +) = , sumand el inverso aditivo de a ambos lados tenemos: = ..
4. 0x = (0 + 0)x = 0x + 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que = 0x.
5. 1x+x = 1x+1x = (1+1)x = 0x = . como el inverso aditivo de x es unico, tenemos que 1x = x.
6. Supongamos que x = y que ,= 0. Si multiplicamos a ambos lados por
1

tenemos que
1

(x)
. .
=

..
=1

x
=
1

..
=
1x
..
=x
= x =
2.2. Subespacios
Denicion 2.2. Sea V un espacio vectorial y ,= W V , decimos que W es un subespacio de V si W es
tambien un espacio vectorial bajo las mismas operaciones de suma y producto por escalar de V .
Ejemplo 2.2. En el Ejemplo 2.1 vimos que P
n
es un espacio vectorial para to n, como P
n1
P
n
y ambos son
espacios vectoriales, tenemos que P
n1
es un subespacio de P
n
.
Para probar que un subconjunto no vacio de un espacio vectorial V es un subespacio no es necesario demostrar
las ocho condiciones de la denicion, solo es necesario probar que este es cerrado bajo la suma y el producto
por escalar, este resultado lo presentamos a continuacion.
Teorema 2.2. Sea V un espacio vectorial y ,= W V , entonces W es un subespacio de V si para todo
w, w

W y para todo R se satisface que


1. w +w

W,
2. w W.
Demostracion. Debemos demostrar W cumple las ocho condiciones de espacio vectorial.
40
1. La asociatividad se cumple para todo v, v

y v

V , entoncs en particular si estos estan en W.


2. Como W ,= , existe w W, entonces por hipoteses w = (1)w W y por tanto 0 = w +w W.
3. Si w W entonces por la hipotesis 2. tenemos que w = (1)w W.
4-8. Estas propiedades se cumplen para todo w, w

V , en particular si w, w

W.
Por tanto W es un espacio vectorial y como W V , tenemos que W es un subespacio de V .
Ejemplo 2.3. Sea H =
_

_
_

_
x
1
.
.
.
x
n
_

x
n
= 0
_

_
R
m
, demuestre que H es un subespacio de R
m
.
Solucion. Veamos que H satisface las condiciones 1. y 2. del Teorema 2.2. Sean
_

_
x
1
.
.
.
x
n
_

_
,
_

_
y
1
.
.
.
y
n
_

_
H y R,
entonces x
n
= 0 = y
n
por tanto
_

_
x
1
.
.
.
x
n
_

_
+
_

_
y
1
.
.
.
y
n
_

_
=
_

_
x
1
+y
1
.
.
.
x
n
+y
n
_

_
=
_

_
x
1
+y
1
.
.
.
0
_

_
H y
_

_
x
1
.
.
.
x
n
_

_
=
_

_
x
1
.
.
.
0
_

_
=
_

_
x
1
.
.
.
0
_

_
H.
El Teorema 2.2 es muy util para vericar cuando un subconjunto es un subespacio, como en los siguientes
teoremas.
Teorema 2.3. Sean ,= W
1
, W
2
V entonces W
1
W
2
es un subespacio de V .
Demostracion. Como W
1
y W
2
son subespacios, entonces 0 W
1
y 0 W
2
, por tanto 0 W
1
W
2
de donde
W
1
W
2
,= , ahora probemos las condiciones 1. y 2. del Teorema 2.2.
Sean w, w

W
1
W
2
, entonces w, w

W
1
y w, w

W
2
, luego w + w

W
1
y w + w

W
2
, por tanto
w +w

W
1
w
2
.
Sea R, como W
1
y W
2
son subespacios tenemos que w W
1
y w W
2
, por tanto w W
1
W
2
.
Concluimos que W
1
W
2
es un subespacio de V .
Teorema 2.4. Sean ,= W
1
, W
2
V y denamos
W
1
+W
2
= w
1
+w
2
[ w
1
W
1
y w
2
W
2

entonces W
1
+W
2
es un subespacio de V .
Demostracion. Esta se deja como ejercicio.
Autor: OMAR DAR

IO SALDARRIAGA 41
2.3. Independencia Lineal
En esta seccion se estudiara el concepto de independencia lineal el cual nos permitira determinar cuando
un vector en un conjunto dado de vectores se puede expresar en terminos de los demas. Tambien se dara un
criterio que nos permitira determinar computacionalmente cuando un conjunto de vectores en R
m
es linealmente
independiente. Se usara muy a menudo la frase combinacion lineal, la cual denimos a continuacion.
Denicion 2.3. Sea V un espacio vectorial y sean v
1
, . . . , v
k
V , una combinacion lineal de estos vectores es
una expresi on de la forma

1
v
1
+ +
k
v
k
,
donde
1
, . . . ,
k
son reales.
Denicion 2.4. Sea V un espacio vectorial y sean v
1
, . . . , v
k
V , decimos que el conjunto v
1
, . . . , v
k
es
linealmente independiente si
1
v
1
+ +
k
v
k
= 0 implica que
1
=
2
= =
k
= 0.
Si el conjunto v
1
, . . . , v
k
no es linealmente independiente, decimos que es linealmente dependiente.
Observacion 2.1. De la denicion anterior se deprende que si el conjunto v
1
, . . . , v
k
es linealmente depen-
diente, entonces existen constantes
1
, . . . ,
k
, no todas cero, talque

1
v
1
+ +
k
v
k
= 0. (2.1)
Lo que es equivalente a decir que alguno de los v
i
se puede escribir como una combinaci on lineal de los demas,
esto ya que al menos uno de los
i
,= 0, por tanto despejando por v
i
en (2.1) tenemos
v
i
=

1

i
v
1


i1

i
v
i1


i+1

i
v
i+1


k

i
v
k
.
Ejemplo 2.4. 1. El conjunto
_

_
v
1
=
_

_
1
1
2
_

_
, v
2
=
_

_
2
3
0
_

_
, v
3
=
_

_
1
9
6
_

_
_

_
es LD ya que v
3
= 3v
1
2v
2
de donde
3v
1
2v
2
v
3
= 0.
2. El conjunto de vectores
_

_
v
1
=
_

_
1
1
0
_

_
, v
2
=
_

_
0
1
1
_

_
, v
3
=
_

_
1
0
1
_

_
_

_
es LI ya que si existieran constantes
1
,
2
,
3
tal que
1
v
1
+
2
v
2
+
3
v
3
= 0 entonces tendriamos que
_

_
0
0
0
_

_
=
1
v
1
+
2
v
2
+
3
v
3
=
1
_

_
1
1
0
_

_
+
2
_

_
0
1
1
_

_
+
3
_

_
1
0
1
_

_
=
_

1
0
_

_
+
_

_
0

2
_

_
+
_

3
0

3
_

_
=
_

1
+
3

1
+
2

2
+
3
_

_
42
De donde

1
+
3
= 0

1
+
2
= 0

2
+
3
= 0
, el cual es equivalente a la ecuacion matricial
_

_
1 0 1
1 1 0
0 1 1
_

_
_

3
_

_
=
_

_
0
0
0
_

_
. (2.2)
Al aplicar reduccion Gauss-Jordan a la matriz
_

_
1 0 1
1 1 0
0 1 1
_

_
obtenemos la matriz identidad, luego la unica solucion
al sistema (2.2) es la trivial,
1
= 0,
2
= 0 y
3
= 0. Por tanto el conjunto v
1
, v
2
, v
3
es LI.
En R
m
es facil establecer un criterio para determinar si un conjunto de vectores es LI o no. De la denicion se
sigue que un conjunto de vectores v
1
, . . . , v
k
R
m
es LD si existen constantes
1
, . . . ,
k
, no todas cero tal
que
1
v
1
+ +
k
v
k
= 0 pero esta ecuacion la podemos escribir matricialmente de la siguiente forma
0 =
1
v
1
+ +
k
v
k
=
_
v
1
v
k
_
_

1
.
.
.

k
_

_
.
De donde se sigue que los vectores son LD si la ecuacion
1
v
1
+ +
k
v
k
=
_
v
1
v
k
_
_

1
.
.
.

k
_

_
=
_

_
0
.
.
.
0
_

_
tiene
soluciones no triviales, criterio que escribimos a continuacion en le siguiente teorema.
Teorema 2.5. Sea v
1
, . . . , v
k
R
m
y sea A =
_
v
1
v
k
_
la matriz cuyas columnas son los vectores
v
1
, . . . , v
k
, entonces el conjunto v
1
, . . . , v
k
es LI si y solo si rangoA = k = # de columnas de A.
Demostracion. El conjunto v
1
, . . . , v
k
es LI si y solo si las unicas constantes
1
, . . . ,
k
tal que
1
v
1
+ +

k
v
k
= 0 son
1
= =
k
= 0 si y solo si la unica solucion al sistema
_
v
1
v
k
_
. .
=A
_

1
.
.
.

k
_

_
=
_

_
0
.
.
.
0
_

_
es el vector
_

1
.
.
.

k
_

_
=
_

_
0
.
.
.
0
_

_
y por el Teorema 1.21 esto es equivalente a que rangoA = k = # de columnas de A.
En este captulo nos concentraremos en estudiar criterios que aplican solo para vectores en R
m
, pero estos seran
generalizados a otros espacios vectoriales en la Captulo 3.
Observacion 2.2. Este teorema nos da un procedimiento computacional para determinar si un conjunto de
vectores es LI y si no lo son tambien nos permite encontrar la dependencia lineal entre los vectores, el cual
describimos a continuacion.
Autor: OMAR DAR

IO SALDARRIAGA 43
Sea v
1
, . . . , v
k
un conjunto de vectores en R
m
, para determinar si este conjunto es LI hacemos lo siguiente:
1. Aplicamos reduccion Gauss-Jordan a la matriz A =
_
v
1
v
k
_
.
2. Si la forma escalonada reducida A

de A tiene un pivote en cada la entonces los vectores son LI, si no


entonces los vectores son LD.
3. Si los vectores son LD, entonces el sistema Ax = 0 o equivalentemente A

x = 0 tiene solucion. Si x =
_

1
.
.
.

k
_

_
es una solucion a este sistema, las constantes
1
, . . . ,
k
satisfacen

1
v
1
+ +
k
v
k
= 0
la cual nos da una dependencia lineal entre los vectores.
Ejemplo 2.5. Determine si el conjunto de vectores es LI, si no lo es, encontrar una dependencia lineal entre
ellos.
1.
_

_
v
1
=
_

_
1
1
0
_

_
, v
2
=
_

_
2
1
1
_

_
, v
3
=
_

_
1
1
2
_

_
, v
4
=
_

_
0
1
1
_

_
_

_
2.
_

_
v
1
=
_

_
1
1
0
_

_
, v
2
=
_

_
0
1
1
_

_
, v
3
=
_

_
1
0
1
_

_
_

_
Solucion. 1. Necesitamos aplicar reduccion Gauss-Jordan a la matriz
_
v
1
v
2
v
3
v
4
_
=
_

_
1 2 1 0
1 1 1 1
0 1 2 1
_

_
, cuya forma escalonada reducida esta dada por
A

=
_

_
1 0 3 2
0 1 2 1
0 0 0 0
_

_
.
Como rango(A) = 2 < # de columnas de A entonces los vectores son LD. Para encontrar una dependencia
lineal entre estos vectores resolvemos el sistema A

x = 0, el cual nos da las ecuaciones x


1
+ 3x
3
+ 2x
4
= 0 y
x
2
2x
3
x
4
= 0 o equivalentemente
x
1
= 3x
3
2x
4
x
2
= 2x
3
+x
4
,
con x
3
y x
4
son variables libres, entonces si hacemos x
3
= x
4
= 1 obtenemos la solucion particular x
1
= 5,
x
2
= 3 y x
3
= x
4
= 1, por tanto una dependencia lineal entre los vectores esta dada por
5v
1
+ 3v
2
+v
3
+v
4
= 0.
44
2. En este caso necesitamos escalonar la matriz
_
v
1
v
2
v
3
_
=
_

_
1 0 1
1 1 0
0 1 1
_

_
, cuya forma escalonada reducida
es A

= I y por tanto rango(A) = # de columnas de A y los vectores v


1
, v
2
y v
3
son LI.
Terminamos la seccion con un corolario que nos sera util mas adelante.
Corolario 2.6. Un conjunto de vectores linealmente independientes de R
m
tiene a lo sumo m vectores.
Demostracion. Sean v
1
, . . . , v
k
R
m
vectores linealmente independientes y sea A =
_
v
1
v
k
_
entonces
rango(A) = k, por tanto k = rango(A) # de las=m, es decir, k m.
2.4. Conjuntos generadores
Denicion 2.5. Sea V un espacio vectorial, decimos que los vectores v
1
, v
2
, . . . , v
k
generan a V , si para todo
v V existen escalares
1
,
2
, . . . ,
k
tal que
v =
1
v
1
+ +
k
v
k
.
Tambien diremos que V es generado por el conjunto de vectores v
1
, . . . , v
k
, lo cual denotaremos por V =
v
1
, . . . , v
k
). Al conjunto v
1
, . . . , v
k
se le llama conjunto generador.
La siguiente es una caracterizacion que sirve para determinar cuando un conjunto de vectores es un conjunto
generador de R
m
.
Teorema 2.7. Sean v
1
, v
2
, . . . , v
k
vectores en R
m
y sea A =
_
v
1
v
k
_
la matriz cuyas columnas son los
vectores v
1
, v
2
, . . . , v
k
. Entonces el conjunto v
1
, v
2
, . . . , v
k
es un conjunto generador si y solo si rango(A) =
m = # de las de A.
Demostracion. Por denicion el conjunto v
1
, v
2
, . . . , v
k
es un conjunto generador si y solo si para todo
b R
m
, existen escalares
1
, . . . ,
k
tal que b =
1
v
1
+ +
k
v
k
=
_
v
1
v
k
_
. .
A
_

1
.
.
.

k
_

_
= Ax donde
x =
_

1
.
.
.

k
_

_
, si y solo si la ecuacion Ax = b tiene solucion para todo b R
m
y esto, por el Teorema 1.20, es
equivalente a que rango(A) = m = # de las de A.
De este teorema se desprende un procedimiento para determinar si un conjunto de vectores es un conjunto
generador de R
m
, el cual describimos a continuacion.
Procedimiento para determinar si un conjunto de vectores de R
m
es un conjunto generador
Sean v
1
, v
2
, . . . , v
k
vectores en R
m
, entonces
Autor: OMAR DAR

IO SALDARRIAGA 45
1. Forme la matriz A =
_
v
1
v
k
_
.
2. Aplicar reduccion Gauss-Jordan a A para calcular la forma escalonada reducida A

de A.
3. Si A

tiene un pivote en cada la, entonces los vectores v


1
, v
2
, . . . , v
k
generan a R
m
, de otra forma no
generan.
Ejemplo 2.6. Determine si el conjunto de vectores genera a R
3
,
1.
_

_
v
1
=
_

_
1
2
5
_

_
, v
2
=
_

_
2
4
10
_

_
, v
3
=
_

_
0
1
1
_

_
, v
4
=
_

_
1
0
3
_

_
_

_
2.
_

_
v
1
=
_

_
1
2
5
_

_
, v
2
=
_

_
2
4
9
_

_
, v
3
=
_

_
0
1
1
_

_
_

_
Solucion. 1. Siguiendo los pasos indicados en el procedimiento, primero formamos la matriz A =
_
v
1
v
2
v
3
v
4
_
=
_

_
1 2 0 1
2 4 1 0
5 10 1 3
_

_
. Ahora calculamos la matriz escalonada reducida de A, usando MatLab obtenemos
>> A = [1 2 0 1; 2 4 1 0; 5 10 1 3]; rref(A)
ans =
_

_
1 2 0 1
0 0 1 2
0 0 0 0
_

_
Como rango(A) = 2 < 3 = # de las, entonces los vectores no generan a R
3
.
2. En este caso formamos la matriz A =
_
v
1
v
2
v
3
v
4
_
=
_

_
1 2 0
2 4 1
5 9 1
_

_
. Ahora calculamos la matriz escalon-
ada reducida de A, usando MatLab obtenemos
>> A = [1 2 0; 2 4 1; 5 10 1]; rref(A)
ans =
_

_
1 0 0
0 1 0
0 0 1
_

_
Como rango(A) = 3 = # de las, entonces estos vectores generan a R
3
, es decir, v
1
, v
2
, v
3
) = R
3
.
Corolario 2.8. Sean v
1
, v
2
, . . . , v
k
vectores en R
m
, si k < n entonces los vectores v
1
, v
2
, . . . , v
k
no generan a
R
m
.
Demostracion. Sea A =
_
v
1
v
k
_
, entonces rango(A) k < m = # de las de A, entonces por el
Teorema 2.7, el conjunto no genera a R
m
.
46
Corolario 2.9. Un conjunto generador de R
m
tiene al menos m vectores.
Teorema 2.10. Si los vectores v
1
, . . . , v
m
R
m
son linealmente independientes, entonces generan a R
m
, es
decir, v
1
, . . . , v
m
) = R
m
.
Demostracion. Sea A =
_
v
1
v
m
_
, como los vectores v
1
, . . . , v
m
son linealmente independientes entonces,
por el Teorema 2.5, se tiene que rango(A) = m = # de columnas, pero la matriz A es de tama no m m, por
tanto # de las=# de columnas. Luego rango(A) = m = # de las de A. Por tanto por el Teorema 2.7 los
vectores v
1
, . . . , v
m
generan a R
m
.
Ejemplo 2.7. En el Ejemplo 2.5 se encontro que los vectores v
1
=
_

_
1
1
0
_

_
, v
2
=
_

_
0
1
1
_

_
y v
3
=
_

_
1
0
1
_

_
son linealmente
independientes, entonces por el teorema anterior se tiene que estos vectores generan R
3
.
2.5. Bases y Dimensi on
Al unir los conceptos de independencia lineal y conjunto generador se consigue el concepto mas importante
del algebra lineal, el cual es el concepto de base de un espacio vectorial el cual denimos a continuacion.
Denicion 2.6. Sea V un espacio vectorial y sean v
1
, . . . , v
n
V , decimos que el conjunto v
1
, . . . , v
n
es una
base para V si
1. los vectores v
1
, . . . , v
n
son linealmente independientes,
2. los vectores v
1
, . . . , v
n
generan a V .
De los corolarios de las dos ultimas secciones tenemos lo siguiente.
Teorema 2.11. 1. Toda base de R
m
tiene exactamente m vectores.
2. Un conjunto de m vectores linealmente independientes de R
m
es una base.
Demostracion. 1. Esto se sigue de los corolarios 2.6 y 2.9.
2. Este se sigue de el Teorema 2.10.
Ejemplo 2.8. En el ejemplo anterior se comprobo que los vectores v
1
=
_

_
1
2
5
_

_
, v
2
=
_

_
2
4
9
_

_
y v
3
=
_

_
0
1
1
_

_
son
linealmente independientes, por tanto generan y forman una base para R
3
.
Autor: OMAR DAR

IO SALDARRIAGA 47
El ultimo teorema garantiza que todas las bases de R
m
tienen m vectores, en general para todos los espacios
vectoriales con un n umero nito de generadores (tambien llamados nito dimensionales) se cumple que todas las
bases tienen exactamente el mismo n umero de elementos. Abajo en el Teorema 2.13 se demostrara este hecho
para subespacios de R
m
, el caso general se demostrara en la Seccion 3.4. Por ahora daremos un argumento
computacional que nos permitira determinar si un conjunto de vectores es una base para R
m
.
Teorema 2.12. Sean v
1
, . . . , v
m
R
m
y A =
_
v
1
v
m
_
entonces el conjunto v
1
, . . . , v
m
es una base
para R
m
si y solo si rango(A) = m.
Nuevamente este teorema da un procedimiento para determinar si un conjunto de vectores es una base, el cual
consiste en formar una matriz con los vectores dados y determinar si el rango de esta matriz es # de las e
igual al # de columnas. Como lo mostramos en el siguiente ejemplo.
Ejemplo 2.9. Determine si el conjunto de vectores dados forma una base para R
3
.
1.
_

_
v
1
=
_

_
1
1
3
_

_
, v
2
=
_

_
2
2
6
_

_
, v
3
=
_

_
1
1
4
_

_
_

_
2.
_

_
v
1
=
_

_
1
1
3
_

_
, v
2
=
_

_
1
2
3
_

_
, v
3
=
_

_
1
1
4
_

_
_

_
Solucion.
1. Sea A =
_

_
1 2 1
1 2 1
3 6 3
_

_
, aplicando reduccion Gauss-Jordan obtenemos
_

_
1 2 1
1 2 1
3 6 4
_

_
F1+F2F2
3F1+F3F3
_

_
1 2 1
0 0 0
0 0 1
_

_
F1F2
_

_
1 2 1
0 0 1
0 0 0
_

_
F2+F1F1
_

_
1 2 0
0 0 1
0 0 0
_

_
esta matriz tiene rango 2 y por tanto los vectores v
1
, v
2
y v
3
no forman una base para R
3
.
2. Sea A =
_

_
1 1 1
1 2 1
3 3 4
_

_
, aplicando reduccion Gauss-Jordan obtenemos
_

_
1 1 1
1 2 1
3 3 4
_

_
F2+F1F2
3F1+F3F3
_

_
1 1 1
0 1 2
0 0 1
_

_
F1+F2F1
_

_
1 0 3
0 1 2
0 0 1
_

_
48
3F3+F1F1
2F3+F1F1
_

_
1 0 0
0 1 0
0 0 1
_

_
como esta matriz tiene rango 3, entonces los vectores v
1
, v
2
y v
3
forman una base para R
3
.
Ahora demostraremos que, para subespacios de R
m
, todas las bases tienen el mismo n umero de elementos.
Teorema 2.13. Sea V un subespacio de R
m
y sean v
1
, . . . , v
k
y w
1
, . . . , w
l
bases para V , entonces k = l.
Es decir, todas las bases de V tienen exactamente el mismo n umero de vectores.
Demostracion. Primero supongamos que l > k, como los vectores v
1
, . . . , v
k
forman una base para V , entonces
por denicion de base V = v
1
, . . . , v
k
) y por tanto para i = 1, . . . , l existen constantes
1i
, . . . ,
ki
tal que
w
i
=
1i
v
1
+ +
ki
v
k
=
_
v
1
v
k
_
_

1i
.
.
.

ki
_

_
.
Uniendo estas ecuaciones obtenemos:
_
w
1
w
l
_
=
_
v
1
v
k
_
_

11

1l
.
.
.
.
.
.
.
.
.

k1

kl
_

_
=
_
v
1
v
k
_
A (2.3)
Donde A =
_

11

1l
.
.
.
.
.
.
.
.
.

k1

kl
_

_
. Como l > k, entonces el sistema Ax = 0 tiene mas variables que ecuaciones y
por tanto existe al menos una solucion no trivial a este, es decir, exiten
1
, . . . ,
l
tal que
A
_

1
.
.
.

l
_

_
=
_

_
0
.
.
.
0
_

_
. (2.4)
Luego, multiplicando la Ecuacion (2.3) a la derecha por
_

1
.
.
.

l
_

_
, obtenemos
_
w
1
w
l
_
_

1
.
.
.

l
_

_
=
_
v
1
v
k
_
A
_

1
.
.
.

l
_

_
. .
=0 por Ec. (2.4)
=
_
v
1
v
k
_
_

_
0
.
.
.
0
_

_
=
_

_
0
.
.
.
0
_

_
.
Autor: OMAR DAR

IO SALDARRIAGA 49
De donde
_
w
1
w
l
_
_

1
.
.
.

l
_

_
=
_

_
0
.
.
.
0
_

_
, o equivalentemente
1
w
1
+ +
l
w
l
= 0, luego los vectores w
1
, . . . , w
l
son linealmente dependientes lo que contradice el hecho de que forman una base para V , por tanto k l.
De igual forma se demuestra que l k y por tanto k = l.
Terminamos la seccion con la denicion de conjunto generador y una caracterizacion de estos conjuntos.
Denicion 2.7. Sea V un espacio vectorial y sean v
1
, . . . , v
k
V , denimos el conjunto generado por estos
vectores, denotado por v
1
. . . , v
k
), como el conjunto de combinaciones lineales de los vectores v
1
, . . . , v
k
. Esto
es,
v
1
. . . , v
k
) =
1
v
1
+ +
k
v
k
[
1
, . . . ,
k
R .
El conjunto generado por los vectores v
1
, . . . , v
k
V es un subespacio de V , este hecho se demuestra a contin-
uacion.
Teorema 2.14. Sea V un espacio vectorial y sean v
1
, . . . , v
k
V , entonces H = v
1
, . . . , v
k
) es un subespacio
de V .
Demostracion. Como los vectores v
1
, . . . , v
k
V entonces combinaciones lineales de estos tambien pertenecen
a V , por tanto H = v
1
, . . . , v
k
) V .
Ahora veamos que H = v
1
, . . . , v
k
) es cerrado bajo suma y producto por escalar.
Sean v, w H y V , entonces v =
1
v
1
+ +
k
v
k
y w =
1
v
1
+ +
k
v
k
. Entonces
v +w =
1
v
1
+ +
k
v
k
+
1
v
1
+ +
k
v
k
= (
1
+
1
)v
1
+ + (
k
+
k
)v
k
H
y
v = (
1
v
1
+ +
k
v
k
) = (
1
)v
1
+ + (
k
)v
k
v
1
, . . . , v
k
).
Por tanto H es un subespacio de V .
2.6. Subespacios fundamentales
Dada una matriz A se pueden denir cuatro subespacios determinados por esta, los cuales denimos a
continuacion.
Denicion 2.8. Sea A una matriz de tama no mn denimos los siguientes subespacios:
1. El espacion nulo de A, denotado Nul(A), se dene como
Nul(A) = x R
n
[ Ax = 0.
50
2. El espacio columna, denotado Col(A), se dene como
Col(A) = c
1
, . . . , c
n
),
donde c
1
, . . . , c
n
son las columnas de A.
3. El espacio la de A, denotado por Fil(A), se dene como
Fil(A) = f
t
1
, . . . , f
t
m
),
donde f
1
, . . . , f
m
son las las de A.
4. El espacio nulo a izquierda de A, denotado por Nuliz(A), se dene como
Nuliz(A) = x R
m
[ A
t
x = 0.
De acuerdo al Teorema 2.14, el espacio columna, Col(A), y el espacio la, Fil(A), de una matriz A son sube-
spacios de R
m
y R
n
, respectivamente. Para que los cuatro conjuntos denidos en la denicion anterior sean
subespacios, solo nos resta demostrar que Nul(A) y Nuliz(A) son subespacios. Esto se demuestra en el sigu-
iente teorema.
Teorema 2.15. Sea A una matriz mn, entonces Nul(A) y Nuliz(A) son subespacios de R
n
y R
m
, respecti-
vamente.
Demostracion. Por denicion Nul(A) R
n
y claramente 0 Nul(A) ya que A0 = 0. Veamos que es cerrado
bajo la suma y el producto por escalar.
Sean x, y Nul(A) y sea R, entonces por denicion de Nul(A) tenemos que Ax = 0 = Ay, luego
A(x +y) = Ax +Ay = 0 + 0 = 0 y A(x) = Ax
..
=0
= 0 = 0,
de donde x +y Nul(A) y x Nul(A). Por tanto Nul(A) es un subespacio de R
n
.
Ahora, como lo anterior se demostro para A arbitraria, tenemos que Nuliz(A) = Nul(A
t
) es un subespacio, en
este caso de R
m
, ya que A
t
es de tama no n m.
El proposito ahora es dar un procedimiento que nos permita hallar una base para los subespacios fundamentales.
Calcular el espacio nulo de una matriz A es mas sencillo, ya que los vectores x en este espacio son solucion
a la ecuacion Ax = 0, el cual se resuelve aplicando Gauss-Jordan a la matriz
_
A 0
_
(ver ejemplo abajo). El
procedimiento para calcular una base para el espacio columna se sigue del siguiente teorema.
Teorema 2.16. Sea A una matriz de tama no mn y sea A

la forma escalonada reducida de A. Entonces los


vectores para los cuales la columna de A

tiene un pivote, forman una base para Col(A) y por tanto dimCol(A) =
rango(A). Ademas se tiene que dimNul(A) = n rango(A).
Autor: OMAR DAR

IO SALDARRIAGA 51
Demostracion. Sea k = rango(A), sin perdida de generalidad, supongamos las primeras k columnas de A

tienen pivote, es decir


A

=
_

_
1 0 b
1,k+1
b
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 1 b
k,k+1
b
kn
0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0
_

_
(2.5)
Sean c
1
, . . . , c
n
las columnas de A, vamos a demostrar que los vectores c
1
, . . . , c
k
forman una base para Col(A).
Primero notese que los vectores c
1
, . . . , c
k
son linealmente independientes ya que estas son las primeras
columnas de A y por tanto la forma escalonada reducida de la matriz
_
c
1
c
k
_
esta dada por las primeras
k las de A

y de 2.5, se obtiene que esta tiene un pivote en cada columna, luego por el Teorema 2.5, estos son
linealmente independientes.
52
Ahora, de 2.5 tenemos lo siguiente
_

_
x
1
.
.
.
x
n
_

_
Nul(A) si y solo si Ax = 0 si y solo si A

x = 0
si y solo si
x
1
+b
1,k+1
x
k+1
+ +b
1n
x
n
= 0
.
.
.
x
k
+b
k,k+1
x
k+1
+ +b
kn
x
n
= 0
si y solo si
x
1
= b
1,k+1
x
k+1
b
1n
x
n
.
.
.
x
k
= b
k,k+1
x
k+1
b
kn
x
n
si y solo si
_

_
x
1
.
.
.
x
k
x
k+1
.
.
.
x
n
_

_
=
_

_
b
1,k+1
x
k+1
b
1n
x
n
.
.
.
b
k,k+1
x
k+1
b
kn
x
n
x
k+1
.
.
.
x
n
_

_
= x
k+1
_

_
b
1,k+1
.
.
.
b
k,k+1
1
.
.
.
0
_

_
+ +x
n
_

_
b
1n
.
.
.
b
kn
0
.
.
.
1
_

_
. (2.6)
Entonces Nul(A) =
_
_

_
b
1,k+1
.
.
.
b
k,k+1
1
.
.
.
0
_

_
, . . . ,
_

_
b
1n
.
.
.
b
kn
0
.
.
.
1
_

_
_
y en particular los vectores
_

_
b
1,k+1
.
.
.
b
k,k+1
1
.
.
.
0
_

_
, . . . ,
_

_
b
1n
.
.
.
b
kn
0
.
.
.
1
_

_
Nul(A)
Autor: OMAR DAR

IO SALDARRIAGA 53
por tanto los vectores c
1
, , c
n
satisfacen lo siguiente
_

_
0
.
.
.
0
_

_
= A
_

_
b
1,k+1
.
.
.
b
k,k+1
1
.
.
.
0
_

_
=
_
c
1
c
n
_
_

_
b
1,k+1
.
.
.
b
k,k+1
1
.
.
.
0
_

_
.
.
.
_

_
0
.
.
.
0
_

_
= A
_

_
b
1n
.
.
.
b
kn
0
.
.
.
1
_

_
=
_
c
1
c
n
_
_

_
b
1n
.
.
.
b
kn
0
.
.
.
1
_

_
Estas ecuaciones matriciales producen las ecuaciones
b
1,k+1
c
1
b
k,k+1
c
k
+c
k+1
= 0 c
k+1
= b
1,k+1
c
1
+ +b
k,k+1
c
k
.
.
.
b
1n
c
1
b
kn
c
k
+c
n
= 0 c
n
= b
1n
c
1
+ +b
kn
c
k
Luego si x Col(A), por denicion
x =
1
c
1
+ +
k
c
k
+
k+1
c
k+1
+ +
n
c
n
=
1
c
1
+ +
k
c
k
+
k+1
(b
1,k+1
c
1
+ +b
k,k+1
c
k
) +
+
n
(b
1n
c
1
+ +b
kn
c
k
)
=(
1
+
k+1
b
1,k+1
+ +
n
b
1n
)c
1
+
+ (
k
+
k+1
b
k,k+1
+ +
n
b
kn
)c
k
c
1
, c
k
)
Luego ColA = c
1
, . . . , c
k
), entonces los vectores c
1
, . . . , c
k
generan a Col(A) y como sonson linealmente inde-
pendientes entonces forman una base para Col(A).
Finalmente, observese que dimCol(A) = k = rango(A) y por la Ecuacion 2.6 tenemos que dimNul(A) =
n k = n rango(A).
Corolario 2.17. Sea A una matriz de tama no mn, entonces
dimCol(A) + dimNul(A) = n = # de columnas de A.
54
Ejemplo 2.10. Calcule los cuatro subespacios fundamentales de la matriz A =
_

_
1 1 0 1
2 2 1 4
3 3 1 5
_

_
.
Solucion: Calculando la forma escalonada reducida de A obtenemos
_

_
1 1 0 1
2 2 1 4
3 3 1 5
_

_
2F1+F2F2
2F1+F3F3
_

_
1 1 0 1
0 0 1 2
0 0 1 2
_

_
F2+F3F3
_

_
1 1 0 1
0 0 1 2
0 0 0 0
_

_
entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna
de A, es decir
Col(A) =
_
_

_
1
2
3
_

_
,
_

_
0
1
1
_

_
_
.
Ahora para el espacio nulo resolvemos el sistema Ax = 0 o equivalentemente A

x = 0 y obtenemos lo siguiente
A

_
x
1
x
2
x
3
x
4
_

_
=
_

_
0
0
0
_

x
1
x
2
+ x
4
= 0
x
3
+ 2x
4
= 0

x
1
= x
2
x
4
x
3
= 2x
4

_
x
1
x
2
x
3
x
4
_

_
=
_

_
x
2
x
4
x
2
2x
4
x
4
_

_
= x
2
_

_
1
1
0
0
_

_
+x
4
_

_
1
1
2
1
_

_
.
Por tanto Nul(A) =
_
_

_
1
1
0
0
_

_
,
_

_
1
1
2
1
_

_
_
.
Ahora, como rango(A) = rango(A
t
) entonces la transpuesta de las dos primeras las es una base para Fil(A),
es decir, Fil(A) =
_
_

_
1
1
0
1
_

_
,
_

_
2
2
1
4
_

_
_
.
Ahora calculamos la escalonada reducida de A
t
_

_
1 2 3
1 2 3
0 1 1
1 4 5
_

_
F1+F2F2
F1+F4F4
_

_
1 2 3
0 0 0
0 1 1
0 2 2
_

_
F2F3
_

_
1 2 3
0 1 1
0 0 0
0 2 2
_

_
Autor: OMAR DAR

IO SALDARRIAGA 55
2F2+F1F1
2F2+F4F4
_

_
1 0 1
0 1 1
0 0 0
0 0 0
_

_
entonces un vector x =
_

_
x
1
x
2
x
3
_

_
satisface la ecuacion A
t
x = 0 si y solo si
A
t
_

_
x
1
x
2
x
3
_

_
=
_

_
0
0
0
0
_

x
1
+x
3
= 0
x
2
+x
3
= 0

x
1
= x
3
x
2
= x
3

_
x
1
x
2
x
3
_

_
=
_

_
x
3
x
3
x
3
_

_
=
_

_
1
1
1
_

_
.
Por tanto Nuliz(A) =
_
_

_
1
1
1
_

_
_
.
2.7. Subespacio generado
Si v
1
. . . , v
n
son vectores en R
m
, hay dos preguntas que que abordaremos en esta seccion acerca del subespacio
H = v
1
, . . . , v
n
), las primera de las cuales es:
1. Si los vectores v
1
, . . . , v
n
no son linealmente independientes, como encontrar una base para H.
Si hacemos A =
_
v
1
v
n
_
entonces Col(A) = v
1
, . . . , v
n
) = H y aplicando el Teorema 2.16 obtenemos
una base para Col(A) = H.
Ejemplo 2.11. Calcular una base para H = v
1
, v
2
, v
3
) donde v
1
=
_

_
1
2
5
_

_
, v
2
=
_

_
2
4
10
_

_
y v
3
=
_

_
0
1
1
_

_
.
Solucion. Aplicando reducci on Gauss-Jordan a la matriz A =
_

_
1 2 0
2 5 1
5 5 1
_

_
obtenemos A

=
_

_
1 2 0
0 0 1
0 0 0
_

_
.
Entonces los vectores v
1
y v
3
forman una base para H.
2. Si H es un subespacio de R
m
con base v
1
, . . . , v
k
y b es un vector en R
m
, como determinar si b H.
Haciendo A =
_
v
1
v
k
_
tenemos que b H si y solo si existen constantes
1
, . . . ,
k
tal que b =

1
v
1
+ +
k
v
k
=
_
v
1
v
k
_
_

1
.
.
.

k
_

_
= Ax con x =
_

1
.
.
.

k
_

_
. En otras palabras, b H si y solo si la ecuacion
56
Ax = b tiene solucion y si x =
_

1
.
.
.

k
_

_
es una solucion a esta ecuacion, entonces b =
1
v
1
+ +
k
v
k
.
Ejemplo 2.12. Sea H =
_
v
1
=
_

_
1
2
5
_

_
, v
2
=
_

_
0
1
1
_

_
_
y sea b =
_

_
1
2
1
_

_
, determinar si b H, en caso armativo
expresar a b como combinaci on lineal de v
1
y v
2
.
Solucion. Aplicando reduccion Gauss-Jordan a la matriz
_

_
1 0 1
2 1 2
5 1 1
_

_
obtenemos
_

_
1 0 1
2 1 2
5 1 1
_

_
2F1+F2F2
5F1+F3F3
_

_
1 0 1
0 1 4
0 1 4
_

_
F2+F3F3
_

_
1 0 1
0 1 4
0 0 0
_

_
de donde tenemos que la ecuacion Ax = b tiene solucion
1
= 1 y
2
= 4, por tanto b = v
1
4v
2
.
En el siguiente ejemplo se muestra que algunas veces los subespacios de R
n
aparecen como el espacio nulo de
una matriz.
Ejemplo 2.13. Calcular una base para cada uno de los siguientes subespacios.
1. H =
_
_
_
_
_
x
y
_
_

y = mx, m R
_
_
_
2. H =
_

_
_

_
x
y
z
_

x = at, y = bt y z = ct, a, b, c R
_

_
.
3. H =
_

_
_

_
x
y
z
_

ax +by +cz = 0, a, b, c R, c ,= 0
_

_
4. H =
_

_
_

_
x
y
z
_

x +y +z = 0, 2x y z = 0
_

_
.
1.
_
_
x
y
_
_
H si y solo si y = mx si y solo si
_
_
x
y
_
_
=
_
_
x
mx
_
_
= x
_
_
1
m
_
_
si y solo si
_
_
x
y
_
_
es un m ultiplo de
_
_
1
1
_
_
.
Por tanto H =
_
_
_
1
1
_
_
_
.
Autor: OMAR DAR

IO SALDARRIAGA 57
2.
_

_
x
y
z
_

_
H si y solo si x = at, y = bt y z = bt si y solo si
_

_
x
y
z
_

_
=
_

_
at
bt
ct
_

_
= t
_

_
a
b
c
_

_
si y solo si
_

_
x
y
z
_

_
es un m ultiplo
de
_

_
a
b
c
_

_
. Por tanto H =
_
_

_
a
b
c
_

_
_
.
3.
_

_
x
y
z
_

_
H si y solo si ax+by +cz = 0 si y solo si z =
a
c
x
b
c
y si y solo si
_

_
x
y
z
_

_
=
_

_
x
y

a
c
x
b
c
y
_

_
= x
_

_
1
0

a
c
_

_
+
y
_

_
0
1

b
c
_

_
si y solo si
_

_
x
y
z
_

_
es una combinacion lineal de
_

_
1
0

a
c
_

_
y
_

_
0
1

b
c
_

_
. Por tanto H =
_
_

_
1
0

a
c
_

_
,
_

_
0
1

b
c
_

_
_
.
4.
_

_
x
y
z
_

_
H si y solo si x + y + z = 0 y 2x y z = 0 si y solo si
_
_
1 1 1
2 1 1
_
_
_

_
x
y
z
_

_
=
_
_
0
0
_
_
si y solo si
_

_
x
y
z
_

_
Nul(A) con A =
_
_
1 1 1
2 1 1
_
_
. Para calcular el espacio nulo de A aplicamos reduccion Gauss-Jordan
_
_
1 1 1
2 1 1
_
_
2F1+F2F2
_
_
1 1 1
0 3 3
_
_
1
3
F2F2
_
_
1 1 1
0 1 1
_
_
F2+F1F1
_
_
1 0 0
0 1 1
_
_
Entonces
_

_
x
y
z
_

_
Nul(A) si y solo si x = 0 y y +z = 0 si y solo si x = 0 y y = z si y solo si
_

_
x
y
z
_

_
=
_

_
0
z
z
_

_
=
z
_

_
0
1
1
_

_
. Por tanto H =
_
_

_
0
1
1
_

_
_
.
Terminamos el captulo con con un teorema que sera muy util en el proximo captulo.
Teorema 2.18. Sea A una matriz de tama no mn, entonces
1. Nul(A) = 0 si y solo si rango(A) = n = # de columnas de A.
2. Col(A) = R
n
si y solo si rango(A) = m = # de las de A.
58
Demostracion. 1. Nul(A) = 0 si y solo si la unica solucion a la ecuacion Ax = 0 es x = 0 si y solo si
rango(A) = n = # de columnas de A (Teorema 1.21.)
2. Col(A) = R
n
si y solo si b Col(A) para todo b R
n
si y solo si para todo b R
n
, Ax = b si y solo si la
ecuacion Ax = b tiene solucion para todo b R
n
si y solo si rango(A) = m = # de las de A (Teorema
1.20.)
2.8. El teorema de la base incompleta en R
m
En el Corolario 2.6 se demostro que si v
1
, . . . , v
k
son vectores linealmente independientes en R
m
entonces
k m. El Teorema de la base incompleta dice que si k < m se pueden escojer vectores w
k+1
, . . . , w
m
talque
v
1
, . . . , v
k
, w
k+1
, . . . , w
m
forman una base para R
m
.
Teorema 2.19. (Teorema de la base incompleta) Sean v
1
, . . . , v
k
vectores linealmente independientes en R
m
.
Si k < m se pueden escojer vectores w
k+1
, . . . , w
m
talque v
1
, . . . , v
k
, w
k+1
, . . . , w
m
forman una base para R
m
.
Demostracion. Sea A =
_
v
1
v
k
_
la matriz cuyas columnas son los vectores v
1
, . . . , v
k
, como estos son
linealmente independientes, entonces por el Teorema 2.5 tenemos que rango(A) = k y por tanto la forma
escalonada reducida A

de A tiene un pivote en cada la, luego A

tiene la forma
A

=
_

_
1 0
.
.
.
.
.
.
.
.
.
0 1
0 0
.
.
.
.
.
.
.
.
.
0 0
_

_
=
_
e
1
e
k
_
donde e
i
es el vector con un uno en la i-esima componente y ceros en las demas componentes. Sean E
1
, . . . , E
s
matrices elementales talque
A

= E
s
E
1
A (2.7)
y sea B = E
1
1
E
1
s
entonces tenemos lo siguiente
Armacion 1. Las primeras k columnas de B son los vectores v
1
, . . . , v
k
Demostracion de la armacion: de la ecuacion (2.7) se sigue que
A = E
1
1
E
1
s
. .
=B
A

= BA

= B
_
e
1
e
k
_
=
_
Be
1
Be
k
_
Autor: OMAR DAR

IO SALDARRIAGA 59
como las columnas de A son los vectores v
1
, , v
k
entonces tenemos que Be
1
= v
1
, . . . , Be
k
= v
k
, luego
B = BI = B
_
e
1
e
k
e
k+1
e
m
_
=
_
Be
1
..
v1
Be
k
..
v
k
Be
k+1
Be
m
_
=
_
v
1
v
k
Be
k+1
Be
m
_
Armacion 2. Las columnas de B son linealmente independientes.
Demostracion de la armacion: Como B es un producto de matrices invertibles, entonces B es invertible,
luego por el Corolario 1.22 tenemos que rango(A) = m entonces por el Teorema ?? los vectores son linealmente
independientes.
Ahora, como B tiene m columnas linealmente independientes, entonces estas forman una base para R
m
, es
decir, los vectores v
1
, . . . , v
k
, w
k+1
, . . . , w
m
forman una base, donde w
k+1
, . . . , w
m
son las ultimas columnas de
B.
Este teorema exhibe un metodo computacional para completar una base, el cual escribimos a continuacion:
Procedimiento para completar una base en R
m
Sean v
1
, . . . , v
k
vectores linealmente independientes en R
m
con k < m, para calcular vectores w
k+1
, . . . , w
m
talque los vectores v
1
, . . . , v
k
, w
k+1
, . . . , w
m
forman una base, hacemos lo siguiente
1. Sea A =
_
v
1
v
k
_
la matriz formada con los vectores v
1
, . . . , v
k
2. Sea C el producto de las matrices elementales talque A = CA

, esta matriz se calcula hallando la forma


escalonada reducida de la matriz
_
A I
_
ya que esta esta dada por
_
A

C
_
3. Hacemos B = C
1
Si las columnas de B son linealmente independientes y por tanto forman una base para R
m
y por el teorema
anterior, las primeras columnas de B son los vectores v
1
, . . . , v
k
.
Ejemplo 2.14. (MatLab) Sean v
1
=
_

_
0
1
1
_

_
y v
2
=
_

_
1
1
2
_

_
, calcular un vector v
3
talque los vectores v
1
, v
2
, v
3
forman una base para R
3
.
Solucion. Sea A =
_
v
1
v
2
_
=
_

_
0 1
1 1
1 2
_

_
, entonces hacemos lo siguiente
1. calculamos la forma escalonada reducida de la matriz
_
A I
_
usando MatLab
>> A = [01; 11; 12]; R=rref([A, eye(3)])
R=
60
1 0 0 2/3 1/3
0 1 0 1/3 1/3
0 0 1 1/3 1/3
El producto de las matrices elementales es la matriz compuesta por las 3 ultimas columnas de R, la cual
podemos denir usando MatLab como sigue
>> C = [R(:, 3), R(:, 4), R(:, 5)]
C =
0 2/3 1/3
0 1/3 1/3
1 1/3 1/3
2. Ahora calculamos B = C
1
como sigue
B = inv(C)
B=
0 1 1
1 1 0
1 2 0
Notese que efectivamente las dos primeras columnas de esta matriz son los vectores v
1
y v
2
y por tanto los
vectores v
1
, v
2
y v
3
=
_

_
1
0
0
_

_
forman una base para R
3
.
Captulo 3
Transformaciones Lineales
3.1. Denici on y Ejemplos
En este captulo se estudiaran funciones entre espacios vectoriales que preservan la estructura, estas funciones
se llaman tranformaciones lineales, comenzamos con la denicion.
Denicion 3.1. Sean V y W espacios vectoriales y T : V W una funcion, decimos que T es una transfor-
macion lineal si T satisface:
1. T(v +v

) = T(v) +T(v

), para todo v, v

V .
2. T(v) = T(v), para todo v V y para todo R.
Observacion 3.1. Como consecuencia de la denicion tenemos que si T : V W es una transformacion
lineal, v
1
, . . . , v
n
V y
1
, . . . ,
n
R entonces
1. T(
1
v
1
+
2
v
2
) =
1
T(v
1
) +
2
T(v
2
), y en general
2. T(
1
v
1
+ +
n
v
n
) =
1
T(v
1
) + +
n
T(v
n
).
Ejemplo 3.1. 1. La funcion T : R
2
R denido por T
_
_
_
_
x
y
_
_
_
_
= x +y es una transformacion lineal ya
que
T
_
_
_
_
x
y
_
_
+
_
_
x

_
_
_
_
= T
_
_
_
_
x +x

y +y

_
_
_
_
= x +x

+y +y

= (x +y) + (x

+y

) = T
_
_
_
_
x
y
_
_
_
_
+T
_
_
_
_
x

_
_
_
_
T
_
_

_
_
x
y
_
_
_
_
= T
_
_
_
_
x
y
_
_
_
_
= x +y = (x +y) = T
_
_
_
_
x
y
_
_
_
_
2. Si A es una matriz mn, la funcion T : R
n
R
m
denida por T(x) = Ax es una transformacion lineal
ya que satisface los axiomas 1 y 2 de la denicion, mas especicamente tenemos que
61
62
T(x +y) = A(x +y) = Ax +Ay = T(x) +T(y) y
T(x) = A(x) = Ax = T(x).
Destacamos las siguientes propiedades que cumple cualquier transformacion lineal.
Teorema 3.1. Sean V y W espacios vectoriales y sea T : V W una transformaci on lineal, entonces
1. T(0) = 0
2. T(v) = T(v).
Demostracion. 1. T(0) = T(0 + 0) = T(0) +T(0) por tanto T(0) = 0.
2. T(v) = T((1)v) = 1T(v) = T(v).
Por ahora nos concentraremos solo en transformaciones lineales de R
n
en R
m
, ya que estas, como se muestra
en el siguiente teorema, son de la forma dada en el ejemplo 2, es decir, para toda transformacion lineal se puede
encontrar una matriz A de tamao mn tal que T(x) = Ax. Pasamos a enunciar el teorema.
Teorema 3.2. Sea T : R
n
R
m
una transformacion lineal, sea e
1
, . . . , e
n
la base estandar de R
n
y
A = [
T(e
1
) T(e
n
)
], la matriz cuyas columnas son los vectores T(e
1
), . . . , T(e
n
), entonces T(x) = Ax,
para todo x R
n
.
Demostracion. Sea x =
_

1
.
.
.

n
_

_
R
n
, entonces x =
1
e
1
+ +
1
e
n
y tenemos lo siguiente
T(x) = T(
1
e
1
+ +
1
e
n
) =
1
T(e
1
) + +
1
T(e
n
)
= [
T(e
1
) T(e
n
)
]
. .
=A
_

1
.
.
.

n
_

_
= Ax.
Notacion 4. Si T : R
n
R
m
es una transformacion lineal y E = e
1
, . . . , e
n
es la base estandar de R
n
, a
la matriz A = [
T(e
1
) T(e
n
)
] se llama la matriz de la transformacion y sera denotada por A =
E
T
E
.
Ejemplo 3.2. Calcular la matriz de la transformacion T : R
2
R denida por T
_
_
_
_
x
y
_
_
_
_
= x +y.
Solucion. De acuerdo al teorema anterior debemos calcular T(e
1
) y T(e
2
):
T(e
1
) = T
_
_
_
_
1
0
_
_
_
_
= 1 + 0 = 1 T(e
2
) = T
_
_
_
_
0
1
_
_
_
_
= 0 + 1 = 1.
Luego la matriz de la transformacion es
E
T
E
= [
1 1
].
Autor: OMAR DAR

IO SALDARRIAGA 63
Ejemplo 3.3. Calcular la matriz,
E
S
E
, de la transformacion S : R
3
R
2
denida por S
_
_
_
_
_
_

_
x
y
z
_

_
_
_
_
_
_
=
_
_
x + 2y
y 3z
_
_
.
Solucion. En este caso debemos calcular S(e
1
), S(e
2
) y S(e
3
).
S(e
1
) = S
_
_
_
_
_
_

_
1
0
0
_

_
_
_
_
_
_
=
_
_
1 + 2 0
0 3 0
_
_
=
_
_
1
0
_
_
S(e
2
) = S
_
_
_
_
_
_

_
0
1
0
_

_
_
_
_
_
_
=
_
_
0 + 2 1
1 3 0
_
_
=
_
_
2
1
_
_
y S(e
3
) = S
_
_
_
_
_
_

_
0
0
1
_

_
_
_
_
_
_
=
_
_
0 + 2 0
0 3 1
_
_
=
_
_
0
3
_
_
Por tanto la matriz de la transformacion es
E
S
E
=
_
_
1 2 0
0 1 3
_
_
.
En el siguiente teorema demostraremos que la composicion de transformaciones lineales es una transformacion
lineal.
Teorema 3.3. Sean V, W y Z espacios vectoriales y sean T : V W y S : W Z tranformaciones
lineales, entonces S T es una transformacion lineal. Mas a un, si V = R
n
, W = R
m
y Z = R
q
entonces la
matriz de S T esta dada por
E
S
E

E
T
E
, es decir,
E
(S T)
E
=
E
S
E

E
T
E
.
Demostracion. Primero demostremos que S T es una transformacion lineal, sean v, v

V y R,
S T(v +v

) = S(T(v +v

)
. .
T(v)+T(v

)
) = S(T(v) +T(v

))
. .
S(T(v))+S(T(v

))
= S(T(v)) +S(T(v

))
= S T(v) +S T(v

) y
S T(v) = S(T(v)
. .
T(v)
) = S(T(v))
. .
S(T(v))
= S(T(v)) = S T(v)
Ahora demostremos la segunda parte, sean A =
E
T
E
y B =
E
S
E
, entonces T(v) = Av para todo v R
n
y
S(w) = Bw para todo w R
m
. Veamos que BA es la matriz de S T, es decir, S T(v) = BAv para todo
v R
n
.
S T(v) = S(T(v)
..
Av
) = S(Av)
. .
BAv
= BAv.
Por tanto BA es la matriz de S T.
Ejemplo 3.4. Sean T y S las transformaciones lineales denidas en los Ejemplos 3.2 y 3.3 entonces la matriz
de la transformacion T S,
E
(T S)
E
, esta dada por
E
(T S)
E
=
E
T
E

E
S
E
=
_
1 1
_
_
_
1 2 0
0 1 3
_
_
=
_
1 3 3
_
.
64
Por tanto T S
_
_
_
_
_
_

3
_

_
_
_
_
_
_
=
_
1 3 3
_
_

3
_

_
=
1
+ 3
2
3
3
.
Ejemplo 3.5. (MatLab) Denir matrices 3x4 y 4x3 y calcular las matrices de las composiciones.
La matriz de una transformacion se puede usar para conseguir informacion util acerca de la transformacion,
por ejemplo, esta se puede usar para determinar si una transformacion lineal es inyectiva, si es sobre, si es
biyectiva y tambien se puede usar para calcular el rango de la transformacion. Esto lo veremos en las secciones
3.2-3.4
3.2. Transformaciones Lineales Inyectivas
Comenzamos el estudio de las transformaciones inyectivas con la dencion de kernel de la transforacion.
Denicion 3.2. Sean V y W espacios vectoriales y sea T : V W una transformacion lineal, denimos el
nucleo o kernel de T como el conjunto
Ker(T) = x V [ T(x) = 0.
Para transformaciones lineales de R
n
en R
m
, la matriz de la transformacion se puede usar para calcular el
kernel. Este es el resultado del siguiente teorema.
Lema 3.4. Sea T : R
n
R
m
una transformacion lineal y sea A =
E
T
E
la matriz de la transformacion,
entonces Ker(T) = Nul(A).
Demostracion. x Ker(T) si y solo si T(x) = 0 si y solo si T(x) = Ax = 0 si y solo si x Nul(A).
Concluimos que Ker(T) = Nul(A).
Ejemplo 3.6. Calcular el kernel de la transformacion lineal S denida en el Ejemplo 3.3.
Solucion. La matriz de la transformacion es A =
_
_
1 2 0
0 1 3
_
_
, necesitamos calcular Nul(A):
_
_
1 2 0
0 1 3
_
_
F
1
2F
2
F
1
_
_
1 0 6
0 1 3
_
_
Luego tenemos que un vector x =
_

_
x
y
z
_

_
Nul(A) si y solo se satisfacen las ecuaciones
x = 6z
y = 3z
. Entonces
tenemos que x =
_

_
x
y
z
_

_
Nul(A) si y solo si
_

_
x
y
z
_

_
=
_

_
6z
3z
z
_

_
= z
_

_
6
3
1
_

_
.
Autor: OMAR DAR

IO SALDARRIAGA 65
Por tanto tenemos que Ker(T) = Nul(A) =
_
_

_
6
3
1
_

_
_
.
Teorema 3.5. Sea T : V W una transformacion lineal, entonces T es inyectiva si y solo si Ker(T) = 0.
Demostracion. Supongamos que T es inyectiva, entonces si T(x) = T(y), tenemos que x = y.
Ahora, supongamos que x Ker(T), entonces T(x) = 0 = T(0), luego x = 0 y por tanto Ker(T) 0.
La otra inclusion se da ya que Ker(T) es un subespacio de V y por tanto 0 Ker(T). Concluimos que
Ker(T) = 0.
Supongamos que Ker(T) = 0 y demostremos que si T(x) = T(y), entonces x = y, para todo x, y V .
Supongamos entonces que T(x) = T(y). Luego T(x y) = T(x) + T(y) = T(x) T(y) = 0, se sigue que
x y Ker(T) = 0 por tanto x y = 0 o equivalentemente x = y. Concluimos que T es inyectiva.
En el caso particular de transformaciones lineales que van de R
n
en R
m
, este teorema y el Lema 3.4 nos dan
un algoritmo para calcular el kernel, este se hara evidente con el siguiente teorema.
Teorema 3.6. Sea T : R
n
R
m
una transformacion lineal y sea A =
E
T
E
la matriz de la transformacion.
Entonces T es inyectiva si y solo si rango(A) = n = # de columnas de A.
Demostracion. T es inyectiva si y solo si Ker(T) = 0 (Teorema anterior) si y solo si Nul(A) = 0 (Lema 3.4)
si y solo si rango(A) = n.
Este teorema nos da una manera de determinar si una transformacion lineal es inyectiva y en caso negativo,
usamos el Lema 3.4 para calcularlo. A continuacion damos el ejemplo.
Ejemplo 3.7. Determine si la transformacion lineal T : R
3
R
2
denida por T
_
_
_
_
_
_

_
x
y
z
_

_
_
_
_
_
_
=
_
_
x + 2y
y 3z
_
_
es
inyectiva.
Solucion. En el Ejemplo 3.6 vimos que la matriz de la transformacion es A =
_
_
1 2 0
0 1 3
_
_
y la forma
escalonada reducida de A es A

=
_
_
1 0 6
0 1 3
_
_
. De esto deducimos que rango(A) = 2 < # de columnas de A,
por tanto A no es inyectiva.
a=[1 -2 3 4;2 3 -4 5;3 4 5 6;4 5 6 7];
Ejemplo 3.8. (MatLab) Sea A =
_

_
1 2 3 4
2 3 4 5
3 4 5 6
4 5 6 7
_

_
y sea T : R
4
R
4
la transformacion lineal denida
por T(x) = Ax. Determine si T es inyectiva y calcular su kernel.
66
Solucion. Es f acil ver que A =
E
T
E
es la matriz de la tranformacion, para determinar si T es o no inyectiva,
necesitamos calcular el rango de A, lo cual calculamos como sigue en MatLab:
>> A = [1 2 3 4; 2 3 4 5; 3 4 5 6; 4 5 6 7]; rank(A)
ans =
4
De aqui se sigue que rango(A) = 4 = # de columnas de A y tenemos que T es inyectiva y Ker(T) = 0.
Ejemplo 3.9. (MatLab) Sea A =
_

_
1 2 1 1 1
1 0 1 3 1
0 1 1 1 1
0 1 1 1 1
1 0 1 3 1
_

_
y sea T : R
5
R
5
denida por T(x) = Ax,
determine si T es inyectiva y calcular Ker(T).
Solucion. Primero calculamos el rango de A para determinar si la transformaci on es inyectiva
>> A = [1 2 1 1 1; 1 0 1 3 1; 0 1 1 1 1; 0 1 1 1 1; 1 0 1 3 1]; rank(A)
ans =
3
Obtenemos que rango(A) = 3 y por tanto T no inyectiva. Para calcular el kernel, computamos el subespacio
nulo de A.
>> null(A,

)
ans =
1 3
1 1
1 0
0 1
0 0
Obtenemos que Ker(T) = Nul(A) =
_
_

_
1
1
1
0
0
_

_
,
_

_
3
1
0
1
0
_

_
_
.
3.3. Transformaciones lineales sobreyectivas
Comenzamos recordando la denicion de imagen (o rango) de funcion y la de funcion sobreyectiva.
Denicion 3.3. Sean V y W espacios vectoriales y T : V W una transformaci on lineal,
Autor: OMAR DAR

IO SALDARRIAGA 67
1. Denimos la imagen (o rango) de T, denotada por Im(T), como el conjunto
Im(T) = T(v) [ v V = w W [ existe v V tal que w = T(v).
2. Decimos que T es sobreyectiva si Im(T) = W.
Cuando las transformacion esta denida de R
n
en R
m
podemos calcular la imagen usando la matriz de la
transformacion. Este hecho se demuestra en el siguiente teorema.
Lema 3.7. Sea T : R
n
R
m
una transformacion lineal y sea A =
E
T
E
la matriz de T, entonces Im(T) =
Col(A).
Demostracion. Antes de hacer la demostracion denotemos por C
1
, . . . , C
n
las columnas de A.
w Im(T) si y solo si existe v R
n
tal que w = T(v) = Av si y solo si existe v =
_

1
.
.
.

n
_

_
R
n
tal que
w = Av = [
C
1
C
n
]
_

1
.
.
.

n
_

_
=
1
C
1
+ +
n
C
n
si y solo si w C
1
, . . . , C
n
) = Col(A).
Por tanto Im(T) = Col(A).
Ejemplo 3.10. Sea A =
_

_
1 0
1 2
3 0
_

_
y T : R
2
R
3
la transformaci on lineal denida por T(x) = Ax, calcular
la imagen de T.
Solucion. De acuerdo al lema anterior necesitamos calcular Col(A).
Si calculamos la forma escalonada de A obtenemos A

=
_

_
1 0
0 1
0 0
_

_
y por tanto
Im(T) = Col(A) =
_
_

_
1
1
3
_

_
,
_

_
0
2
0
_

_
_
.
El lema anterior nos muestra como la matriz de la transformacion se puede usar para calcular la imagen de
una transformacion, esta tambien sirve para determinar si la transformacion es sobreyectiva, esto lo mostramos
a continuacion.
Teorema 3.8. Sea T : R
n
R
m
una transformacion lineal y A la matriz de T, entonces T es sobreyectiva si
y solo si rango(A) = m = # de las de A.
Demostracion. T es sobre si y solo si R
m
= Im(T) = Col(A) y Col(A) = R
m
si y solo si rango(A) = m = #
de las de A.
68
El lema anterior nos dice que encontrar el rango de una transformacion es equivalente a encontrar el es-
pacio columna de la matriz de la transformacion y el teorema anterior reduce el problema de determinar si la
transformacion es sobre a encontrar el rango de esta matriz. Esto lo ilustramos en los siguientes ejemplos.
Ejemplo 3.11. Determine si la transformacion del ejemplo anterior es sobre.
Solucion. La forma escalonada de la matriz de T es A

=
_

_
1 0
0 1
0 0
_

_
y por tanto rango(A) = 2 < 3 = # de
columnas de A, concluimos que T no es sobre.
Ejemplo 3.12. (MatLab) Sea T la transformacion del Ejemplo 3.9, determine si T es sobre y calcular Im(T).
Solucion. En el Ejemplo 3.9 calculamos que el rango de la matriz A =
E
T
E
es 3 y por tanto T no es sobre.
Para calcular Im(T) necesitamos calcular el espacio columna de A, el cual podemos calcular con la escalonada
reducida de A.
>> A = [1 2 1 1 1; 1 0 1 3 1; 0 1 1 1 1; 0 1 1 1 1; 1 0 1 3 1]; rank(A)
ans =
_

_
1 0 1 3 0
0 1 1 1 0
0 0 0 0 1
0 0 0 0 0
0 0 0 0 0
_

_
Obtenemos que Im(T) =
_
_

_
1
1
0
0
1
_

_
,
_

_
2
0
1
1
0
_

_
,
_

_
1
1
1
1
1
_

_
_
, correspondientes a la 1a, 2a y 5a columna de A.
Otra forma de calcular la imagen es usando el comando colspace(sym(A)), el cual no dara la base de
Col(A) = Im(T).
>> A = [1 2 1 1 1; 1 0 1 3 1; 0 1 1 1 1; 0 1 1 1 1; 1 0 1 3 1]; colspace(sym(A))
ans =
[1, 0, 0]
[0, 1, 0]
[0, 0, 1]
[0, 0, 1]
[0, 1, 0]
Autor: OMAR DAR

IO SALDARRIAGA 69
De esta manera obtenemos que el conjunto
_

_
_

_
1
0
0
0
0
_

_
,
_

_
0
1
0
0
1
_

_
,
_

_
0
0
1
1
0
_

_
_

_
es una base para Im(T).
3.4. Isomorsmos
Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorsmos, la palabra iso-
morrmo signica igual forma. En esta secci on veremos como los isomorsmos preservan la estructura de los
espacios vectoriales. Comenzamos con la denicion de isomorsmo.
Denicion 3.4. Sean V y W espacios vectoriales y T : V W una transformacion lineal, decimos que T
es un isomorsmo si es una funcion biyectiva. Tambin diremos que V es isomorfo a W lo cual denotaremos
V

= W.
Los teoremas 3.6 y 3.8 implican lo siguiente.
Teorema 3.9. Sea T : R
n
R
m
una transformacion lineal y A =
E
T
E
la matriz de T, entonces T es un
isomorsmo si y solo si rango(A) = m = n.
Corolario 3.10. R
n
= R
m
si y solo si m = n.
Ejemplo 3.13. Sea T : R
2
R
2
la tranformacion lineal cuya matriz es A =
_
_
1 1
1 1
_
_
, determinar si T es
un isomorsmo.
Solucion. La forma escalonada reducida de A es la matriz A = I, por tanto T es un isomorsmo.
Teorema 3.11. Sea T : R
n
R
n
una transformacion lineal y A =
E
T
E
la matriz de T, entonces T
1
es una
transformacion lineal y su matriz es A
1
.
Demostracion. Demostracion. Primero veamos que T
1
es lineal. Sean y
1
, y
2
R
n
, como T es sobre, existen
x
1
, x
2
R
n
tal que y
1
= T(x
1
) y y
2
= T(x
2
), entonces
T
1
(y
1
+y
2
) = T
1
(T(x
1
) +T(x
2
)) = T
1
(T(x
1
+x
2
)) = x
1
+x
2
= T
1
(y
1
) +T
1
(y
2
)
Ahora, sea R, entonces tenemos
T
1
(y
1
) = T
1
(T(x
1
)) = T
1
(T(x
1
)) = x
1
= T
1
(y
1
).
Por tanto T
1
es lineal. Ahora veamos que A
1
es la matriz de T. Notese que y R
n
entonces y = AA
1
y =
T(A
1
y), aplicando T
1
a ambos lados obtenemos
T
1
(y) = A
1
y.
70
Conluimos que A
1
es la matriz de T
1
.
Observacion 3.2. En general si T : V W es un isomorsmo, entonces T
1
: W V tambien es una
transformacion lineal.
Ejemplo 3.14. En el ejemplo anterior vimos que la transformacion lineal T : R
2
R
2
cuya matriz es
A =
_
_
1 1
1 1
_
_
es invertible, entonces T
1
es un isomorsmo y su matriz es A
1
=
_
_
1/2 1/2
1/2 1/2
_
_
. Es decir, la
transformacion est a dada por T
_
_
_
_
x
y
_
_
_
_
=
_
_
1
2
(x +y)
1
2
(x y)
_
_
.
Hasta ahora la mayoria de los teoremas que hemos visto en el captulo y en el anterior aplican solamente al
espacio vectorial R
n
y a transformaciones lineales de R
n
en R
m
. Vamos a usar la teora de isomorsmos para
generalizar los teoremas vistos, comenzamos con un resultado que nos va a servir de puente para extender estos
teoremas.
Teorema 3.12. Sea V un espacio vectorial y v
1
, . . . , v
n
una base para V , entonces V

= R
n
. Un isomorsmo
entre estos espacios est a dado por la funcion T : V R
n
denida por T (
1
v
1
+ +
n
v
n
) =
_

1
.
.
.

n
_

_
, a esta
funcion se le conoce como el isomorsmo can onico.
Demostracion. Veamos que T es un isomorsmo.
T es lineal: Sean v, w V y R, como v
1
, . . . , v
n
es una base para V , existen
1
, . . . ,
n
,
1
. . . ,
n
R tal
que v =
1
v
1
+ +
n
v
n
y w =
1
v
1
+ +
n
v
n
, luego
T(v +w) = T(
1
v
1
+ +
n
v
n
+
1
v
1
+ +
n
v
n
)
= T ((
1
+
1
)v
1
+ + (
n
+
n
))
=
_

1
+
1
.
.
.

n
+
n
_

_
=
_

1
.
.
.

n
_

_
+
_

1
.
.
.

n
_

_
= T(
1
v
1
+ +
n
v
n
) +T(
1
v
1
+ +
n
v
n
)
= T(v) +T(w).
Autor: OMAR DAR

IO SALDARRIAGA 71
T(v) = T ((
1
v
1
+ +
n
v
n
))
= T(
1
v
1
+ +
n
v
n
)
=
_

1
.
.
.

n
_

_
=
_

1
.
.
.

n
_

_
= T(
1
v
1
+ +
n
v
n
)
= T(v).
T es inyectiva: Para esto veamos que Ker(T) = 0.
Sea v =
1
v
1
+ +
n
v
n
Ker(T), entonces 0 = T(v) =
_

1
.
.
.

n
_

_
. Entonces
1
= =
n
= 0 y por
tanto v = 0.
La otra inclusion es inmediata ya que T(0) = 0 y por tanto 0 Ker(T).
T es sobreyectiva: Sea y =
_

1
.
.
.

n
_

_
R
n
, y sea v =
1
v
1
+ +
n
v
n
V , entonces tenemos que
T(v) = T(
1
v
1
+ +
n
v
n
) =
_

1
.
.
.

n
_

_
= y.
Por tanto T es sobreyectiva.
Concluimos que T es un isomorsmo.
Ejemplo 3.15. El conjunto 1, t, t
2
, t
3
es una base del espacio V = P
3
, por tanto V es isomorfo a R
4
y el
isomorsmo esta dado por
T(a
0
+a
1
t +a
2
t
2
+a
3
t
3
) =
_

_
a
0
a
1
a
2
a
3
_

_
.
El n umero de vectores en una base es invariante, este hecho se demostro en el Captulo 2, pero en el caso de
subespacios de R
n
, a continuacion lo demostramos para espacios vectoriales en general.
Teorema 3.13. Sea V un espacio vectorial y sean v
1
, . . . , v
n
y w
1
, . . . , w
m
bases para V , entonces m = n.
Demostracion. Por el teorema anterior tenemos que V

= R
n
y V

= R
m
, luego R
n
= R
m
. Luego por el
Corolario 3.10 tenemos que m = n.
72
Esto nos permite denir la dimension de espacios vectoriales, al tener que el n umero de vectores en una base
es invariante.
Denicion 3.5. Sea V un espacio vectorial, denimos la dimensin de V, denotada por dimV , como el n umero
de vectores en una base de V. Es decir, si v
1
, . . . , v
n
es una base para V entonces dimV = n.
Ejemplo 3.16. 1. Como el conjunto 1, t, . . . , t
n
es una base para P
n
, tenemos que dimP
n
= n + 1.
2. Una base para M
22
(R) esta dada por
_
_
_
_
_
1 0
0 0
_
_
,
_
_
0 1
0 0
_
_
,
_
_
0 0
1 0
_
_
,
_
_
0 0
0 1
_
_
_
_
_
, por tanto dimM
22
(R) = 4.
3. En general tenemos que dimM
mn
(R) = mn. Una base para este espacio esta dada por E
ij
[ i =
1, dots, n, j = 1, . . . , m, donde Eij es la matriz m n con un 1 en la posicion ij y cero en las de-
mas posiciones.
El siguiente teorema muestra como los isomorsmo conservan la estructura de los espacios vectoriales, en
otras palabras, el siguiente teorema justica por que las transformaciones biyectivas son llamadas isomorsmos.
Teorema 3.14. Sean V y W espacios vectoriales, T : V W un isomorsmo, v
1
, . . . , v
n
V y sea v V .
Entonces se tiene lo siguiente:
1. El conjunto v
1
, . . . , v
n
es linealmente independiente si y solo si el conjunto T(v
1
), . . . , T(v
n
) es lineal-
mente independiente.
2. El conjunto v
1
, . . . , v
n
genera a V si y solo si el conjunto
T(v
1
), . . . , T(v
n
) genera a W.
3. El conjunto T(v
1
), . . . , T(v
n
) es una base para V si y solo si el conjunto T(v
1
), . . . , T(v
n
) es una base
para W.
4. dimV = dimW.
5. v v
1
, . . . , v
n
) si y solo si T(v) T(v
1
), . . . , T(v
n
)).
Demostracion. 1. Supongamos que el conjunto v
1
, . . . , v
n
es linealmente independiente y supong-
amos que
1
T(v
1
) + +
n
T(v
n
) = 0. Entonces 0 = T(0) = T(
1
v
1
+ +
n
v
n
). Como T es 1-1,
tenemos que
1
v
1
+ +
n
v
n
= 0. Ahora, como v
1
, . . . , v
n
es linealmente independiente, tenemos que

1
= =
n
= 0. De aqu concluimos que T(v
1
), . . . , T(v
n
) es linealmente independiente.
Supongamos que T(v
1
), . . . , T(v
n
) es linealmente independiente y supongamos que
1
v
1
+ +

n
v
n
= 0. Entonces tenemos que 0 = T(0) = T(
1
v
1
+ +
n
v
n
) =
1
T(v
1
) + +
n
T(v
n
). Como
T(v
1
), . . . , T(v
n
) es linealmente independiente tenemos que
1
= =
n
= 0. Por tanto v
1
, . . . , v
n

es linealmente independiente.
Autor: OMAR DAR

IO SALDARRIAGA 73
2. Como T es un isomorsmo, es en particular inyectivo y sobreyectivo, por tanto Ker(T) = 0 y W =
Im(T). Entonces tenemos lo siguiente:
T(v
1
), . . . , T(v
n
) genera a W si y solo si T(v
1
), . . . , T(v
n
) genera a Im(T) si y solo si para todo v V
existen constantes
1
, . . . ,
n
tal que T(v) =
1
T(v
1
) + +
n
T(v
n
) si y solo si para todo v V existen
constantes
1
, . . . ,
n
tal que T(v) = T(
1
v
1
+ +
n
v
n
) si y solo si para todo v V existen constantes

1
, . . . ,
n
tal que 0 = T(
1
v
1
+ +
n
v
n
) T(v) = T(
1
v
1
+ +
n
v
n
v) si y solo si para todo
v V existen constantes
1
, . . . ,
n
tal que
1
v
1
+ +
n
v
n
v Ker(T) = 0 si y solo si para todo
v V existen constantes
1
, . . . ,
n
tal que
1
v
1
+ +
n
v
n
v = 0 si y solo si para todo v V existen
constantes
1
, . . . ,
n
tal que v =
1
v
1
+ +
n
v
n
si y solo si v
1
, . . . , v
n
genera a V .
3. Es inmediato de 1 y 2.
4. Es inmediato de 3
5. v v
1
, . . . , v
n
) si y solo si existen constantes
1
, . . . ,
n
tal que v =
1
v
1
+ +
n
v
n
si y solo si
existen constantes
1
, . . . ,
n
tal que T(v) = T(
1
v
1
+ +
n
v
n
) =
1
T(v
1
) + +
n
T(v
n
) si y solo si
T(v) T(v
1
), . . . , T(v
n
)).
En la proxima seccion explotaremos toda la potencia de los teoremas 3.5 y 3.14, el cual nos permitira estudiar
independencia lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios. Tambien nos ayudara a
estudiar inyectividad, sobreyectividad y biyectividad de transformaciones lineales entre espacios vectoriales
arbitrarios.
3.5. Espacios Vectoriales arbitrarios
En esta seccion veremos como los teoremas 3.5 y 3.14 nos permiten resolver las preguntas sobre independencia
lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios con un procedimiento Gauss-Jordan.
Ejemplo 3.17. Considere los polinomios p
1
= 1 2t
2
, p
2
= t + t
2
t
3
y p
3
= t + 3t
2
P
3
. Determinar si los
polinomios son linealmente independientes.
Solucion. Por el Teorema 3.5 la funcion T : P
3
R
4
determinada por T(a
0
+a
1
t+a
2
t
2
+a
3
t
3
) =
_

_
a
0
a
1
a
2
a
3
_

_
es un
isomorsmo. Entonces por el Teorema 3.14 tenemos que el conjunto p
1
, p
2
, p
3
es linealmente independiente si
y solo si el conjunto
_

_
T(p
1
) =
_

_
1
0
2
0
_

_
, T(p
2
) =
_

_
0
1
1
1
_

_
, T(p
3
) =
_

_
0
1
3
0
_

_
_

_
es linealmente independiente.
74
Sabemos que este ultimo conjunto es LI si la matriz [
T(p
1
) T(p
2
) T(p
3
)
] =
_

_
1 0 0
0 1 1
2 1 3
0 1 0
_

_
tiene rango
igual al n umero de columnas. Aplicando el procedimiento Gauss-Jordan obtenemos que la forma escalonada
reducida de esta matriz es la matriz
_

_
1 0 0
0 1 0
0 0 1
0 0 0
_

_
. Luego los vectores T(p
1
), T(p
2
), T(p
3
) son LI y por tanto los
polinomios p
1
, p
2
, p
3
son LI.
Ejemplo 3.18. (MatLab) Sean m
1
=
_
_
1 2
0 0
_
_
, m
2
=
_
_
0 1
1 1
_
_
, m
3
=
_
_
0 3
1 0
_
_
y m
4
=
_
_
5 1
5 3
_
_
, determine
si las matrices son LI en M
22
(R) y si no lo son encontrar una dependencia lineal entre ellos.
Solucion. Por el Teorema 3.5 la funcion T : M
22
(R) R
4
determinada por T
_
_
_
_
a c
b d
_
_
_
_
=
_

_
a
b
c
d
_

_
es un
isomorsmo. Entonces el conjunto m
1
, m
2
, m
3
, m
4
es linealmente independiente si y solo si el conjunto
_

_
T(m
1
) =
_

_
1
0
2
0
_

_
, T(m
2
) =
_

_
0
1
1
1
_

_
, T(m
3
) =
_

_
0
1
3
0
_

_
, T(m
4
) =
_

_
5
5
1
3
_

_
_

_
es linealmente independiente. Al calcular
la forma escalonada de la matriz
A = [
T(m
1
) T(m
2
) T(m
3
) T(m
4
)
] obtenemos A

=
_

_
1 0 0 5
0 1 0 3
0 0 1 2
0 0 0 0
_

_
, por tanto los vectores no son LI y
tenemos que T(m
4
) = 5T(m
1
) 3T(m
2
) 2T(m
1
), como T es un isomorsmo tenemos que m
4
= 5m
1

3m
2
2m
3
, lo que nos da una dependencia lineal entre las matrices m
1
, m
2
, m
3
y m
4
.
Ejemplo 3.19. Sean m
1
, m
2
, m
3
y m
4
las matrices del ejemplo anterior, calcular una base y la dimension de
H = m
1
, m
2
, m
3
, m
4
) y determine si m =
_
_
1 1
1 3
_
_
H.
Solucion. De acuerdo al ejemplo anterior sabemos que m
1
, m
2
y m
3
son LI y que m
4
es una combinacion
lineal de estas, por tanto m
1
, m
2
, m
3
es una base para H y dim(H) = 3.
Para determinar si m H, usamos el Teorema 3.14 el cual dice que m H si y solo si T(m) T(H) si y
solo si existen constantes
1
,
2
,
3
tal que
T(m) =
1
T(m
1
) +
2
T(m
2
) +
3
T(m
3
) si y solo si el conjunto
T(m
1
), T(m
2
), T(m
3
), T(m) es LD.
Autor: OMAR DAR

IO SALDARRIAGA 75
Esto lo podemos saber calculando la forma escalonada reducida de la matriz
A = [
T(m
1
) T(m
2
) T(m
3
) T(m)
] =
_

_
1 0 0 1
0 1 1 1
2 1 3 1
0 1 0 3
_

_
.
Despues de hacer los respectivos calculos podemos notar que A

= I y por tanto los vectores son LI. Concluimos


que T(m) / T(H), luego m / H.
3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios.
El Teorema 3.5 tamben nos va ser muy util para calcular el kernel y la imagen de una transformacion lineal
entre espacios vectoriales generales usando reduccion Gauss-Jordan. Lo que nos permite hacer todos los calculos
sobre espacios vectoriales y transformaciones lineales de una manera computacional. Necesitamos el siguiente
teorema.
Teorema 3.15. Sean V y W espacios vectoriales, sea v
1
, . . . , v
n
una base para V , w
1
, . . . , w
m
una base
para W y T : V W una transformacion lineal. Por el Teorema 3.12 sabemos que existen isomorsmos
T
1
: R
n
V y T
2
: R
m
W. Por tanto tenemos el diagrama
V W

R
n
R
m
donde la transformacion S
esta dada por S = T
1
2
T T
1
. Entonces tenemos lo siguiente:
1. S es inyectiva si y solo si T es inyectiva.
2. S es sobre si y solo si T es sobre.
3. S es un isomorsmo si y solo si T es un isomorsmo.
Demostracion. Por la denicion de S tenemos que T = T
2
S T
1
1
, ademas como T
1
y T
2
son isomorsmos,
son en particular inyectivos y sobreyectivos.
1. Si S es inyectiva entonces T = T
2
S T
1
1
es una composicion de transformaciones inyectivas y por
tanto es inyectiva.
Si T es inyectiva entonces S = T
1
2
T T
1
es una composicion de transformaciones inyectivas y por
tanto S es inyectiva.
2. Si S es sobreyetiva entonces T = T
2
S T
1
1
es una composicion de transformaciones sobreyectivas
y por tanto es sobreyectiva.
Si T es sobreyectiva entonces S = T
1
2
T T
1
es una composicion de transformaciones sobreyectivas
y por tanto S es sobreyectiva.
76
3. Se sigue de 1. y 2.
Este teorema nos permite ver cualquier transformacion lineal como una transformacion lineal de R
n
en R
m
,
pero no nos dice como determinar si la transformacion es inyectiva y/o sobreyectiva, tampoco nos dice como
calcular el kernel y la imagen. Los siguientes corolarios nos daran las respuestas.
Corolario 3.16. Sean V y W espacios vectoriales, sea v
1
, . . . , v
n
una base para V , w
1
, . . . , w
m
una base
para W, T : V W una transformacion lineal. T
1
: R
n
V y T
2
: R
m
W los isomorsmos canonicos
de V y W, respectivamente, sea S = T
1
2
T T
1
: R
n
R
m
y sea A =
E
S
E
la matriz de la transformacion
S. Entonces
1. T es 1-1 si y solo si rango(A) = # de columnas de A.
2. T es sobre si y solo si rango(A) = # de las de A.
3. es un isomorsmo si y solo si rango(A) = # de las de A = # de columnas.
Demostracion. Esto es una consecuencia inmediata del teorema anterior y los Teoremas 3.6, 3.8 y 3.9
Corolario 3.17. Sean V y W espacios vectoriales, sea v
1
, . . . , v
n
una base para V , w
1
, . . . , w
m
una base
para W, T : V W una transformacion lineal. T
1
: R
n
V y T
2
: R
m
W los isomorsmos canonicos
de V y W, respectivamente, sea S = T
1
2
T T
1
: R
n
R
m
y sea A =
E
S
E
la matriz de la transformacion
S. Entonces
1. Ker(T) = T
1
(Ker(S)) = T
1
(Nul(A)).
2. Im(T) = T
2
(Im(S)) = T
2
(Col(A)).
En otras palabras
x
1
, . . . , x
r
es una base de Nul(A) si y solo si T
1
(x
1
), . . . , T
1
(x
r
) es una base de Ker(T) y
y
1
, . . . , y
s
es una base de Col(A) si y solo si T
2
(y
1
), . . . , T
2
(y
s
) es una base de Im(T).
Demostracion. 1.
v Ker(T) si y solo si 0 = T(v) = T
2
S T
1
1
(v)
si y solo si T
2
(S T
1
1
(v)) = 0
si y solo si S T
1
1
(v) = 0
si y solo si T
1
1
(v) Ker(S) = Nul(A)
si y solo si v T
1
(Nul(A)).
Autor: OMAR DAR

IO SALDARRIAGA 77
2.
w Im(T) si y solo si existe v V tal que w = T(v) = T
2
S T
1
1
(v)
si y solo si existe v V tal que T
1
2
(w) = S(T
1
1
(v))
si y solo si T
1
2
(w) Im(S) = Col(A)
si y solo si y T
2
(Col(A)).
A continuacion daremos ejemplos de como usar estos corolarios para calcular la imagen y el kernel de
transformaciones lineales.
Ejemplo 3.20. Considere la funcion derivacion D : P
3
P
2
denida por D(a+bt+ct
2
+dt
3
) = b+2ct+3dt
2
.
Determinar si es 1-1 y/o sobre, si es un isomorsmo, calcular el kernel y la imagen de D.
Solucion. El conjunto 1, t, t
2
es una base de P
2
y 1, t, t
2
, t
3
es una base de P
3
. Considere los isomorsmos
T
1
: R
4
P
3
y T
2
: R
3
P
2
denidos por T
1
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= a +bt +ct
2
+dt
3
y T
2
_
_
_
_
_
_

_
a
b
c
_

_
_
_
_
_
_
= a +bt +ct
2
(Los
isomorsmos canonicos de P
3
y P
2
, respectivamente.)
La transformacion S = T
1
2
D T
1
: R
4
R
3
esta dada por
S
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= T
1
2
D T
1
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= T
1
2
D(a +bt +ct
2
+dt
3
)
= T
1
2
(b + 2ct + 3dt
2
) =
_

_
b
2c
3d
_

_
.
La matriz de esta transformacion es
A =
E
S
E
= [
S(e
1
) S(e
2
) S(e
3
) S(e
4
)
] =
_

_
0 1 0 0
0 0 2 0
0 0 0 3
_

_
y su forma escalonada esta dada por A

=
_

_
0 1 0 0
0 0 1 0
0 0 0 1
_

_
. Por tanto la transformacion S es sobre pero no
inyectiva, luego por el Teorema 3.15 tenemos que D es sobreyectiva pero no inyectiva, por tanto no es un
isomorsmo.
78
Ahora pasamos a calcular el kernel y la imagen. Como D es sobre entonces Im(D) = P
2
. Para el kernel,
usamos el Corolario 3.17, el cual no dice que si calculamos una base de Nul(A) y aplicamos T
1
obtenemos una
base de Ker(D).
Notese que
_

4
_

_
Nul(A

) = Nul(A) si y solo si
2
=
3
=
4
= 0
si y solo si
_

4
_

_
=
_

1
0
0
0
_

_
=
1
_

_
1
0
0
0
_

_
Luego x
1
=
_

_
_

_
1
0
0
0
_

_
_

_
es una base de Nul(A) = Ker(S). Por tanto T
1
(x
1
) = 1 una base para Ker(D). Es
decir Ker(D) = 1) = polinomios constantes .
Ejemplo 3.21. Considere la funcion integracion D : P
2
P
3
denida por I(a +bt +ct
2
) = at +
1
2
bt
2
+
1
3
ct
3
.
Determinar si I es 1-1 y/o sobre, si es un isomorsmo, calcular el kernel y la imagen de I.
Solucion. Nuevamente consideramos las bases 1, t, t
2
de P
2
y 1, t, t
2
, t
3
de P
3
y los isomorsmos T
1
:
R
3
P
2
denido por T
1
_
_
_
_
_
_

_
a
b
c
_

_
_
_
_
_
_
= a +bt +ct
2
y T
2
: R
4
P
3
denido por T
2
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= a +bt +ct
2
+dt
3
.
En este caso la transformacion S = T
1
2
I T
1
: R
3
R
4
esta dada por
S
_
_
_
_
_
_

_
a
b
c
_

_
_
_
_
_
_
= T
1
2
I T
1
_
_
_
_
_
_

_
a
b
c
_

_
_
_
_
_
_
= T
1
2
I(a +bt +ct
2
)
= T
1
2
(at +
1
2
bt
2
+
1
3
ct
3
) =
_

_
0
a
1/2b
1/3c
_

_
.
Autor: OMAR DAR

IO SALDARRIAGA 79
La matriz de esta transformacion es
A =
E
S
E
= [
S(e
1
) S(e
2
) S(e
3
)
] =
_

_
0 0 0
1 0 0
0 1/2 0
0 0 1/3
_

_
y su forma escalonada reducida esta dada por A

=
_

_
1 0 0
0 1 0
0 0 1
0 0 0
_

_
. Por tanto la transformaci on S es inyectiva pero
no sobreyectiva, luego por el Teorema 3.15 tenemos que I es inyectiva pero no sobreyectiva, por tanto no es un
isomorsmo.
Ahora pasamos a calcular el kernel y la imagen. Como I es inyectiva entonces Ker(I) = 0. Para calcular
la imagen, usamos el Corolario 3.17, el cual no dice que si calculamos una base de Col(A) y aplicamos T
2
obtenemos una base de Im(I).
De la matriz A

obtenemos que una base para Col(A) = Im(S) esta dada por el conjunto
_

_
y
1
=
_

_
0
1
0
0
_

_
, y
2
=
_

_
0
0
1/2
0
_

_
, y
3
=
_

_
0
0
0
1/3
_

_
_

_
,
ya que A

tiene pivotes en las tres columnas. Por tanto el conjunto T


2
(y
1
), T
2
(y
2
), T
2
(y
3
) =
_
t,
1
2
t
2
,
1
3
t
3
_
es
una base para Im(I). Es decir
Im(I) =
_
t,
1
2
t
2
,
1
3
t
3
_
= t, t
2
, t
3
).
Ejemplo 3.22. Sea X =
_
_
1 1
1 1
_
_
y sea T : M
22
M
22
la funcion denida por T(B) = BX. Demuestre
que T es una transformacion lineal, determine si T es inyectiva y/o sobre, si es un isomorsmo y calcular el
kernel y la imagen de T.
Solucion. Primero veamos que T es una transformacion lineal. Sean B
1
, B
2
M
22
y R,
T(B
1
+B
2
) = (B
1
+B
2
)X = B
1
X +B
2
X = T(B
1
) +T(B
2
) y
T(B
1
) = (B
1
)X = (B
1
X) = T(B
1
).
Fijemos la base
_
_
_
E
11
=
_
_
1 0
0 0
_
_
, E
21
=
_
_
0 0
1 0
_
_
, E
12
=
_
_
0 1
0 0
_
_
, E
22
=
_
_
0 0
0 2
_
_
_
_
_
80
y consideremos el isomorsmo H : R
4
M
22
denido por
H
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= aE
11
+bE
21
+cE
12
+dE
22
=
_
_
a c
b d
_
_
.
La transformacion S = H
1
T H : R
4
R
4
esta dada por
S
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= H
1
T H
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= H
1
T
_
_
_
_
a c
b d
_
_
_
_
= H
1
_
_
_
_
a c
b d
_
_
X
_
_
= H
1
_
_
_
_
a c a +c
b d b +d
_
_
_
_
=
_

_
a c
b d
a +c
b +d
_

_
.
La matriz de esta transformacion es
A =
E
S
E
= [
S(e
1
) S(e
2
) S(e
3
) S(e
4
)
] =
_

_
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
_

_
y su forma escalonada reducida es la matriz A

=
_

_
1 0 1 0
0 1 0 1
0 0 0 0
0 0 0 0
_

_
. Luego S no es inyectiva ni sobreyectiva y
tampoco un isomorsmo.
De la matriz A

tenemos que una base para Col(A) esta dada por las dos primeras columnas de A, es decir,
_

_
m
1
=
_

_
1
0
1
0
_

_
, m
2
=
_

_
0
1
0
1
_

_
_

_
es una base para Col(A) = Im(S). Por tanto H(m
1
), H(m
2
) =
_
_
_
_
_
1 1
0 0
_
_
,
_
_
0 0
1 1
_
_
_
_
_
es una base de Im(T).
Autor: OMAR DAR

IO SALDARRIAGA 81
Ahora para calcular Ker(T) necesitamos una base para Nul(A). Notese que
_

4
_

_
Nul(A) = Nul(A

) si y solo si

1
=
3

2
=
3
si y solo si
_

4
_

_
=
_

4
_

_
=
3
_

_
1
0
1
0
_

_
+
4
_

_
0
1
0
1
_

_
Luego el conjunto
_

_
x
1
=
_

_
1
0
1
0
_

_
, x
2
=
_

_
0
1
0
1
_

_
_

_
es una base para Nul(A) = Ker(S). Por tanto el conjunto H(x
1
), H(x
2
) =
_
_
_
_
_
1 1
0 0
_
_
,
_
_
0 0
1 1
_
_
_
_
_
es una base para Ker(T).
Ejemplo 3.23. Sea X =
_
_
2 1
1 1
_
_
y sea T : M
22
M
22
la funcion denida por T(B) = XB. Demuestre que
T es una transformacion lineal, determine si T es inyectiva y/o sobre, si es un isomorsmo y calcular el kernel
y la imagen de T.
Solucion. Con un argumento similar al del ejemplo anterior se demuestra que T es una transformacion lineal.
Para los demas calcilos jemos la base
_
_
_
E
11
=
_
_
1 0
0 0
_
_
, E
21
=
_
_
0 0
1 0
_
_
, E
12
=
_
_
0 1
0 0
_
_
, E
22
=
_
_
0 0
0 2
_
_
_
_
_
y tomemos el isomorsmo H : R
4
M
22
denido por
H
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= aE
11
+bE
21
+cE
12
+dE
22
=
_
_
a c
b d
_
_
.
82
En este caso la transformacion S = H
1
T H : R
4
R
4
esta dada por
S
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= H
1
T H
_
_
_
_
_
_
_
_
_

_
a
b
c
d
_

_
_
_
_
_
_
_
_
_
= H
1
T
_
_
_
_
a c
b d
_
_
_
_
= H
1
_
_
X
_
_
a c
b d
_
_
_
_
= H
1
_
_
_
_
2a +b 2c +d
a +b b +d
_
_
_
_
=
_

_
2a +b
a +b
2c +d
b +d
_

_
.
La matriz de esta transformacion es
A =
E
S
E
= [
S(e
1
) S(e
2
) S(e
3
) S(e
4
)
] =
_

_
2 1 0 0
1 1 0 0
0 0 2 1
0 0 1 1
_

_
y su forma escalonada reducida es la matriz A

=
_

_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_

_
= I. De esto concluimos que S es inyectiva y
sobreyectiva y por tanto es un isomorsmo.
Como T es un isomorsmo tenemos que Ker(T) = 0 y Im(T) = M
22
.
3.6. Propiedades de los Espacios Vectoriales
En esta seccion estudiaremos resultados clasicos de espacios vectoriales, como el Teorema de la base incom-
pleta y el Teorema de la dimension, entre otros. Comenzamos con el siguiente resultado que garantiza que la
representacion de un vector en terminos de una base es unica.
Teorema 3.18. Sea V un espacio vectorial, v
1
, . . . , v
n
una base de V y v V , entonces existen constantes
unicas
1
, . . . ,
n
talque v =
1
v
1
+ +
n
v
n
.
Demostracion. Supongamos que existen constantes
1
, . . . ,
n
talque v =
1
v
1
+ +
n
v
n
y supongamos
que existen otras constantes
1
, . . . ,
n
tal que v =
1
v
1
+ +
n
v
n
. Entonces restando estas dos ecuaciones
obtenemos:
0 = v v =
1
v
1
+ +
n
v
n
(
1
v
1
+ +
n
v
n
) = (
1

1
)v
1
+ + (
1

n
)v
n
luego, como los vectores v
1
, . . . , v
n
son LI, entonces 0 =
1

1
= =
n

n
, por tanto
1
=
1
, . . . ,
n

n
y las constantes son unicas.
Autor: OMAR DAR

IO SALDARRIAGA 83
Los siguientes dos teoremas generalizaciones de teoremas que vimos en el Captulo 2 para R
n
.
Teorema 3.19. Sea V un espacio vectorial y sea v
1
, . . . , v
n
un conjunto linealmente independiente. Si
dim(V ) = n entonces v
1
, . . . , v
n
es una base para V.
Demostracion. Como dim(V ) = n, aplicando el Teorema 3.12 existe un isomorsmo T : V R
n
y por el
Teorema 3.13 el conjunto T(v
1
), . . . , T(v
n
) es linealmente independiente en R
n
, luego por el Teorema 2.11
parte 2. Este conjunto forma una base para R
n
. Aplicando nuevamente el Teorema 3.12 tenemos que v
1
, . . . , v
n

es una base de V .
Teorema 3.20. Sean V y W espacios vectoriales con dim(V ) = n y sea T : V W una transformacin lineal.
Entonces dim(Ker(T)) + dim(ImT) = n.
Demostracion. Sea m = dim(W) y sean T
1
: R
n
V y T
2
: R
m
W los isomorsmos canonicas de V y
W, respectivamente. Denamos S = T
1
2
T T
1
y sea A la matriz de S, entonces por el Corolario 2.17 tenemos
que
dim(NulA) + dim(ColA) = n.
Ahora, como dim(ImT) = dim(ImS) = dim(ColA) y
dim(KerT) = dim(KerS) = dim(NulA) entonces tenemos
dim(ImT) + dim(KerT) = dim(ImS) + dim(NulS)
= dim(ColA) + dim(NulA) = n.
Ahora vamos a demostrar el teorema de la base incompleta, para facilitar su demostracion veamos el siguiente
Lema.
Lema 3.21. Sea V un EV, v
1
, . . . , v
k
V un conjunto de vectores linealmente independientes y w V . Si
w / v
1
, . . . , v
k
) entonces el conjunto v
1
, . . . , v
k
, w es linealmente independiente.
Demostracion. Supongamos que w / v
1
, . . . , v
k
). Para demostrar que
v
1
, . . . , v
k
, w es linealmente independiente, supongamos que

1
v
1
+ +
k
v
k
+w = 0 (3.1)
y veamos que las constantes son todas cero.
Primero notese que = 0, ya que si ,= 0, entonces de 3.1 tenemos que w =
1

v
1

v
k
y por tanto
w v
1
, . . . , v
k
) lo que contradice la hipotesis, por tanto = 0. Entonces la Ecuacion 3.1 se reduce a

1
v
1
+ +
k
v
k
= 0,
pero como v
1
, . . . , v
k
es un conjunto linealmente indpendiente tenemos que 0 =
1
= =
k
. Concluimos
que v
1
, . . . , v
k
, w es linealmente independiente.
84
Teorema 3.22. (Teorema de la base incompleta) Sea V un espacio vectorial con dim(V ) = n, sea
v
1
, . . . , v
k
un conjunto de vectores linealmente independientes con k < n. Entonces existen vectores v
k+1
, . . . , v
n
tal que
v
1
, . . . , v
k
, v
k+1
, . . . , v
n
es una base para V .
Demostracion. Como v
1
, . . . , v
k
es linealmente independiente, entonces
dimv
1
, . . . , v
k
) = k y como k < n entonces v
1
, . . . , v
k
) ,= V , por tanto existe v V tal que v / v
1
, . . . , v
k
),
entonces aplicando el lema anterior tenemos que v
1
, . . . , v
k
, v es linealmente independiente.
Tomemos v
k+1
= v y as tenemos que v
1
, . . . , v
k
, v
k+1
es linealmente independiente. Si n = k +1 entonces
V = v
1
, . . . , v
k
, v
k+1
) y por tanto v
1
, . . . , v
k
, v
k+1
es una base de V . En el caso k + 1 < n tenemos que
v
1
, . . . , v
k
, v
k+1
) , = V y existe w V tal que w / v
1
, . . . , v
k
, v
k+1
), entonces aplicando el lema anterior
tenemos que v
1
, . . . , v
k
, v
k+1
, w es linealmente independiente.
Hacemos v
k+2
= w y tenemos que v
1
, . . . , v
k
, v
k+1
, v
k+2
es linealmente independiente.
Continuando de manera inductiva conseguimos vectores v
k+1
, . . . , v
n
tal que v
1
, . . . , v
k
, v
k+1
, . . . , v
n
es
linealmente independiente, entonces como dim(V ) = n, por el Teorema 3.19 tenemos que
v
1
, . . . , v
k
, v
k+1
, . . . , v
n
es una base para V .
Teorema 3.23. Sea V un espacio vectorial y sean W
1
y W
2
subespacios de V . Entonces
dim(W
1
+W
2
) = dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
Demostracion. Sea n = dim(V ), r = dim(W
1
), s = dim(W
2
) y t = dim(W
1
W
2
). Sea w
1
, . . . , w
t
una base
para W
1
W
2
, por el Teorema de la base incompleta, existen vectores x
t+1
, . . . , x
r
tal que w
1
, . . . , w
t
, x
t+1
, . . . , x
r

es una base para W


1
y existen vectores y
t+1
, . . . , y
s
tal que w
1
, . . . , w
t
, y
t+1
, . . . , y
s
es una base para W
2
.
Armacion 1: El conjunto w
1
, . . . , w
t
, x
t+1
, . . . , x
r
, y
t+1
, . . . , y
s
es linealmente independiente.
Demostracion: supongamos que

1
w
1
+ +
t
w
t
+
t+1
x
t+1
+ +
r
x
r
+
t+1
y
t+1
+ +
s
y
s
= 0. (3.2)
Sea v =
t+1
y
t+1
+ +
s
y
s
W
2
, entonces por 3.2 tenemos que
v =
t+1
y
t+1
+ +
s
y
s
=
1
w
1

t
w
t

t+1
x
t+1
+
r
x
r
W
1
por tanto v W
1
W
2
, entonces existen constantes
1
, . . . ,
t
tal que v =
1
w
1
+ +
t
w
t
. Luego 0 = v v =

1
w
1
+ +
t
w
t

t+1
y
t+1

s
y
s
y como w
1
, . . . , w
t
, y
t+1
, . . . , y
s
es linealmente independiente, por
ser base de W
2
, entonces
0 =
1
= =
t
=
1
= =
s
.
Entonces 3.2 se reduce a
1
w
1
+ +
t
w
t
+
t+1
x
t+1
+ +
r
x
r
= 0, pero como w
1
, . . . , w
t
, x
t+1
, . . . , x
r

es linealmente independiente, por ser base de W


1
, tenemos que
0 =
1
= =
t
=
1
= =
s
.
Autor: OMAR DAR

IO SALDARRIAGA 85
Concluimos que w
1
, . . . , w
t
, x
t+1
, . . . , x
r
, y
t+1
, . . . , y
s
es linealmente independiente, lo que demuestra la Ar-
macion 1.
Armacion 2: El conjunto w
1
, . . . , w
t
, x
t+1
, . . . , x
r
, y
t+1
, . . . , y
s
genera a W
1
+W
2
.
Demostracion: Sea w W
1
+W
2
, entonces existen x W
1
y y W
2
tal que w = x +y.
Como w
1
, . . . , w
t
, x
t+1
, . . . , x
r
es una base para W
1
, existen constantes
1
, . . . ,
r
tal que
x =
1
w
1
+ +
t
w
t
+
t+1
x
t+1
+ +
r
x
r
. (3.3)
Similarmente existen constantes
1
, . . . ,
s
tal que
y =
1
w
1
+ +
t
w
t
+
t+1
y
t+1
+ +
s
y
s
. (3.4)
De las Ecuaciones 3.3 y 3.4 tenemos que
w =x +y
=
1
w
1
+ +
t
w
t
+
t+1
x
t+1
+ +
r
x
r
+
1
w
1
+ +
t
w
t
+
t+1
y
t+1
+ +
s
y
s
=(
1
+
1
)w
1
+ + (
t
+
t
)w
t
+
t+1
x
t+1
+ +
r
x
r
+
t+1
y
t+1
+ +
s
y
s
.
Lo que demuestra la Armacion 2.
De las armaciones 1. y 2. tenemos que el conjunto
w
1
, . . . , w
t
, x
t+1
, . . . , x
r
, y
t+1
, . . . , y
s
es una base para W
1
+W
2
. Por tanto
dim(W
1
+W
2
) = t +r t +s t = r +s t = dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
Observacion 3.3. Notese que en el caso particular en el que W
1
W
2
= 0 tenemos que
dim(W
1
+W
2
) = dim(W
1
) + dim(W
2
).
En este caso decimos que W
1
+W
2
es la suma directa de W
1
y W
2
.
Para mayor claridad denimos suma directa a continuacion.
Denicion 3.6. (Suma Directa) Sea V un espacio vectorial y sean W
1
y W
2
subespacios de V , decimos que
V es la suma directa de W
1
y W
2
, lo cual denotamos por V = W
1
W
2
si V = W
1
+W
2
y W
1
W
2
= 0.
El siguiente teorema caracteriza la suma directa de espacios, en general se dice que V es suma directa de
subespacios si al unir bases de estos se forma una base de V , esto lo enunciamos a continuacion.
Teorema 3.24. Sea V un espacio vectorial, sean W
1
y W
2
subespacios de V y sean v
1
, . . . , v
r
y w
1
, . . . , w
s

bases para W
1
y W
2
, respectivamente. Entonces V = W
1
W
2
si y solo si
v
1
, . . . , v
r
, w
1
, . . . , w
s
es una base para V .
86
Demostracion. Supongamos que V = W
1
W
2
, entonces V = W
1
+W
2
y W
1
W
2
= 0, entonces por
la Armacion 1. del teorema anterior tenemos que v
1
, . . . , v
r
, w
1
, . . . , w
s
es una base para W
1
+W
2
= V.
Supongamos que v
1
, . . . , v
r
, w
1
, . . . , w
s
es una base para V .
Armacion 1. V = W
1
+W
2
Demostracion. Sea v V , como v
1
, . . . , v
r
, w
1
, . . . , w
s
es una base para V , existen constantes
1
, . . . ,
r
,
1
, . . . ,
s
tal que
v =
1
v
1
+ +
r
v
r
. .
W1
+
1
w
1
+ +
s
w
s
. .
W2
W
1
+W
2
.
La otra inclusion es clara ya que como W
1
y W
2
son subespacios entonces W
1
+ W
2
es un subespacio, en
particular es un subconjunto. Esto demuestra la armacion.
Armacion 2. W
1
W
2
= 0.
Demostracion. Sea v W
1
W
2
, entonces v W
1
y v W
2
. Como v
1
, . . . , v
r
es una base de W
1
, existen
constantes
1
, . . . ,
r
tal que
v =
1
v
1
+ +
r
v
r
. (3.5)
Un argumento similar garantiza la existencia de constantes
1
, . . . ,
s
tal que
v =
1
v
1
+ +
r
v
r
. (3.6)
De las ecuaciones 3.5 y 3.6 tenemos que
0 = v v =
1
v
1
+ +
r
v
r

1
w
1
+ +
s
w
s
.
Ahora, como v
1
, . . . , v
r
, w
1
, . . . , w
s
es linealmente independiente, por ser base para V , tenemos que 0 =
1
=
=
r
=
1
= =
s
. Por tanto v =
1
v
1
+ +
r
v
r
= 0 y W
1
W
2
0. La otra inclusion es trivial ya
que 0 W
1
+W
2
luego 0 W
1
W
2
. Lo que prueba la armacion.
De las armaciones 1. 2. tenemos que V = W
1
W
2
.
Captulo 4
Ortogonalidad en R
n
4.1. Deniciones Basicas
Comenzamos el captulo con la denicion de producto escalar de vectores en R
n
.
Denicion 4.1. Sean x =
_

_
x
1
.
.
.
x
n
_

_
y y =
_

_
y
1
.
.
.
y
n
_

_
vectores en R
n
, denimos el producto por escalar de x y y,
denotado por x y, por la formula
x y = x
1
y
1
+ +x
n
y
n
=
n

i=1
x
i
y
i
.
Ejemplo 4.1. Sean x =
_

_
1
2
3
_

_
y y =
_

_
1
1
2
_

_
, entonces x y = 1 (1) + 2 (1) + 3 2 = 1 2 + 6 = 3.
Ejemplo 4.2. (MatLab) Sean x =
_

_
1
1
1
_

_
y y =
_

_
1
1
0
_

_
. El producto escalar x y se calcula en MatLab como se
muestra continuacion
>> x = [1; 1; ; 1], y = [1; 1; 0], x

y
ans = -2.
De donde se tiene que x y = 2.
Observacion 4.1. (Propiedades del producto escalar) Sean x, y, z R
n
1. (x +y) z = x x +y z
2. x (y +z) = x y +x z
87
88
3. (x) y = x (y) = x y
4. x x 0 y x x = 0 si y solo si x = 0.
5. x y = y x.
El producto por escalar induce una geometra en R
n
, ya que a partir de este, podemos denir la longitud (o
norma) de un vector y la distancia entre vectores.
Denicion 4.2. (Norma de un vector) Sea x =
_

_
x
1
.
.
.
x
n
_

_
un vector en R
n
, denimos la norma de x, denotada
por [[x[[, por la formula
[[x[[ =

x x =
_
x
2
1
+ +x
2
n
.
Ejemplo 4.3. De acuerdo a esta formula, la norma del vector v =
_

_
1
1
2
_

_
esta dada por
[[v[[ =
_
(1)
2
+ (1)
2
+ 2
2
=

6.
Denicion 4.3. (Distancia entre vectores) Sean x y y vectores en R
n
, la distancia entre x y y esta dada
por la formula [[y x[[.
Ejemplo 4.4. Sean x =
_

_
1
2
3
_

_
y y =
_

_
1
1
2
_

_
, entonces la distancia entre x y y esta dada por
[[y x[[ =
_
(1 1)
2
+ (1 2)
2
+ (2 3)
2
=

14.
Observacion 4.2. Notese que si x y y son vectores en R
2
o en R
3
, entonces se cumple que
x y = [[x[[ [[y[[cos, (4.1)
donde es el angulo formado por x y y
Aplicando la ley de cosenos obtenemos
[[x y[[
2
= [[x[[
2
+[[y[[
2
2[[x[[[[y[[ cos , (4.2)
pero, por la denicion de norma y las propiedades del producto escalar tenemos
[[x y[[
2
= (x y) (x y) = x x x y y x +y y = [[x[[
2
2x y +[[y[[
2
. (4.3)
De las ecuaciones (4.2) y (4.3) tenemos
x y = [[x[[ [[y[[cos.
Autor: OMAR DAR

IO SALDARRIAGA 89
Denicion 4.4. (Vectores ortogonales) Sean x, y R
n
, decimos que x y y son ortogonales si x y = 0.
Ejemplo 4.5. Sean x =
_

_
1
1
2
_

_
y y =
_

_
1
1
1
_

_
, determinar si x y y son ortogonales y encontrar al angulo que
forman.
Solucion: El producto escalar x y = 1 1 + 2 = 2, entonces los vectores no son ortogonales. Ahora, de la
ecuacion (4.1) tenemos que el angulo formado por x y y esta dado por
= cos
1
_
x y
[[x[[[[y[[
_
= cos
1
_
2

3
_
= cos
1
_

2
3
_
.
La formula (4.1) se usa para denir el angulo formado por dos vectores x y y en R
n
, la cual es como sigue.
Denicion 4.5. Sean x, y R
n
, denimos el angulo formado por x y por
angulo entre x y y = cos
1
_
x y
[[x[[ [[y[[
_
. (4.4)
Ejemplo 4.6. Calcular el angulo formado por los vectores x =
_

_
1
0
1
0
_

_
y y =
_

_
1
0
0
1
_

_
.
Solucion Notese que x y = 1 +0 +0 +0 = 1, [[x[[ =

2 y [[y[[ =

2. Entonces de acuerdo a la Ecuacion (4.4)


tenemos que
angulo entre x y y = cos
1
_
x y
[[x[[ [[y[[
_
= cos
1
_
1

2
_
= cos
1
_
1
2
_
= 60

.
Denicion 4.6. (Espacios ortogonales) Sean V y W subespacios de R
n
, decimos que V y W son ortogonales
si v w = 0 para todo v V y w W.
Ejemplo 4.7. Sean V =
_
_

_
1
1
2
0
_

_
,
_

_
0
1
1
1
_

_
_
y W =
_
_

_
1
1
0
1
_

_
_
subespacios de R
4
, entonces V y W son ortogonales
ya que todo elemento en v V tiene la forma v = a
_

_
1
1
2
0
_

_
+b
_

_
0
1
1
1
_

_
=
_

_
a
a +b
2a +b
b
_

_
y todo elemento w W tiene
la forma w = c
_

_
1
1
0
1
_

_
=
_

_
c
c
0
c
_

_
, donde a, b y c son n umeros reales, por tanto
v w = ac + (a +b)(c) + (2a +b)0 +bc = ac +ac bc +bc = 0.
90
Los subespacios ortogonales satisfacen lo siguiente.
Lema 4.1. Sean V y W subespacios ortogonales de R
n
, entonces
1. V W = 0,
2. Si v
1
, . . . , v
r
y w
1
, . . . , w
s
son bases para V y W, respectivamente, entonces el conjunto v
1
, . . . , v
r
, w
1
, . . . , w
s

es linealmente independiente.
Demostracion. 1. Sea v V W, entonces como V y W son ortogonales se tiene que v v = 0 y por tanto
v = 0.
2. Supongamos que a
1
v
1
+ +a
r
v
r
+c
1
w
1
+ +c
s
w
s
= 0, entonces
a
1
v
1
+ +a
r
v
r
= c
1
w
1
c
s
w
s
V W.
Por la parte 1. tenemos que a
1
v
1
+ + a
r
v
r
= 0, de donde a
1
= = a
r
= 0 y de aqu se sigue que
c
1
w
1
c
s
w
s
= 0 y como w
1
, . . . , w
s
es una base entonces c
1
= = c
r
= 0.
El caso que estudiaremos a fondo en este captulo es cuando los dos subespacios ortogonales son complemen-
tarios, esto lo denimos a continuacion.
Denicion 4.7. (Complemento ortogonal) Sea V un subespacio de R
n
, denimos el complemento ortogonal
de V , al cual denotaremos por V

, como el conjunto
V

= w R
n
[ v w = 0, para todo v V .
El siguiente teorema nos da un algoritmo para calcular la base para el complemento ortogonal de un sube-
spacio V de R
n
.
Teorema 4.2. Sea A una matriz de tama no mn, entonces tenemos que:
1. Fil(A)

= Nul(A),
2. Col(A)

= Nuliz(A).
Demostracion. Sean F
1
, . . . , F
m
las las y C
1
, . . . , C
n
las columnas de A.
1. Sea x Fil(A)

, entonces v x = 0 para todo v Fil(A), en particular, 0 = F


t
i
x = F
i
x, para
i = 1, . . . , m. De donde
Ax =
_

_
F
1
.
.
.
F
m
_

_
x =
_

_
F
1
x
.
.
.
F
m
x
_

_
=
_

_
0
.
.
.
0
_

_
,
es decir x Nul(A).
Autor: OMAR DAR

IO SALDARRIAGA 91
Sea x Nul(A), entonces 0 = Ax =
_

_
F
1
x
.
.
.
F
m
x
_

_
, por tanto para i = 1, . . . , m tenemos que 0 = F
i
x = F
t
i
x.
Ahora si v Fil(A), entonces v = a
1
F
1
+ +a
m
F
m
y por tanto v x = a
1
F
1
x
. .
=0
+ +a
m
F
m
x
. .
=0
= 0,
de donde x Fil(A)

.
2. Col(A) = Fil(A
t
), entonces Col(A)

= Fil(A
t
)

= Nul(A
t
) = Nuliz(A).
A continuacion describimos el procedimiento para calcular el complemento ortogonal, el cual se deduce del
teorema anterior.
Procedimiento para calcular el complemento ortogonal. Sea v
1
, . . . , v
k
una base para V , para calcular
una base para V

hacemos lo siguiente:
1. Sea A =
_

_
v
t
1
.
.
.
v
t
k
_

_
. Por tanto V = Fil(A).
2. Sea W = Nul(A) entonces W = V

, esto ya que V

= Fil(A)

= Nul(A) = W.
Ejemplo 4.8. Calcular V

si V =
_
_

_
1
0
0
1
_

_
,
_

_
0
0
1
1
_

_
_
.
Solucion: Sea v
1
=
_

_
1
0
0
1
_

_
y v
2
=
_

_
0
0
1
1
_

_
, debemos calcular Nul(A) donde A =
_
_
v
t
1
v
t
2
_
_
=
_
_
1 0 0 1
0 0 1 1
_
_
, como A
esta en forma escalonada reducida entonces tenemos que
_

_
x
1
x
2
x
3
x
4
_

_
Nul(A) si y solo si
x
1
= x
4
x
3
= x
4
si y solo si
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
x
4
x
2
x
4
x
4
_

_
= x
2
_

_
0
1
0
0
_

_
+x
4
_

_
1
0
1
1
_

_
.
92
El procedimiento indicado arriba nos dice que
_

_
_

_
0
1
0
0
_

_
,
_

_
1
0
1
1
_

_
_

_
es una base para V

.
Ejemplo 4.9. (MatLab) Calcular el complemento ortogonal V

del subespacio V de R
5
generado por los
vectores v
1
=
_

_
2
1
1
0
1
_

_
y v
2
=
_

_
1
3
2
2
1
_

_
.
Solucion. Sea A =
_
_
v
t
1
v
t
2
_
_
, necesitamos calcular Nul(A), lo cual hacemos en MatLab como sigue
>> format rat, A = [2 1 1 0 1; 1 3 2 2 1]; null(A)
ans=
5/7 2/7 4/7
3/7 4/7 1/7
1 0 0
0 1 0
0 0 1
De aqui se sigue que V

=
_
_

_
5/7
3/7
1
0
0
_

_
,
_

_
2/7
4/7
0
1
0
_

_
,
_

_
4/7
1/7
0
0
1
_

_
_
.
4.2. Proyecci on ortogonal sobre un vector
Denicion 4.8. Sean a y b vectores en R
n
, denimos la proyeccion ortogonal del vector a sobre el vector b, el
cual sera denotado por proy
b
a, como el vector dado por
proy
b
a =
b a
b b
b.
La matriz proyeccion: Esta formula la podemos expresar matricialmente de la siguiente forma:
b a
b b
b =
b
t
a
b
t
b
b =
1
b
t
b
bb
t
a. Notese que bb
t
es una matriz y a la matriz
P =
1
b
t
b
bb
t
(4.5)
se le llama la matriz de la proyeccion y tiene la propiedad que para todo a R
n
, Pa = proy
b
a.
Autor: OMAR DAR

IO SALDARRIAGA 93
Ejemplo 4.10. Sea b =
_

_
1
0
2
_

_
, calcular la matriz que proyecta sobre b y usarla para calcular proy
b
a donde
a =
_

_
1
1
1
_

_
Solucion Notese que b
t
b = b b = 1 +0 +4 = 5 y bb
t
=
_

_
1 0 2
0 0 0
2 0 4
_

_
por tanto la matriz de la proyeccion sobre b
es la matriz
P =
1
5
_

_
1 0 2
0 0 0
2 0 4
_

_
.
Ahora, proy
b
a = Pa =
1
5
_

_
1 0 2
0 0 0
2 0 4
_

_
_

_
1
1
1
_

_
=
1
5
_

_
3
0
6
_

_
Ejemplo 4.11. (MatLab) Calcular la matriz que proyecta sobre el vector b =
_

_
2
1
1
0
1
_

_
y la proyeccion del vector
a =
_

_
7
7
7
7
7
_

_
sobre b.
Solucion. La matriz de que proyecta sobre b esta dada por P =
1
b
t
b
bb
t
. Esto lo podemos calcular con MatLab
como sigue
>> b = [2; 1; 1; 0; 1]; P = inv(b

b) (b b

)
P =
4/7 2/7 2/7 0 2/7
2/7 1/7 1/7 0 1/7
2/7 1/7 1/7 0 1/7
0 0 0 0 0
2/7 1/7 1/7 0 1/7
94
Luego, la matriz de la proyeccion esta dada por
P =
_

_
4/7 2/7 2/7 0 2/7
2/7 1/7 1/7 0 1/7
2/7 1/7 1/7 0 1/7
0 0 0 0 0
2/7 1/7 1/7 0 1/7
_

_
Para calcular la proyecci on del vector a sobre b, proy
b
a, seguimos los comandos en MatLab
>> a = [7; 7; 7; 7; 7]; proy = P a
proy =
2
1
1
0
1
Por tanto proy
b
a = b.
La proyeccion de a sobre b satisface las siguientes condiciones.
Teorema 4.3. Sea b R
n
y P =
1
b
t
b
bb
t
la matriz proyeccion, entonces para todo a R
n
tenemos lo siguiente
1. Pa = proy
b
a b),
2. a Pa b,
3. PPa = Pa, es decir, P
2
= P,
4. si a b) entonces Pa = a,
5. Si a b entonces Pa = 0.
4.3. Proyecci on ortogonal sobre un subespacio
El principal objetivo de la seccion es extender el concepto de proyeccion sobre un vector a proyeccion sobre
un subespacio y construir una matriz P que al multiplicarla por un vector x, el resultado Px es el vector
proyeccion. De hecho, esta matriz sera obtenida generalizando de la matriz (4.5) y la deniremos como sigue.
Sea v
1
, . . . , v
k
una base para un subespacio H de R
n
y sea A =
_
v
1
v
k
_
, vamos a demostrar que la
matriz
P = A(A
t
A)
1
A
t
(4.6)
satisface las condiciones de la matriz proyeccion enunciadas en el Teorema 4.3.
Autor: OMAR DAR

IO SALDARRIAGA 95
Notese que la formula (4.5) la podemos escribir en la forma:
P =
1
b
t
b
bb
t
= b(b
t
b)
1
b
t
de esta manera se ve que en realidad que (4.6) es simplemente una generalizacion de (4.5).
Para poder demostrar esto, necesitamos unos lemas preliminares.
Lema 4.4. Sea A una matriz, entonces Nul(A) = Nul(A
t
A).
Demostracion: Sea x Nul(A), entonces Ax = 0 y por tanto A
t
Ax = At0 = 0. Concluimos que
x Nul(A
t
A).
Sea x Nul(A
t
A), entonces A
t
Ax = 0, y multiplicando a la izquierda por x
t
tenemos que x
t
A
t
Ax = x
t
0 = 0,
por tanto
0 = x
t
0 = x
t
A
t
Ax = (Ax)
t
Ax = Ax Ax = [[Ax[[
2
de donde [[Ax[[ = 0, pero esto implica que Ax = o y x Nul(A).
Lema 4.5. Sea A =
_
v
1
v
k
_
una matriz donde v
1
, . . . , v
k
son las columnas y son LI entonces
1. A
t
A es invertible,
2. la matriz (A
t
A)
1
A
t
es una inversa a la izquierda de A.
Demostracion. 1. Como las columnas de A son linealmente independientes entonces
rango(A) = k y Nul(A) = 0, entonces por el lema anterior Nul(A
t
A) = Nul(A) = 0 de donde rango(A
t
A) =
# de columnas de (A
t
A), pero (A
t
A) es una matriz cuadrada, entonces
rango(A
t
A) = # de columnas de (A
t
A) = # de las de (A
t
A)
y por tanto A
t
A es invertible.
2. Como (A
t
A)
1
A
t
A = I entonces (A
t
A)
1
A
t
es una inversa a la izquierda de A.
Ejemplo 4.12. Calcular una inversa a la izquierda de la matriz A =
_

_
1 0
1 1
1 2
_

_
.
Solucion Debemos calcular A
t
A y su inversa.
A
t
A =
_
_
1 1 1
0 1 2
_
_
_

_
1 0
1 1
1 2
_

_
=
_
_
3 3
3 5
_
_
y por tanto (A
t
A)
1
=
1
6
_
_
5 3
3 3
_
_
.
Ahora calculamos la inversa a la izquierda (A
t
A)
1
A
t
de la matriz A
(A
t
A)
1
A
t
=
1
6
_
_
5 3
3 3
_
_
_
_
1 1 1
0 1 2
_
_
=
1
6
_
_
5 2 1
3 0 3
_
_
96
Ejemplo 4.13. (MatLab) Usar MatLab para calcular la inversa a la izquierda de la matriz A =
_

_
1 2 1 2
1 1 2 1
1 3 2 2
1 2 2 1
1 1 3 2
_

_
.
Solucion. Usamos MatLab para calcular la inversa a la izquierda con la formula dada en el Teorema 4.5, como
sigue
>> Format rat; A = [1 2 1 2; 1 1 2 1; 1 3 2 2; 1 2 2 1; 1 1 3 2]; L = inv(a

a) a

L =
2/3 1 1/3 1 4/3
1/12 1/4 1/6 1/4 1/12
13/24 1/8 1/12 1/8 11/24
11/24 1/8 1/12 7/8 11/24
La inversa a la izquierda de A esta dada por
L =
_

_
2/3 1 1/3 1 4/3
1/12 1/4 1/6 1/4 1/12
13/24 1/8 1/12 1/8 11/24
11/24 1/8 1/12 7/8 11/24
_

_
.
Corolario 4.6. Sea A una matriz cuyas las son linealmente independientes, entonces se tiene que
1. AA
t
es invertible,
2. la matriz A
t
(AA
t
)
1
es una inversa a la derecha de A.
Demostracion. Como las las de A son linealmentes entonces las columnas de A
t
son linealmente independi-
entes, usando el teorema anterior tenemos que (A
t
)
t
A
t
= AA
t
es invertible y por tanto (AA
t
)
1
existe y ademas
como AA
t
(AA
t
)
1
= I entonces A
t
(AA
t
)
1
es una inversa a la derecha de A.
Ejemplo 4.14. Sea A =
_
_
1 1 1
0 1 1
_
_
, calcular una inversa a la derecha de A.
Solucion: Primero calculamos AA
t
y su inversa
AA
t
=
_
_
1 1 1
0 1 1
_
_
_

_
1 0
1 1
1 1
_

_
=
_
_
3 2
2 2
_
_
de donde (AA
t
)
1
=
1
2
_
_
2 2
2 3
_
_
.
Ahora calculamos la inversa a la derecha A
t
(AA
t
)
1
A
t
(AA
t
)
1
=
_

_
1 0
1 1
1 1
_

_
1
2
_
_
2 2
2 3
_
_
=
1
2
_

_
2 2
0 1
0 1
_

_
.
Autor: OMAR DAR

IO SALDARRIAGA 97
Ahora usamos los resultados obtenidos en esta seccion para construir la matriz que proyecta un vector sobre
un subespacio dado, la cual construimos en el siguiente teorema.
Teorema 4.7. Sean H un subespacio de R
n
, h
1
, . . . , h
k
una base para H, A =
_
h
1
h
k
_
, P =
A(A
t
A)
1
A
t
y b R
n
, entonces se tiene que
1. Pb H,
2. b Pb H

,
3. P
2
= P,
4. Si b H entonces Pb = b,
5. Si b H

entonces Pb = 0.
Demostracion: Primero observese que H = Col(A) y que si x R
k
, entonces Ax Col(A) = H, esto ya que
si x =
_

_
x
1
.
.
.
x
k
_

_
entonces
Ax =
_
h
1
h
k
_
_

_
x
1
.
.
.
x
k
_

_
= x
1
h
1
+ +x
k
h
k
Col(A) = H. (4.7)
Mas a un, si h H, entonces h = x
1
h
1
+ +x
k
h
k
y por la ecuacion (4.7) h = Ax.
1. Pb = A(A
t
A)
1
A
t
b
. .
b

= Ab

Col(A) = H.
2. Debemos demostrar que si h H entonces h (b Pb) = 0.
Sea h H, entonces existe x tal que h = Ax y por tanto
h (b Pb) = Ax (b Pb) = Ax b Ax Pb
= (Ax)
t
b (Ax)
t
Pb
= x
t
A
t
b x
t
A
t
Pb
= x
t
A
t
b x
t
A
t
A(A
t
A)
1
. .
I
A
t
b
= x
t
A
t
b x
t
A
t
b = 0
3. P
2
= PP = A(A
t
A)
1
A
t
A
. .
I
(A
t
A)
1
A
t
= A(A
t
A)
1
A
t
= P
98
4. Sea b H, entonces existe x tal que b = Ax y por tanto
Pb = PAx = A(A
t
A)
1
A
t
A
. .
I
x = Ax = b.
5. Supongamos que b H

, entonces b h = 0, para todo h H, en particular b h


i
= 0 para i = 1, . . . , k.
Entonces tenemos que
A
t
b =
_

_
h
t
1
.
.
.
h
t
k
_

_
b =
_

_
h
t
1
b
.
.
.
h
t
k
b
_

_
=
_

_
h
1
b
.
.
.
h
k
b
_

_
=
_

_
0
.
.
.
0
_

_
,
y por tanto
Pb = A(A
t
A)
1
A
t
b
..
=0
= A(A
t
A)
1
0 = 0.
Estas propiedas prueban que Pb satisface las condiciones del vector proyeccion de b sobre H.
Denicion 4.9. Sean H un subespacio de R
n
, v
1
, . . . , v
k
una base para H, A =
_
v
1
v
k
_
y b R
n
.
Denimos la proyeccion de b sobre H, denotada por proy
H
b, como el vector:
proy
H
b = Pb,
donde P es la matriz P = A(A
t
A)
1
A
t
.
Ejemplo 4.15. Sean b =
_

_
1
1
3
_

_
y H =
_
_

_
1
1
0
_

_
,
_

_
0
1
1
_

_
_
, calcular el vector proy
H
b.
Solucion Sea A =
_

_
1 0
1 1
0 1
_

_
, entonces proy
H
b = A(A
t
A)
1
A
t
b.
A
t
A =
_
_
1 1 0
0 1 1
_
_
_

_
1 0
1 1
0 1
_

_
=
_
_
2 1
1 2
_
_
de donde (A
t
A)
1
=
1
3
_
_
2 1
1 2
_
_
,
A(A
t
A)
1
=
_

_
1 0
1 1
0 1
_

_
1
3
_
_
2 1
1 2
_
_
=
1
3
_

_
2 1
1 1
1 2
_

_
Finalmente tenemos
proy
H
b = A(A
t
A)
1
A
t
b =
1
3
_

_
2 1
1 1
1 2
_

_
_
_
1 1 0
0 1 1
_
_
_

_
1
1
3
_

_
=
1
3
_

_
0
6
6
_

_
=
_

_
0
2
2
_

_
,
Autor: OMAR DAR

IO SALDARRIAGA 99
entonces proy
H
b =
_

_
0
2
2
_

_
.
Ejemplo 4.16. (MatLab) Calcular la matriz que proyecta sobre el subespacio H de R
6
generado por los
vectores v
1
=
_

_
1
1
1
1
1
0
_

_
, v
2
=
_

_
2
1
3
1
1
1
_

_
, v
3
=
_

_
1
2
2
1
3
0
_

_
y v
4
=
_

_
2
1
2
1
2
1
_

_
. Si b = 11e
1
=
_

_
11
0
0
0
0
0
_

_
calcular proy
H
b.
Solucion. La matriz de la proyeccion esta dada por P = A(A
t
A)
1
A
t
>> A = [1 2 1 2; 1 1 2 1; 1 3 2 2; 1 1 1 1; 1 1 3 2; 0 1 0 1]; P = A inv(A

A) A

P =
7/11 1/11 1/11 3/11 1/11 4/11
1/11 8/11 3/11 2/11 3/11 1/11
1/11 3/11 8/11 2/11 3/11 1/11
3/11 2/11 2/11 6/11 2/11 3/11
1/11 3/11 3/11 2/11 8/11 1/11
4/11 1/11 1/11 3/11 1/11 7/11
Obtenemos que la matriz de la proyeccion esta dada por
P = proy
H
=
_

_
7/11 1/11 1/11 3/11 1/11 4/11
1/11 8/11 3/11 2/11 3/11 1/11
1/11 3/11 8/11 2/11 3/11 1/11
3/11 2/11 2/11 6/11 2/11 3/11
1/11 3/11 3/11 2/11 8/11 1/11
4/11 1/11 1/11 3/11 1/11 7/11
_

_
=
1
11
_
_
7 1 1 3 1 4
1 8 3 2 3 1
1 3 8 2 3 1
3 2 2 6 2 3
1 3 3 2 8 1
4 1 1 3 1 7
_
_
.
La proyeccion del vector b sobre H esta dado por proy
H
b = Pb, asi que en MatLab hacemos lo siguiente
>> b = [11; 0; 0; 0; 0; 0] proy = P b
proy =
7
1
1
3
1
4
Obtenemos que proy
H
b =
_

_
7
1
1
3
1
4
_

_
.
100
4.4. Mnimos Cuadrados
Dado un sistema de ecuaciones Ax = b, sabemos que el sistema tiene solucion si y solo si b Col(A), esto
ya que
b = Ax =
_
C
1
C
n
_
_

_
x
1
.
.
.
x
n
_

_
= x
1
C
1
+ +x
n
C
n
C
1
, . . . , C
n
) = Col(A),
donde C
1
, . . . , C
n
son las columnas de A.
De esto se deduce que si el sistema Ax = b es inconsistente, entonces b / Col(A) y el vector mas cercano
a b que pertence a Col(A) es el vector proy
Col(A)
b = A(A
t
A)
1
Ab, por tanto como el sistema Ax = b es
inconsistente, lo reemplazamos por el sistema consistente A x = proy
Col(A)
b = A(A
t
A)
1
Ab. De donde tenemos
que x = (A
t
A)
1
Ab. A esta solucion la llamamos la solucion de los mnimos cuadrados.
Denicion 4.10. Sea A una matriz cuyas columnas son linealmente independientes y b R
n
, si el sistema
Ax = b es inconsistente entonces la solucion de los mnimos cuadrados al sistema esta dada por
x =
_
A
t
A
_
1
A
t
b.
Ejemplo 4.17. Considere el sistema Ax = b donde A =
_

_
2 1
1 1
1 1
_

_
y b =
_

_
1
2
0
_

_
. Notese que el sistema es
inconsistente, como las columnas de A son linealmente independientes, se puede usar el metodo de los mni-
mos cuadrados para calcular la mejorsolucion, la cual esta dada por x = (A
t
A)
1
A
t
b, y la calculamos a
continuacion.
A
t
A =
_
_
2 1 1
1 1 1
_
_
_

_
2 1
1 1
1 1
_

_
=
_
_
6 2
2 3
_
_
de donde (A
t
A)
1
=
1
14
_
_
3 2
2 6
_
_
entonces la mejor solucion esta da-
da por
x =
_
A
t
A
_
1
A
t
b =
1
14
_
_
3 2
2 6
_
_
_
_
2 1 1
1 1 1
_
_
_

_
1
2
0
_

_
=
1
14
_
_
6
18
_
_
.
Otra aplicacion es la de ajustar datos encontrados en observaciones, que se esperan se ajusten a una linea pero
sin embargo no todos pertencen a esta. Supongamos que los valores observados son (x
1
, y
1
), (x
2
, y
2
), . . . , (x
n
, y
n
)
y supongamos que los datos deben satisfacer la ecuacion y = mx +b, esto es,
y
1
= mx
1
+b
y
2
= mx
2
+b
.
.
.
y
n
= mx
n
+b
Autor: OMAR DAR

IO SALDARRIAGA 101
El cual podemos escribir matricialmente en la forma
_

_
y
1
.
.
.
y
n
_

_
=
_

_
x
1
1
.
.
.
.
.
.
x
n
1
_

_
_
_
m
b
_
_
y como los puntos (x
1
, y
1
), (x
2
, y
2
), . . . , (x
n
, y
n
)
no satisfacen la ecuacion y = mx +b, el sistema es inconsistente. Usando la solucion de los mnimos cuadrados
obtenemos que la mejor solucion al sistema esta dado por
x =
_
A
t
A
_
1
A
t
y,
donde A =
_

_
x
1
1
.
.
.
.
.
.
x
n
1
_

_
y y =
_

_
y
1
.
.
.
y
n
_

_
.
Ejemplo 4.18. Supongamos que los valores observados son (2, 0), (1, 0) y (2, 3), es facil ver que estos valores
no pertecen a una linea. Los valores m y b de la linea y = mx +b que mas se ajusta a los datos est an dados en
el vector x =
_
_
m
b
_
_
donde x = (A
t
A)
1
A
t
y con A =
_

_
2 1
1 1
2 1
_

_
y y =
_

_
0
0
3
_

_
.
Notese que A
t
A =
_
_
2 1 2
1 1 1
_
_
_

_
2 1
1 1
2 1
_

_
=
_
_
9 1
1 3
_
_
, entonces se tiene que (A
t
A)
1
=
1
26
_
_
3 1
1 9
_
_
, y por
tanto
x = (A
t
A)
1
A
t
y =
1
26
_
_
3 1
1 9
_
_
_
_
2 1 2
1 1 1
_
_
_

_
0
0
3
_

_
=
1
26
_
_
15
21
_
_
=
_
_
15
26
21
26
_
_
.
De aqu tenemos que m =
15
26
y b =
21
26
y por tanto la ecuaci on de la linea que mas se ajusta a los datos es
y =
15
26
x +
21
26
.
Los mnimos cuadrados tambien se pueden usar para calcular ecuaciones polinomicas de cualquier grado que
mejor se ajusten a ciertos datos, generalizando el ejemplo anterior, para lineas. Esto lo ilustramos a contiuacion.
Ejemplo 4.19. (MatLab) Un experimeto arrojo los puntos (2, 2), (1, 0), (1, 3) y (2, 1). Si se espera que
estos puntos esten sobre una parabola y = ax
2
+bx +c, calcular la ecuacion que mejor se ajuste a los datos.
Solucion. Los puntos nos dan las ecuaciones
2 = a b +c
0 = a +b +c
1 = 9a + 3b +c
1 = 4a + 2b +c
102
Estas ecuaciones son equivalentes al sistema
_

_
1 1 1
1 1 1
9 3 1
4 2 1
_

_
_

_
a
b
c
_

_
=
_

_
2
0
1
1
_

_
. Usamos la solucion de los mnimos
cuadrados para calcular los coecientes a, b y c, la cual esta dada por x = inv(A
t
A)A
t
v con A =
_

_
1 1 1
1 1 1
9 3 1
4 2 1
_

_
y v =
_

_
2
0
1
1
_

_
. Esto lo calculamos en MatLab como sigue
>> A = [1 1 1; 1 1 1; 9 3 1; 4 2 1]; v = [2; 0; 1; 1]; x = inv(A

A) A

v
x =
21/44
283/220
7/22
De este resultado obtenemos que la ecuacion que mejor se ajusta a los datos es
y =
21
44
x
2

283
220
x +
7
22
220y = 105x
2
283x + 70.
4.5. El proceso Gramm-Schmidt
El objetivo de esta seccion es mostrar como es posible construir una base ortonormal a partir de cualquier
base, este proceso es conocido como el proceso Gramm-Schmidt. Comenzamos con la denicion de conjunto
ortognal y ortonormal.
Denicion 4.11. Sean v
1
, . . . , v
k
vectores en R
n
,
1. decimos que v
1
, . . . , v
k
es un conjunto ortogonal si los vectores v
1
, . . . , v
n
son ortogonales entre s, es
decir si v
i
v
j
= 0 para 1 i ,= j k.
2. decimos que v
1
, . . . , v
k
es una conjunto ortonormal si es una base ortogonal y [[v
i
[[ = 1 para i = 1, . . . , k.
Ejemplo 4.20. Los vectores v
1
=
_

_
1
1
0
_

_
, v
2
=
_

_
1
1
0
_

_
y v
3
=
_

_
0
0
1
_

_
forman una base ortogonal para R
3
y los
vectores w
1
=
1

2
_

_
1
1
0
_

_
, w
2
=
1

2
_

_
1
1
0
_

_
y w
3
=
_

_
0
0
1
_

_
forman una base ortonormal para R
3
.
Autor: OMAR DAR

IO SALDARRIAGA 103
Lema 4.8. Sean v
1
, . . . , v
k
vectores en R
n
, si el conjunto v
1
, . . . , v
k
es ortogonal, entonces es linealmente
independiente.
Demostracion. Supongamos que el conjunto v
1
, . . . , v
k
es ortogonal y supongamos que

1
v
1
+ +
k
v
k
= 0. (4.8)
Multiplicando ambos lados de (4.8) por v
i
tenemos:
v
i
(
1
v
1
+ +
k
v
k
) = v
i
0

1
v
i
v
1
. .
=0
+ +
i
v
i
v
i
. .
=0
+ +
k
v
i
v
k
. .
=0
= 0

i
v
i
v
i
= 0
Como v
i
v
i
,= 0 entonces
i
= 0 y esto para todo i = 1, . . . , n. Por tanto los vectores v
1
, . . . , v
k
son linealmente
independientes.
Tambien hay una nocion de matriz ortogonal la cual denimos a continuacion.
Denicion 4.12. Decimos que una matriz A =
_
v
1
v
k
_
es una matriz ortogonal si v
i
v
j
= 0 para
1 i ,= j k y [[v
i
[[ = 1 para i = 1, . . . , k, es decir, si las columnas de A forman un conjunto ortonormal.
Ejemplo 4.21. La matriz A =
_

_
1

2
1

2
0
1

2
1

2
0
0 0 1
_

_
es una matriz ortogonal ya que el conjunto de columnas de esta
matriz,
_

_
_

_
1

2
1

2
0
_

_
,
_

_
1

2
1

2
0
_

_
,
_

_
0
0
1
_

_
_

_
, es un conjunto ortonormal.
Teorema 4.9. (Propiedad de las matrices ortogonales) Sea A una matriz ortogonal, entonces A
t
A = I.
Por tanto si A es una matriz cuadrada entonces A es invertible y A
1
= A
t
, si A no es cuadrada entonces A
tiene inversa a la izquierda la cual esta dada por A
t
.
104
Demostracion: Si A =
_
v
1
v
k
_
es una matriz ortogonal, entonces
A
t
A =
_

_
v
t
1
.
.
.
v
t
n
_

_
_
v
1
v
k
_
=
_

_
v
t
1
v
1
v
t
1
v
2
v
t
1
v
k
v
t
2
v
1
v
t
2
v
2
v
t
2
v
k
.
.
.
.
.
.
.
.
.
.
.
.
v
t
n
v
1
v
t
n
v
2
v
t
n
v
n
_

_
=
_

_
v
1
v
1
. .
=1
v
1
v
2
. .
=0
v
1
v
k
. .
=0
v
2
v
1
. .
=0
v
2
v
2
. .
=1
v
2
v
k
. .
=0
.
.
.
.
.
.
.
.
.
.
.
.
v
n
v
1
. .
=0
v
n
v
2
. .
=0
v
n
v
n
. .
=1
_

_
=
_

_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
= I.
La segunda armacion es inmediata. Finalmente, si A no es cuadrada entonces por el Lema 4.5, una inversa a
la izquierda de A esta dada por
_
A
t
A
_
1
. .
=I
1
=I
A
t
= IA
t
= A
t
.
Ejemplo 4.22. 1. Este teorema nos permite calcular la inversa de una matriz ortogonal de manera facil, por
el Ejemplo 4.21 tenemos que la matriz A =
_

_
1

2
1

2
0
1

2
1

2
0
0 0 1
_

_
es una matriz ortogonal, por tanto
A
1
= A
t
=
_

_
1

2
1

2
0
1

2
1

2
0
0 0 1
_

_
.
2. El teorema tambien se puede usar para calcular la inversa a la izquierda de matrices ortogonales cuando
no son cuadradas. Por ejemplo la matriz B =
_

_
1

2
1

2
1

2
1

2
0 0
_

_
es una matriz ortogonal, por tanto una inversa
a la izquierda de B es B
t
=
_
_
1

2
1

2
0
1

2
1

2
0
_
_
.
El computo bases ortogonales(ortogonales) tiene ventajas importantes, una de ellas es la posibilidad de poder
expresar vectores en terminos de una base de manera simple, esto se muestra en el siguiente teorema.
Teorema 4.10. Sea v
1
. . . , v
n
una base ortogonal para un espacio vectorial V y sea b V , entonces
b =
b v
1
v
1
v
1
v
1
+ +
b v
n
v
n
v
n
v
n
.
Mas a un, si v
1
. . . , v
n
una base ortonormal, entonces b = (b v
1
)v
1
+ + (b v
n
)v
n
.
Autor: OMAR DAR

IO SALDARRIAGA 105
Demostracion. Como v
1
. . . , v
n
es una base entonces existen constantes
1
,
2
, . . . ,
n
talque b =
1
v
1
+
+
n
v
n
. Ahora para i = 1, . . . , n tenemos que
b v
i
=
1
v
1
v
i
. .
=0
+ +
i
v
i
v
i
. .
=0
+ +
n
v
n
v
i
. .
=0
b v
i
=
i
v
i
v
i
,
de donde tenemos que
i
=
b v
i
v
i
v
i
.
Ahora, si v
1
. . . , v
n
es una base ortonormal entonces v
i
v
i
=
_
[[v
i
[[ =

1 = 1, por tanto
i
= b v
i
.
Ejemplo 4.23. De acuerdo al Ejemplo 4.20 Los vectores v
1
=
_

_
1
1
0
_

_
, v
2
=
_

_
1
1
0
_

_
y v
3
=
_

_
0
0
1
_

_
forman una base
ortogonal para R
3
. Usando el teorema anterior podemos escribir el vector b =
_

_
1
1
1
_

_
de la siguiente forma:
b =
b v
1
v
1
v
1
v
1
+
b v
2
v
2
v
2
v
2
+
b v
3
v
3
v
3
v
3
=
0
2
v
1
+
2
2
v
2
+
1
1
v
3
= v
2
+v
3
.
Ejemplo 4.24. De acuerdo al Ejemplo 4.20 Los vectores w
1
=
_

_
1

2
1

2
0
_

_
,
w
2
=
_

_
1

2
1

2
0
_

_
y w
3
=
_

_
0
0
1
_

_
forman una base ortonormal para R
3
. Usando el teorema anterior podemos escribir el
vector b =
_

_
1
1
1
_

_
de la siguiente forma:
b = (b w
1
)w
1
+ (b w
2
)w
2
+ (b w
3
)w
3
= 0w
1
+
2

2
w
2
+w
3
=

2w
2
+w
3
.
Teorema 4.11. Sea v
1
. . . , v
k
una base ortonormal para un subespacio vectorial H de R
n
y sea b R
n
,
entonces
proy
H
b = (b v
1
)v
1
+ + (b v
k
)v
k
.
Demostracion. Sea A =
_
v
1
v
k
_
, entonces proy
H
b = A(A
t
A)
1
A
t
b. Como A es una matriz ortogonal
106
entonces A
t
A = I, por tanto
proy
H
b = A(A
t
A)
1
. .
=I
A
t
b = AA
t
b =
_
v
1
v
k
_
_

_
v
t
1
.
.
.
v
t
k
_

_
b
=
_
v
1
v
k
_
_

_
v
t
1
b
.
.
.
v
t
k
b
_

_
= (v
t
1
b)v
1
+ + (v
t
k
b)v
k
= (b v
1
)v
1
+ + (b v
k
)v
k
.
Observacion 4.3. La segunda parte del Teorema 4.10 sale como corolario de este teorema, ya que si b H
entonces por el Teorema 4.7 tenemos que proy
H
b = b y por tanto
b = proy
H
b = (b v
1
)v
1
+ + (b v
k
)v
k
.
Ejemplo 4.25. El conjunto
_

_
v
1
=
_

_
1

2
1

2
0
_

_
, v
2
=
_

_
1

2
1

2
0
_

_
_

_
es una base ortogonal para el plano xy (o z = 0)
entonces usando el teorema anterior para calcular proy
H
b con H = plano xy y b =
_

_
1
2
1
_

_
obtenemos:
proy
H
b = (b v
1
)v
1
+ (b v
2
)v
2
=
3

2
v
1
+
1

2
v
2
=
_

_
1
2
0
_

_
Teorema 4.12. (El proceso Gramm-Schmidt) Sea v
1
, . . . , v
k
una base para un subespacio H de R
n
y
sean
w
1
= v
1
, (4.9)
w
2
= v
2
proy
w1
v
2
= v
2

v
2
w
1
w
1
w
1
w
1
,
w
3
= v
3
proy
w1,w2
v
3
= v
3

v
3
w
1
w
1
w
1
w
1

v
3
w
2
w
2
w
2
w
2
.
.
.
w
k
= v
k
proy
w1,...,w
k1

v
k
= v
k

v
k
w
1
w
1
w
1
w
1

v
k
w
k1
w
k1
w
k1
w
k1
entonces w
1
, . . . , w
k
una base ortogonal para H.
Autor: OMAR DAR

IO SALDARRIAGA 107
Demostracion. Por el Teorema 4.3 tenemos que w
i
= v
i
proy
w1,...,wi1
v
i
es ortogonal al subespacio
w
1
, . . . , w
i1
) para i = 1, . . . , k y por tanto ortogonal a cada uno de los vectores w
1
, . . . , w
i1
. Entonces
tenemos que los vectores w
1
, . . . , w
k
son ortogonales entre s, es decir, el conjunto w
1
, . . . , w
k
es un conjunto
ortogonal.
Solo nos resta demostrar que H = w
1
, . . . , w
k
), pero como el conjunto w
1
, . . . , w
k
es ortogonal, entonces
por el Lema 4.8 es linealmente independiente, y como dimH = k = dimw
1
, . . . , w
k
) es suciente demostrar que
w
1
, . . . , w
k
H.
Primero notese que w
1
= v
1
H.
Tambien tenemos que w
2
= v
2
proy
w1
v
2
= v
2

v2w1
w1w1
w
1
H.
Continuando por induccon supongamos que w
1
, . . . , w
i1
H, entonces
w
i
= v
i
proy
w1,...,wi1
v
i
= v
i

v
i
w
1
w
1
w
1
w
1

v
i
w
i1
w
i1
w
i1
w
i1
H.
Concluimos que w
1
, . . . , w
k
H y por tanto el conjunto w
1
, . . . , w
k
es una base ortogonal para H.
Observacion 4.4. Si v
1
, . . . , v
k
es una base para un subespacio H de R
n
y sea w
1
, . . . , w
k
la base ortogonal
calculada usando el proceso Gramm-Schmidt y
q
1
=
1
[[w
1
[[
w
1
, q
2
=
1
[[w
2
[[
w
2
, , q
k
=
1
[[w
k
[[
w
k
entonces tenemos que q
1
, . . . , q
k
es una base ortognal para H. Usando el Teorema 4.11 podemos re-escribir
las ecuaciones (4.9) de la siguiente forma:
w
1
= v
1
, q
1
=
1
||w1||
w
1
w
2
= v
2
(v
i
q
1
)q
1
, q
2
=
1
||w2||
w
2
w
3
= v
3
(v
3
q
1
)q
1
(v
3
q
2
)q
2
q
3
=
1
||w3||
w
3
.
.
.
.
.
.
w
k
= v
k
(v
k
q
1
)q
1
(v
k
q
k1
)q
k1
q
k
=
1
||w
k
||
w
k
(4.10)
Ejemplo 4.26. Considere el subespacio H de R
4
generado por el conjunto
_

_
v
1
=
_

_
1
1
0
0
_

_
, v
2
=
_

_
0
1
1
0
_

_
, v
3
=
_

_
1
0
0
1
_

_
_

_
,
calcule una base ortonormal para H.
Solucion: Usaremos las ecuaciones (4.10) para calcular los vectores q
1
, . . . , q
k
.
w
1
= v
1
, q
1
=
1
[[w
1
[[
w
1
=
1

2
_

_
1
1
0
0
_

_
=
_

_
1

2
1

2
0
0
_

_
108
w
2
= v
2
(v
2
q
1
)q
1
=
_

_
0
1
1
0
_

2
_

_
1

2
1

2
0
0
_

_
=
_

1
2
1
2
1
0
_

_
,
q
2
=
1
[[w
2
[[
w
2
=
2

6
_

1
2
1
2
1
0
_

_
=
_

6
1

6
2

6
0
_

_
w
3
= v
3
(v
3
q
1
)q
1
(v
3
q
2
)q
2
=
_

_
1
0
0
1
_

2
_

2
1

2
1
0
_

6
_

6
1

6
2

6
0
_

_
=
_

_
1
3

1
3
1
3
1
_

_
y nalmente q
3
=
1
[[w
3
[[
w
3
=

3
2
_

_
1
3

1
3
1
3
1
_

_
=
_

3
6

3
6

3
6

3
2
_

_
Por tanto
_

_
q
1
=
_

_
1

2
1

2
0
0
_

_
, q
2
=
_

6
1

6
2

6
0
_

_
, q
3
=
_

3
6

3
6

3
6

3
2
_

_
_

_
es una base ortonormal para H.
4.6. La factorizacion QR de una matriz
Teorema 4.13. Sea A =
_
v
1
v
k
_
una matriz cuyas columnas son linealmente independientes, entonces
exite una matriz ortogonal Q y una matriz triangular superior R tal que A = QR.
Demostracion. Sean q
1
, . . . , q
k
los vectores obtenidos al aplicar el proceso Gramm-Schmidt, como estos forman
una base ortonormal para H = v
1
, , v
k
) entonces por el Teorema 4.10 tenemos que
v
i
= (q
1
v
i
)q
1
+ + (q
k
v
i
)q
k
. (4.11)
En la demostracion del Teorema 4.12 se probo que v
1
, . . . , v
i1
) = q
1
, . . . , q
i1
) y como q
i
es ortogonal a
q
1
, . . . , q
i1
, por ser ortonormales, entonces q
i
v
1
= 0, . . . , q
i
v
i1
= 0. Como esto es para todo i = 1, . . . , k
obtenemos que q
i
v
j
= 0 para i > j. Reemplazando esto en la ecuacion (4.11) obtenemos
v
i
= (q
1
v
i
)q
1
+ + (q
i
v
i
)q
i
,
Autor: OMAR DAR

IO SALDARRIAGA 109
para i = 1, . . . , k, por tanto tenemos la ecuaciones:
v
1
= (q
1
v
1
)q
1
v
2
= (q
1
v
2
)q
1
+ (q
2
v
2
)q
2
.
.
.
v
k1
= (q
1
v
k1
)q
1
+ + (q
k1
v
k1
)q
k1
v
k
= (q
1
v
k
)q
1
+ + (q
k
v
k
)q
k
La cual podemos escribir matricialmente de la siguiente forma
_
v
1
v
k
_
=
_
q
1
q
k
_
_

_
q
1
v
1
q
1
v
2
q
1
v
3
q
1
v
k
0 q
2
v
2
q
2
v
3
q
2
v
k
0 0 q
3
v
3
q
3
v
k
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 q
k
v
k
_

_
Si hacemos Q =
_
q
1
q
k
_
y R =
_

_
q
1
v
1
q
1
v
2
q
1
v
3
q
1
v
k
0 q
2
v
2
q
2
v
3
q
2
v
k
0 0 q
3
v
3
q
3
v
k
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 q
k
v
k
_

_
obtenemos A = QR.
De este Teorema se desprende el siguiente procedimiento para calcular la factorizacion QR de una matriz.
Procedimiento para calcular las matrices Q y R
Sea A =
_
v
1
v
k
_
una matriz cuyas columnas v
1
, . . . , v
k
son linealmente independientes. Calculamos
su factorizacion QR con los siguientes pasos:
1. Aplicamos el proceso Gramm-Schmidt a los vectores v
1
, . . . , v
k
para obtener una vectores ortonormales
q
1
, . . . , q
k
y hacemos Q =
_
q
1
q
k
_
.
2. Para 1 i j k calculamos los productos q
i
v
j
y hacemos
R =
_

_
q
1
v
1
q
1
v
2
q
1
v
3
q
1
v
k
0 q
2
v
2
q
2
v
3
q
2
v
k
0 q
2
v
2
q
3
v
3
q
2
v
k
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 q
k
v
k
_

_
.
3. De acuerdo al Teorema 4.13 tenemos que A = QR.
110
Ejemplo 4.27. Sea A =
_

_
1 0 1
1 1 0
0 1 0
0 0 1
_

_
, calcular matrices Q y R tal que A = QR.
Solucion: Sean v
1
=
_

_
1
1
0
0
_

_
, v
2
=
_

_
0
1
1
0
_

_
y v
3
=
_

_
1
0
0
1
_

_
, usando el procedimiento anterior obtenemos lo siguiente.
1. En el Ejemplo 4.26 usamos el proceso Gramm-Schdmit y obtuvimos q
1
=
_

_
1

2
1

2
0
0
_

_
, q
2
=
_

6
1

6
2

6
0
_

_
y q
3
=
_

3
6

3
6

3
6

3
2
_

_
, por tanto Q =
_

_
1

2

1

3
6
1

2
1

3
6
0 2

3
6
0 0

3
2
_

_
.
2. Para 1 i j 3 calculamos los productos q
i
v
j
,
q
1
v
1
=
2

2
q
1
v
2
=
1

2
q
1
v
3
=
1

2
q
2
v
2
=
3

6
q
2
v
3
=
1

6
q
3
v
3
=
2

3
3
=
2

3
Por tanto R =
_

_
2

2
1

2
1

2
0
3

6
1

6
0 0
2

3
_

_
.
3. De esta manero obtenemos que A =
_

_
1

2

1

3
6
1

2
1

3
6
0 2

3
6
0 0

3
2
_

_
_

_
2

2
1

2
1

2
0
3

6
1

6
0 0
2

3
_

_
.
Usamos MatLab para corroborar que A = QR:
>> Q=[1/sqrt(2) -1/sqrt(6) sqrt(3)/6;1/sqrt(2) 1/sqrt(6) -sqrt(3)/6;0 2/sqrt(6) sqrt(3)/6;0 0 sqrt(3)/2],
R=[2/sqrt(2) 1/sqrt(2) 1/sqrt(2);0 3/sqrt(6) -1/sqrt(6);0 0 2/sqrt(3)], Q*R
ans=
1,00 0,00 1,00
1,00 1,00 0,00
0 1,00 0,00
0 0 1,00
Autor: OMAR DAR

IO SALDARRIAGA 111
Lo que nos conrma que efectivamente A = QR.
112
Captulo 5
Determinantes
5.1. Denici on y ejemplos
Denicion 5.1. Sea A una matriz de tama no mn, para 1 i m y 1 j n, denimos el ij-esimo menor
de A, al cual denotaremos por A
ij
, como la matriz obtenida de A al eliminar su i-esima la y j-esima columna.
Ejemplo 5.1. Sea A =
_

_
1 1 0 2
1 1 1 0
0 2 3 0
_

_
el 24-esimo menor de A es la matriz A
24
=
_
_
1 1 0
0 2 3
_
_
y el 12-esimo
menor es la matriz A
12
=
_
_
1 1 0
0 3 0
_
_
.
Denicion 5.2. (Determinante) Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
una matriz de tama no n n. Denimos el
determinante de A, el cual denotaremos por det(A), recursivamente como sigue:
Si n = 2 entonces det(A) = a
11
a
22
a
12
a
21
.
Para n 3,
det(A) =
n

i=1
(1)
1+i
a
1i
det (C
1i
)
= a
11
det (A
11
) a
12
det (A
12
) + + (1)
1+n
a
1n
det (A
1n
) .
Ejemplo 5.2. Sea A =
_

_
2 1 0
0 1 0
1 1 1
_

_
, de acuerdo a esta denicion el determinante de A esta dado por:
113
114
det(A) =
3

i=1
(1)
1+i
a
1i
det (A
1i
)
= a
11
det (A
11
) a
12
det (A
12
) +a
13
det (A
13
)
= 2 det
_
_
1 0
1 1
_
_
(1) det
_
_
0 0
1 1
_
_
+ 0 det
_
_
0 1
1 1
_
_
= 2(1 1 0 1) + (0 1 0 1) + 0(0 1 1 1)
= 2
Denicion 5.3. Sea A una matriz n n, el ij-esimo cofactor de A, denotado por C
ij
, se dene como
C
ij
= (1)
i+j
det A
ij
,
donde A
ij
es el ij-esimo menor de A.
Observacion 5.1. Con esta denici on podemos re-escribir la formula de del determinante como sigue:
det(A) =
n

i=1
a
1i
C
1i
= a
11
C
11
+ +a
1n
C
1n
.
A esta f ormula se le conoce como la expansion por cofactores de A a lo largo de la primera la.
Ejemplo 5.3. Sea A =
_

_
1 1 0
0 1 1
1 2 1
_

_
, calcular C
11
, C
12
y C
13
y calcular el determinante de A.
Solucion: C
11
= (1)
1+1
det A
11
= (1)
2
det
_
_
1 1
2 1
_
_
= 1 1 1 2 = 1
C
12
= (1)
1+2
det A
12
= (1)
3
det
_
_
0 1
1 1
_
_
= 1 (0 1 1 (1)) = 1
C
13
= (1)
1+3
det A
13
= (1)
4
det
_
_
0 1
1 2
_
_
= 0 2 1 (1) = 1
det(A) = a
11
C
11
+a
12
C
12
+a
13
C
13
= 1 (1) + 1 (1) + 0 1 = 0
Lema 5.1. Sea A =
_

_
a
11
0 0
a
21
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_

_
una matriz triangular inferior, entonces
det(A) = a
11
a
22
a
nn
.
Es decir, el determinante de una matriz triangular inferior es el producto de las entradas en la diagonal.
Autor: OMAR DAR

IO SALDARRIAGA 115
Demostracion. Por induccion sobre n.
Si n = 2 tenemos que det(A) = a
11
a
22
0a
21
= a
11
a
22
.
Supongamos que el determinante de toda matriz triangular inferior de tama no (n 1) (n 1) es el producto
de las entradas en la diagonal. Usando la Observacion 5.1 tenemos que
det(A) = a
11
C
11
+ a
12
..
=0
C
12
+ + a
1n
..
=0
C
1n
= a
11
C
11
. (5.1)
Pero por hipotesis de induccion tenemos que
C
11
= (1)
1+1
det(A
11
) = 1 det
_

_
a
22
0
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
= a
22
a
nn
(5.2)
De las ecuaciones (5.1) y (5.2) tenemos que
det(A) = a
11
a
22
a
nn
.
Corolario 5.2. Sea I
n
la matriz identidad de tama no n n, entonces det(I) = 1.
Teorema 5.3. Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
entonces el determinante de A se puede calcular usando la expansion
por cofactores en cualquier la y cualquier columna, es decir, para 1 i, j n tenemos que:
det(A) = a
i1
C
i1
+a
i2
C
i2
+ +a
in
C
in
. .
Expansion por cofactores en la la i
=
n

k=1
a
ik
C
ik
y (5.3)
det(A) = a
1j
C
1j
+a
2j
C
2j
+ +a
nj
C
nj
. .
Expansion por cofactores en la columna j
=
n

h=1
a
hj
C
hj
(5.4)
Demostracion. Primero demostraremos la formula (5.3) por induccion sobre n
Para n = 2 tenemos
Expansion en la segunda la = a
21
a
12
+a
22
a
11
= det(A).
Ahora supongamos que el teorema se cumple para cualquier matriz de tama no (n 1) (n 1) y probemos
que det(A) =expansion en la la i.
Por denicion tenemos que
det(A) =
n

j=1
(1)
1+j
a
1j
det(A
1j
) (5.5)
116
Ahora, como la matriz A
ij
es de tama no (n 1) (n 1), entonces por la hipotesis de induccion tenemos que
su determinante se puede calcular por expansion en la la i, por tanto
det(A
1j
) = (1)
i+1
a
i1
det(A
1j
)
i1
+ + (1)
i+n
a
in
det(A
1j
)
in
(5.6)
=
n

k=1
(1)
i+k
a
ik
det(A
1j
)
ik
De las ecuaciones (5.5) y (5.6) tenemos que
det(A) =
n

j=1
(1)
1+j
a
1j
n

k=1
(1)
i+k
a
ik
det(A
1j
)
ik
(5.7)
=
n

j=1
n

k=1
(1)
1+j+i+k
a
1j
a
ik
det(A
1j
)
ik
La idea es demostrar que la expansion por cofactores en la la i coincide con esta formula.
Notese que como C
ik
= (1)
i+k
det(A
ik
), entonces tenemos que
Expansion por cofactores en la la i =
n

k=1
a
ik
C
ik
=
n

k=1
(1)
i+k
a
ik
det(A
ik
) (5.8)
Ahora, por denicion de determinante tenemos que
det(A
ik
) =
n

j=1
(1)
1+j
a
1j
det(A
ik
)
1j
(5.9)
De las ecuaciones (5.8) y (5.9) tenemos
Expansion por cofactores en la la i =
n

k=1
(1)
i+k
a
ik
n

j=1
(1)
1+j
a
1j
det(A
ik
)
1j
=
n

k=1
n

j=1
(1)
i+k+1+j
a
ik
a
1j
det(A
ik
)
1j
(5.10)
Finalmente notese que (A
1j
)
ik
= (A
ik
)
1j
ya que ambas se obtienen al eliminar las las 1 e i y las columnas j y
k de A. Entonces las ecuaciones (5.7) y (5.10) son iguales, por tanto
det(A) = expansion por cofactores en la la i.
Ejemplo 5.4. Calcular determinante de A =
_

_
1 0 1
2 0 1
0 1 0
_

_
usando expansion por cofactores en la tercera la
y segunda columna.
Solucion: Usando expansion en la tercera la tenemos:
det(A) = (1)
3+1
a
31
det(A
31
) + (1)
3+2
a
32
det(A
32
) + (1)
3+3
a
33
det(A
33
)
= 0 det
_
_
0 1
0 1
_
_
1 det
_
_
1 1
2 1
_
_
+ 0 det
_
_
1 0
2 0
_
_
= 1(1 + 2) = 1.
Autor: OMAR DAR

IO SALDARRIAGA 117
Ahora, usando expansion por cofactores en la segunda columna tenemos:
det(A) = (1)
1+2
a
12
det(A
12
) + (1)
2+2
a
22
det(A
22
) + (1)
3+2
a
32
det(A
32
)
= 0 det
_
_
2 1
0 0
_
_
+ 0 det
_
_
1 1
0 0
_
_
1 det
_
_
1 1
2 1
_
_
= 1(1 + 2) = 1.
Corolario 5.4. Sea A una matriz de tama no n n, si A tiene una la o una columna de ceros, entonces
det(A) = 0.
Demostracion. Supongamos que la i-esima la de A es nula, esto es, para 1 j n se tiene que a
ij
= 0,
entonces:
det(A) = expansion en la la i =
n

j=1
a
ij
..
=0
C
ij
= 0.
Corolario 5.5. Sea A una matriz de tama no n n entonces det(A
t
) = det(A).
Demostracion. Sea B = A
t
, entonces b
ij
= a
ji
y B
ij
= A
t
ij
= A
ji
, donde A
ij
y B
ij
son los ij-esimos menores
de A y de B, respectivamente, entoncces:
det(A
t
) = det(B) = expansion en la columna 1 =
n

k=1
b
k1
(1)
k+1
det(B
k1
)
=
n

k=1
a
1k
(1)
k+1
det(A
1k
) = det(A).
Corolario 5.6. Sea A =
_

_
a
11
a
12
a
1n
0 a
22
a
21
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
11
_

_
una matriz triangular superior, entonces
det(A) = a
11
a
22
a
nn
.
5.2. Determinantes y operaciones elementales de la
Teorema 5.7. Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
y B =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
c a
i1
c a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
, la matriz que se obtiene de A al
multiplicar una la i por una constante c, entonces
det(B) = c det(A).
118
Demostracion. Primero notese que para k = 1 . . . , nse tiene que B
ik
= A
ik
, ya que al eliminar la la i de B
se obtiene la misma matriz que al eliminar la la i de A. Por tanto,
det(B) = expansi on la i =
n

k=1
b
ik
..
=ca
ik
(1)
i+k
det( B
ik
..
=A
ik
)
=
n

k=1
c a
ik
(1)
i+k
det(A
ik
)
= c
n

k=1
a
ik
(1)
i+k
det(A
ik
) = c det(A).
Ejemplo 5.5. El teorema anterior nos dice que si todas las entradas de una la son mulitplos de un real c,
entonces este se puede factorizar de la la como se muestra a continuaci on
det
_

_
1 2 2
4 2 6
0 3 2
_

_
= det
_

_
1 2 2
2 2 2 1 2 (3)
0 3 2
_

_
= 2 det
_

_
1 2 2
2 1 3
0 3 2
_

_
.
Corolario 5.8. Sea A una matriz n n y sea E la matriz elemental que se obtiene de I
n
al multiplicar la la
por una constante c ,= 0 entonces det(E) = c y det(EA) = det(E) det(A).
Teorema 5.9. Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
j1
a
jn
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
y sea B =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
j1
a
jn
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
la matriz que se obtiene de A al
intercambiar las las i y j de A, entonces
det(B) = det(A).
Demostracion. Primero supongamos que las las intercambiadas son consecutivas, es decir,
A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
a
(i+1)1
a
(i+1)n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
y B =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
(i+1)1
a
(i+1)n
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
.
Autor: OMAR DAR

IO SALDARRIAGA 119
Ahora, notese que b
(i+1)k
= a
ik
y B
(i+1)k
= A
ik
ya que la matriz que se obtiene al eliminar la la i + 1 de B
coincide con la matriz que se obtiene al eliminar la la i de A. Por tanto si usamos expansion por cofactores en
la la i + 1 de B obtenemos:
det(B) =
n

k=1
b
(i+1)k
. .
a
ik
(1)
i+1+k
det(B
(i+1)k
. .
A
ik
) =
n

k=1
a
ik
(1)
i+1+k
det(A
ik
)
=
n

k=1
a
ik
(1)(1)
i+k
det(A
ik
) =
n

k=1
a
ik
(1)
i+k
det(A
ik
) = det(A).
En el caso general, para intercambiar las las i y j de A se necesitan j i cambios consecutivos de la la i para
llevarla a la la j y j i 1 cambios consecutivos de la la j para llevarla a la la i, por tanto
det(B) = (1)
ji
(1)
ji
det(A) = (1)
2j
. .
=1
(1)
2i
. .
=1
(1)
1
. .
=1
det(A) = det(A).
Corolario 5.10. Sea A una matriz n n y sea E la matriz elemental que se obtiene de I
n
al intercambiar las
las i y j entonces det(E) = 1 y det(EA) = det(E) det(A).
Lema 5.11. Si A es una matriz con dos las iguales, entonces det(A) = 0.
Demostracion. Supongamos que las las i y j de A son iguales y sea B la matriz que se obtiene de A al
intercambiar las las i y j, entonces B = A. Ahora, por el Teorema 5.9 tenemos que
det(B) = det(A), por tanto det(A) = det(A), o equivalentemente, 2 det(A) = 0, de donde
det(A) = 0.
Lema 5.12. Sean A, B y C matrices cuyas las son iguales excepto la la i y talque la iesima la de
C es la suma de las las i de A y B, es decir, A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
, B =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
b
i1
b
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
y C =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
+b
i1
a
in
+b
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
, entonces det(C) = det(A) + det(B).
120
Demostracion. Primero notese que para j = 1 . . . , n se tiene que C
ij
= A
ij
= B
ij
, ya que al eliminar la la i
de A se obtiene la misma matriz que al eliminar la la i de B y la misma matriz al eliminar la la i de C, por
tanto al usal expansion por cofactores en la la i de C obtenemos
det(C) =
n

k=1
c
ik
..
a
ik
+b
ik
(1)
i+k
C
ik
=
n

k=1
(a
ik
+b
ik
)(1)
i+k
C
ik
=
n

k=1
_
a
ik
(1)
i+k
C
ik
_
+
_
b
ik
(1)
i+k
C
ik
_
=
n

k=1
a
ik
(1)
i+k
C
ik
..
A
ik
+
n

k=1
b
ik
(1)
i+k
C
ik
..
B
ik
=
n

k=1
a
ik
(1)
i+k
A
ik
+
n

k=1
b
ik
(1)
i+k
B
ik
= det(A) + det(B)
Este teorema se puede usar para reducir ciertos calculos de determinantes como se muestra en el siguiente
ejemplo.
Ejemplo 5.6. Calcular el determinante de la matriz A =
_

_
3 2 0
1 1 2
2 2 2
_

_
.
Solucion. Escribimos las entradas de la segunda la como una suma de dos n umeros
det(A) = det
_

_
3 2 0
1 1 2
2 2 2
_

_
= det
_

_
3 2 0
0 1 0 + 1 2 + 0
2 2 2
_

_
= det
_

_
3 2 0
0 0 2
2 2 2
_

_
+ det
_

_
3 2 0
1 1 0
2 2 2
_

_
.
De esta forma obtenemos dos matrices ambas con una la o una columna con 2 ceros, cuyos determinantes
calculamos usando expansion por dicha la o columna y obtenemos:
det(A) = det
_

_
3 2 0
0 0 2
2 2 2
_

_
+ det
_

_
3 2 0
1 1 0
2 2 2
_

_
= (1)
2+3
2 det
_
_
3 2
2 2
_
_
+ (1)
3+3
2 det
_
_
3 2
1 1
_
_
= 2(6 4) + 2(3 (1)) = 4 + 8 = 4
Autor: OMAR DAR

IO SALDARRIAGA 121
Teorema 5.13. Considere la matriz A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
j1
a
jn
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
y sea
B =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
j1
+ca
i1
a
jn
+ca
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
, la matriz que se obtiene de A al sumar c veces la la i a las la j de A,
entonces
det(B) = det(A).
Demostracion.
det(B) = det
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
j1
+ca
i1
a
jn
+ca
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
122
= det
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
j1
a
jn
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
. .
A
+det
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
ca
i1
ca
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
= det(A) +c det
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
. .
=0
= det(A).
Corolario 5.14. Sea A una matriz n n y sea E la matriz elemental que se obtiene de I
n
al sumar c veces la
la i a la la j de I entonces det(E) = 1 y det(EA) = det(E) det(A).
Corolario 5.15. Sea A una matriz n n y E una matriz elemental, entonces
det(EA) = det(E) det(A) y det(E) ,= 0.
Mas a un, si E
1
, E
k
son matrices elementales, entonces
det(E
1
E
k
A) = det(E
1
) det(E
k
) det(A).
5.3. Determinante de matrices invertibles
Teorema 5.16. Sean A y B matrices n n, entonces det(AB) = det(A) det(B).
Demostracion. Caso 1. A es invertible, entonces A = E
1
E
k
con E
1
, . . . , E
k
matrices elementales. Entonces
det(AB) = det(E
1
E
k
B) = det(E
1
) det(E
k
)
. .
det(E1E
k
)
det(B)
= det(E
1
E
k
. .
A
) det(B) = det(A) det(B).
Autor: OMAR DAR

IO SALDARRIAGA 123
Caso 2. A no es invertible, entonces A = E
1
E
k
A

donde E
1
, . . . , E
k
son matrices elementales y A

es una
matriz en forma escalonada reducida. Como A no es invertible, entonces rango(A) = rango(A

) < n y como es
una matriz cuadrada entonces A

tiene al menos una la de ceros y por tanto A

B tiene una la de ceros, por


tanto det(A

B) = 0 = det(A

) luego
det(AB) = det(E
1
E
k
A

B) = det(E
1
) det(E
k
) det(A

B)
. .
=0
= 0, (5.11)
y
det(A) det(B) = det(E
1
E
k
A

) det(B) (5.12)
= det(E
1
) det(E
k
) det(A

)
. .
=0
det(B) = 0.
De las ecuaciones (5.11) y (5.12) tenemos que
det(AB) = det(A) det(B).
Teorema 5.17. Sea A una matriz n n, entonces A es invertible si y solo si det(A) ,= 0.
Demostracion. Supongamos que A es invertible, entonces A = E
1
E
k
con E
1
, . . . , E
k
son matrices
elementales y por tanto det(E
1
) ,= 0, , . . . , det(E
k
) ,= 0. Entonces
det(A) = det(E
1
E
k
) = det(E
1
)
. .
=0
det(E
k
)
. .
=0
,= 0.
Supongamos que det(A) ,= 0 y supongamos por el absurdo que A no es invertible, entonces A = E
1
E
k
A

donde E
1
, . . . , E
k
son matrices elementales y A

es una matriz en forma escalonada reducida. Como A no es


invertible, entonces rango(A) = rango(A

) < n y como es una matriz cuadrada entonces A

tiene al menos una


la de ceros y por tanto det(A

) = 0, luego
det(A) = det(E
1
E
k
A

) = det(E
1
) det(E
k
) det(A

)
. .
=0
= 0,
pero esto contradice la hipotesis, por tanto A es invertible.
Corolario 5.18. Sea A una matriz invertible de tama no n n entonces
det(A
1
) =
1
det(A)
.
Demostracion. det(A) det(A
1
) = det(A A
1
) = det(I) = 1. Entonces, despejando tenemos que det(A
1
) =
1
det(A)
.
124
5.4. Matriz Adjunta
Denicion 5.4. Sea A una matriz de tama no n n, denimos la matriz adjunta como la matriz denida por
Adj(A) =
_

_
C
11
C
12
C
1n
C
21
C
22
C
2n
.
.
.
.
.
.
.
.
.
.
.
.
C
n1
C
n2
C
nn
_

_
t
=
_

_
C
11
C
21
C
n1
C
12
C
22
C
n2
.
.
.
.
.
.
.
.
.
.
.
.
C
1n
C
2n
C
nn
_

_
,
donde C
ij
= (1)
i+j
det(A
ij
) es el ij-esimo cofactor de A.
Lema 5.19. Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
entonces a
i1
C
j1
+ + a
in
C
jn
= 0 si 1 i ,= j n, donde C
ik
es el
ik-esimo cofactor de A.
Demostracion. Sea B una matriz con las mismas las de A excepto la la j en donde se repite la la i, es
decir B =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
. Notese que para k = 1, . . . , n se tiene que A
jk
= B
jk
ya que al eliminar la j-esima
la de A se obtiene la misma matriz que al eliminar la j-esima la de B. Entonces tenemos que
0 = det(B) = Expansion en la la j
=
n

k=1
b
jk
..
a
ik
(1)
j+k
det(B
jk
..
A
jk
) =
n

k=1
a
ik
(1)
j+k
det(A
jk
)
. .
C
jk
=
n

k=1
a
ik
C
jk
= a
i1
C
j1
+ +a
in
C
jn
Teorema 5.20. Sea A una matriz de tama no n n, entonces
A adj(A) = det(A) I,
por tanto
1. Si A es invertible entonces A
1
=
1
det(A)
adj(A).
2. Si A no es invertible entonces A adj(A) = 0.
Autor: OMAR DAR

IO SALDARRIAGA 125
Demostracion. Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_

_
y adj(A) =
_

_
C
11
C
n1
.
.
.
.
.
.
.
.
.
C
1n
C
nn
_

_
, donde C
ij
es el ijesimo cofactor
de A. Entonces el coeciente d
ij
en la ij-esima entrada de la matriz A adj(A) esta dada por
d
ij
= a
i1
C
j1
+ +a
in
C
jn
=
_

_
0 si i ,= j (Lema 5.19),
det(A) si i = j.
.
Por tanto
A adj(A) =
_

_
d
11
..
=det(A)
d
12
..
=0
d
1n
..
=0
d
21
..
=0
d
22
..
=det(A)
d
2n
..
=0
.
.
.
.
.
.
.
.
.
.
.
.
d
n1
..
=0
d
n2
..
=0
d
nn
..
=det(A)
_

_
(5.13)
=
_

_
det(A) 0
.
.
.
.
.
.
.
.
.
0 det(A)
_

_
= det(A)I.
Ahora, en el caso 1. si A es invertible entonces det(A) ,= 0 y dividiendo a ambos lados de la Ecuacion (5.13)
tenemos que A
1
det(A)
adj(A) = I, por tanto
A
1
=
1
det(A)
adj(A).
Finalmente, en el caso 2. si A no es invertible, entonces det(A) = 0 y por tanto la Ecuacion (5.13) se convierte
en A adj(A) = 0.
Ejemplo 5.7. Sea A =
_

_
1 2 3
1 4 7
1 6 0
_

_
, calcular los cofactores de A, el determinante de A y la inversa de A.
Solucion. Los cofactores de A son
C
11
= (1)
1+1
det
_
_
4 7
6 0
_
_
= 42 C
12
= (1)
1+2
det
_
_
1 7
1 0
_
_
= 7
C
13
= (1)
1+3
det
_
_
1 4
1 6
_
_
= 2 C
21
= (1)
2+1
det
_
_
2 3
6 0
_
_
= 18
C
22
= (1)
2+2
det
_
_
1 3
1 0
_
_
= 3 C
23
= (1)
2+3
det
_
_
1 2
1 6
_
_
= 4
C
31
= (1)
3+1
det
_
_
2 3
4 7
_
_
= 2 C
32
= (1)
3+2
det
_
_
1 3
1 7
_
_
= 4
126
C
33
= (1)
3+3
det
_
_
1 2
1 4
_
_
= 2.
El determinante de A lo calculamos por expansion por cofactores en la tercera la
det(A) = a
31
C
31
+a
32
C
32
+a
33
C
33
= 1 2 + 6 (4) + 0 2 = 22
La matriz adjunta esta dada por:
adj(A) =
_

_
C
11
C
21
C
31
C
12
C
22
C
32
C
13
C
23
C
33
_

_
=
_

_
42 18 2
7 3 4
2 4 2
_

_
.
Luego, la inversa de A esta dada por
A
1
=
1
det(A)
adj(A) =
1
22
_

_
42 18 2
7 3 4
2 4 2
_

_
.
5.5. La Regla de Cramer
Teorema 5.21. (Regla de Cramer) Sea Ax = b un sistema de ecuaciones con A una matriz nn invertible
entonces el sistema tiene solucion unica la cual est a dada por
x
1
=
det(A
1
)
det(A)
, x
2
=
det(A
2
)
det(A)
, . . . , x
n
=
det(A
n
)
det(A)
,
Donde A =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_

_
, A
1
=
_

_
b
1
a
12
a
1n
b
2
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
b
n
a
n2
a
nn
_

_
,
A
2
=
_

_
a
11
b
1
a
1n
a
21
b
2
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
b
n
a
nn
_

_
, . . . , A
n
=
_

_
a
11
a
12
b
1
a
21
a
22
b
2
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
b
n
_

_
Demostracion. Sean a
1
, . . . , a
n
las columnas de A, es decir, A =
_
a
1
a
n
_
. Como A es invertible entonces
el sistema tiene solucion unica. Sea x =
_

_
x
1
.
.
.
x
n
_

_
la solucion al sistema, entonces
b = Ax =
_
a
1
a
n
_
_

_
x
1
.
.
.
x
n
_

_
= x
1
a
1
+ +x
n
a
n
.
Autor: OMAR DAR

IO SALDARRIAGA 127
Entonces para 1 i n jo, tenemos que
det(A
i
) =det
_
a
1
b a
n
_
=det
_
a
1
x
1
a
1
+ +x
n
a
n
a
n
_
=det
_
a
1
x
1
a
1
a
n
_
+ + det
_
a
1
x
i
a
i
a
n
_
+ + det
_
a
1
x
n
a
n
a
n
_
=x
1
det
_
a
1
a
1
a
n
_
. .
=0 (por columna repetida)
+ +x
i
det
_
a
1
a
i
a
n
_
. .
=A
+ +x
n
det
_
a
1
a
n
a
n
_
. .
=0 (por columna repetida)
=x
i
det(A).
Al despejar x
i
de esta ecuacion obtenemos x
i
=
det(A
i
)
det(A)
.
Ejemplo 5.8. Resolver el sistema
3x + 2y z = 0
x + 3z = 0
x + z = 1
usando la regla de Cramer.
Solucion. Primero calculemos los determinantes de las matrices de A
1
, A
2
, A
3
y A.
det(A
1
) = det
_

_
0 2 1
0 0 3
1 0 1
_

_
= 1 det
_
_
2 1
0 3
_
_
= 6
det(A
2
) = det
_

_
3 0 1
1 0 3
1 1 1
_

_
= 1 det
_
_
3 1
1 3
_
_
= 8
det(A
3
) = det
_

_
3 2 0
1 0 0
1 0 1
_

_
= 2 det
_
_
1 0
1 1
_
_
= 2
det(A) = det
_

_
3 2 1
1 0 3
1 0 1
_

_
= 2 det
_
_
1 3
1 1
_
_
= 8
Por tanto la solucion al sistema esta dada por
x =
det(A
1
)
det(A)
=
6
8
=
3
4
y =
det(A
2
)
det(A)
=
8
8
= 1 y z =
det(A
3
)
det(A)
=
2
8
=
1
4
.
128
5.6. Interpretaci on Geometrica del Determinante
Teorema 5.22. Sean v, w R
2
entonces
[ det
__
v w
__
[ = area del paralelogramo formado por v y w,
donde las barras denotan el valor absoluto.
Teorema 5.23. Sean v, w y z vectores en R
3
entonces
[ det
__
v w z
__
[ = volumen del paraleleppedo formado por v, w y z.
Ejemplo 5.9. Sean v
1
=
_

_
0
2
3
_

_
, v
2
=
_

_
2
1
0
_

_
y v
3
=
_

_
0
2
2
_

_
, calcular el volumen del paraleleppedo formado por estos
vectores.
Solucion. De acuerdo al Teorema 5.23 tenemos que
Volumen = [ det
_
v
1
v
2
v
3
_
[ =

_
0 2 0
2 1 2
3 0 2
_

2
_
_
2 2
3 2
_
_

= [ 2(4 6)[ = 4.
Estos dos teoremas motivan la siguiente denicion.
Denicion 5.5. Sean v
1
, v
2
, , v
n
R
n
, denimos el volumen de papareleleppedo n dimensional por la
ecuacion
Volumen = [ det
_
v
1
v
n
_
[,
donde las barras denotan el valor absoluto
Ejemplo 5.10. (Matlab) Sean v
1
=
_

_
1
2
3
0
_

_
, v
2
=
_

_
2
1
0
0
_

_
, v
3
=
_

_
1
1
2
1
_

_
y v
4
=
_

_
0
2
2
0
_

_
, calcular el volumen del
paraleleppedo 4-dimensional formado por estos vectores.
Solucion. Para calcular el volumen necesitamos calcular el determinante de la matriz A =
_
v
1
v
2
v
3
v
4
_
el cual calulamos usando Matlab
>> A = [1 2 1 0; 2 1 1 2; 3 0 2 2; 0 2 2 0]; det(A)
ans =
12
Por tanto el volumen del paraleleppedo es [ 12[ = 12 unidades c ubicas.
El Teorema 5.23 tambien se puede usar para calcular areas de triangulos en R
3
como se describe a continuacion.
Sean A, B y C tres puntos no colineales en R
3
,
Autor: OMAR DAR

IO SALDARRIAGA 129
1. Sean v
1
= AC y v
2
= B C y sea V = v
1
, v
2
),
2. Calcular una base para V

, notese que este espacio es 1-dimensional,


3. Sea v =
1
[[w[[
w la normalizacion del vector encontrado en el paso 2. entonces
area del trangulo ABC =
1
2
[ det
__
v
1
v
2
v
__
[. (5.14)
Esta igualdad se da ya que el vector v es un vector unitario perpendicular a v
1
y v
2
, entonces [[v[[ es la altura
del paraleleppedo formado por v
1
, v
2
y v
3
, por tanto tenemos que
[ det
__
v
1
v
2
v
__
[ = volumen del paraleleppedo formado por v
1
, v
2
y v
= area de la base por la altura
= area del paralelogramo formado por v
1
y v
2
[[v[[
..
=1
= area del paralelogramo formado por v
1
y v
2
,
Al multiplicar por
1
2
ambos lados de esta ecuacion y notando que
1
2
del area del paralelogramo formado por v
1
y v
2
es el area del triangulo ABC, se obtiene la ecuacion (5.14).
Ejemplo 5.11. Sean A = (1, 2, 3), B = (4, 3, 4) y C = (1, 1, 0) en R
3
, calcular el area del trangulo ABC.
Solucion: Siguiendo los pasos del procedimiento anterior tenemos lo siguiente:
1. Sean v
1
= AC =
_

_
2
3
3
_

_
y v
2
=
_

_
5
4
4
_

_
y V = v
1
, v
2
),
2. Para calcular el complemento ortogonal V

de V calculamos el espacio nulo de la matriz A =


_
_
v
t
1
v
t
2
_
_
=
_
_
2 3 3
5 4 4
_
_
, cuya forma escalonada reducida es la matriz A

=
_
_
1 0 0
0 1 1
_
_
y por tanto:
_

_
x
y
z
_

_
Nul(A) si y solo si x = 0 y y = z si y solo si
_

_
x
y
z
_

_
=
_

_
0
1
1
_

_
,
Entonces V

=
_
_

_
0
1
1
_

_
_
.
130
3. Sea v =
1

2
_

_
0
1
1
_

_
, necesitamo calcular det
_
v
1
v
2
v
_
, el cual calculamos a continuacion usando ex-
pasion en la tercera columna:
det
_
v
1
v
2
v
_
=
_

_
2 5 0
3 4 1

2
3 4

1

2
_

_
=
1

2
det
_
_
2 5
3 4
_
_

2
det
_
_
2 5
3 4
_
_
=
2

2
23
Finalmente tenemos que
area del triangulo ABC =
1
2
det
_
v
1
v
2
v
_
=
1
2
2

2
23 =
1

2
23.
Captulo 6
Valores y Vectores Propios
6.1. Polinomio Caracterstico
Denicion 6.1. Sea A una matriz de tama no nn, decimos que es un valor propio de A si existe un vector
v tal que Av = v. En este caso decimos que v es un vector propio de valor propio .
Si es un valor propio de una matriz A y v es un vector propio de valor propio entonces se tiene que la
Av = v = Iv o equivalentemente (AI)v = 0. Esto es, v Nul(AI) y por tanto det(AI) = 0. Esta
ultima ecuacion produce un polinomio en terminos de y es llamado el polinomio caracteristico de A.
Teorema 6.1. Sea A una matriz de tama no nn, entonces es un valor propio si y solo si det(AI) = 0.
Demostracion. es un valor propio si y solo si existe v ,= 0 tal que Av = v si y solo si existe v ,= 0 tal que
Av = Iv si y solo si existe v ,= 0 tal que Av Iv = 0 si y solo si existe v ,= 0 tal que (AI)v = 0 si y solo
si AI no es invertible si y solo det(AI) = 0.
Denicion 6.2. Sea A una matriz de tama no nn, denimos el polinomio caracteristico p
A
() de A por
p
A
() = det(AI).
Del teorema anterior se deduce el siguiente procedimiento para calcular los valores y vectores propios de una
matriz A.
Procedimiento 6.1. (Procedimiento para calcular los valores y vectores propios)
1. Calcular el polinomio caracteristico p
A
() = det(AI),
2. Resolver la ecuacion p
A
() = 0, cuyas raices corresponden a los valores propios.
3. Para cada valor propio encontrado en en el paso anterios, calcular una base para Nul(A I). Los
vectores en dicha base son vectores propios de valor propio .
131
132
Ejemplo 6.1. Sea
_
_
4 5
2 3
_
_
calcular los valores y vectores propios de A.
El polinomio caracteristico de A, esta dado por
p
A
() = det(AI) = det
_
_
4 5
2 3
_
_
=
2
2
Ahora resolvemos p
A
() = ( 2)( + 1) = 0 de donde = 2 y = 1.
Ahora calculamos Nul(A I) con = 2. Esto es, Nul(A 2I) = Nul
_
_
2 5
2 5
_
_
, cuya forma escalonada
reducida es
_
_
1
5
2
0 0
_
_
. De esto tenemos que
_
_
x
y
_
_
Nul(A2I) si y solo si x =
5
2
y si y solo si
_
_
x
y
_
_
=
_
_
5
2
y
y
_
_
= y
_
_
5
2
1
_
_
Entonces v =
_
_
5
2
1
_
_
es un vector propio de valor propio = 2.
Ahora calculamos Nul(A I) con = 1. Esto es, Nul(A + I) = Nul
_
_
5 5
2 2
_
_
, cuya forma escalonada
reducida es
_
_
1 1
0 0
_
_
. De lo anterior tenemos que
_
_
x
y
_
_
Nul(A+I) si y solo si x = y si y solo si
_
_
x
y
_
_
=
_
_
y
y
_
_
= y
_
_
1
1
_
_
Entonces v =
_
_
1
1
_
_
es un vector propio de valor propio = 1.
En el ejemplo anterior se puede ver que los vectores propios encontrados son linealmente independientes, esto
no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos son linealmente
independientes.
Teorema 6.2. Sea A una matriz de tama no nn y sean v
1
, . . . , v
k
vectores propios con valores propios

1
, . . . ,
k
, respectivamente. Si los
i
son diferentes entre si entonces los vectores v
1
, . . . , v
k
son linealmente
independientes.
Demostracion. Por induccion sobre k
Para k = 2, supongamos que

1
v
1
+
2
v
2
= 0 (6.1)
multiplicando por A ambos lados obtenemos
1
Av
1
..
1v1
+
2
Av
2
..
2v2
= 0, equivalentemente

1
v
1
+
2

2
v
2
= 0. (6.2)
Autor: OMAR DAR

IO SALDARRIAGA 133
Ahora multiplicamos la ecuacion (6.1) por
1
obtenemos

1
v
1
+
2

1
v
2
= 0. (6.3)
Restando la Ecuacion (6.3) de la Ecuacion (6.2) tenemos que
2
(
1

2
)v
2
= 0, como
1
,=
2
entonces

2
,= 0 y como v
2
,= 0 entonces
2
= 0, reemplazando este valor en la Ecuacion (6.1) tenemos que
1
v
1
= 0
y como v
1
,= 0 entonces
1
= 0 y por tanto v
1
y v
2
son linealmente independientes.
Supongamos por induccion que k 1 vectores propios correspondientes a k 1 valores propios distintos son
linealmente independientes y supongamos que

1
v
1
+ +
k
v
k
= 0, (6.4)
multiplicando por A ambos lados tenemos que
1
Av
1
..
1v1
+ +
k
Av
k
..

k
v
k
= 0 o equivalentemente

1
v
1
+ +
k

k
v
k
= 0. (6.5)
Ahora, multiplicando a ambos lados de la Ecuacion (6.4) por
k
tenemos

k
v
1
+ +
k

k
v
k
= 0. (6.6)
Restando la Ecuacion (6.6) de la Ecuacion (6.5)obtenemos

1
(
1

k
)v
1
+ +
k1
(
k1

k
)v
k1
= 0.
Como v
1
, . . . , v
k1
son k 1 vectores propios correspondientes a distintos valores propios entonces por hipotesis
de induccion son linealmente independientes, por tanto

1
(
1

k
. .
=0
) = =
k1
(
k1

k
. .
=0
) = 0
como
1

k
,= 0, ,
k1

k
,= 0 entonces
1
= =
k1
= 0. Reemplazando estos valores en la Ecuacion
(6.4) obtenemos
k
v
k
= 0 y como v
k
,= 0 entonces
k
= 0 y por tanto los vectores v
1
, . . . , v
k
son linealmente
independientes.
Denicion 6.3. Sea A una matriz de tama no nn, al conjunto
E

= v : Av = v
se le llama el subespacio propio de valor propio .
Observacion: Notese que E

= Nul(AI) y por tanto E

es un subespacio de R
n
.
Ejemplo 6.2. En el Ejemplo 6.1 tenemos que E
2
=
_
_
_
5
2
1
_
_
_
y E
1
=
_
_
_
1
1
_
_
_
.
134
Ejemplo 6.3. (MatLab) Calcule los valores y vectores propios de la matriz A =
_

_
5 6 9
3 4 9
0 0 2
_

_
.
Solucion. Calculamos el polinomio caracterstico con MatLab como sigue
>> A = [5 6 9; 3 4 9; 0 0 2]; p = poly(sym(A))
p =
x
3
3 x
2
+ 4
para calcular los valores propios podemos factorizar p, lo cual podemos hacer con MatLab como sigue
>> factor(p)
ans =
(x + 1) (x 2)
2
De donde tenemos que los valores propios son
1
= 1 de multiplicidad 1 y
2
= 2 de multiplicidad 2.
Ahora para cada valor propio calculamos los vectores propios como sigue:
Para = 1
>> null(A+eye(3),

)
ans =
1
1
0
Por tanto el vector v
1
=
_

_
1
1
0
_

_
es un vector propio de valor propio = 1.
Para = 2
>> null(A2 eye(3),

)
ans =
2 3
1 0
0 1
Luego los vectores v
2
=
_

_
2
1
0
_

_
y v
3
=
_

_
3
0
1
_

_
son vectores propios de valor propio = 2.
Denicion 6.4. Sea A una matriz de tama no nn y sean
1
, . . .
k
los valores propios de A,
1. Decimos que la multiplicidad algebr aica de
i
, es k si (
i
)
k
es la maxima potencia de
i
que divide
a p
A
(). La multiplicidad algebraica de sera denotada por a

.
2. La multiplicidad geometrica de
i
esta dada por dimE
i
. La multiplicidad geometrica de sera denotada
por g

.
Autor: OMAR DAR

IO SALDARRIAGA 135
Ejemplo 6.4. En el ejemplo anterior tenemos que a
1
= 1 = g
2
y a
2
= 2 = g
2
.
Ejemplo 6.5. En el Ejemplo 6.1 tenemos que a
1
= g
1
= 1 y a
2
= g
2
= 1.
Ejemplo 6.6. (MatLab) Calcular los valores y vectores propios de la matriz A =
_

_
3 1 0 0
1 3 0 0
7 1 4 0
7 1 0 4
_

_
.
Solucion. En MatLab podemos usar un comando diferente al usado en el Ejemplo 6.3 que nos permite calcular
todos los valores y vectores propios con una sola instruccion como sigue.
>> A = [3 1 0 0; 1 3 0 0; 7 1 4 0; 7 1 0 4]; [V, D] = eig(A)
V =
0 0 1/2 1/2
0 0 1/2 1/2
1 0 1/2 1/2
0 1 1/2 1/2
D =
4 0 0 0
0 4 0 0
0 0 4 0
0 0 0 2
De aqu tenemos que la matriz tiene vectores propios v
1
=
_

_
0
0
1
0
_

_
y v
2
=
_

_
0
0
0
1
_

_
ambos de valor propio = 4,
v
3
=
_

_
1/2
1/2
1/2
1/2
_

_
de valor propio = 4 y v
4
=
_

_
1/2
1/2
1/2
1/2
_

_
de valor propio = 2. Notese que en este ejemplo se tiene
que los valores propios tienen multiplicidad geometrica y algebraica iguales. En realidad este este comando nos
da mas informacion acerca de la matriz, ver Ejemplo 6.21.
Hasta ahora solo hemos visto ejemplos donde los valores propios tienen multiplicidad geometrica y algebraica
iguales, pero esto no siempre se cumple, de hecho es posible que la multiplicidad geometrica sea estrictamente
menor que la multiplicidad algebraica, a continuacion damos ejemplos donde se da esto.
Ejemplo 6.7. (MatLab) Calcular los valores propios y sus multiplicidades algebr aica y geometrica de la matriz
A =
_

_
3 2 1
1 6 1
1 2 3
_

_
.
136
Solucion. Primero calculamos el polinomio caracterstico del A.
>> A = [3 2 1; 1 6 1; 1 2 3]; factor(poly(sym(A)))
ans =
(4 +x)
3
Es decir = 4 es el unico valor propio con multiplicidad algebraica 3, ahora necesitamos el subespacio
propio para calcular la multiplicidad geometrica.
>> null(A3 eye(3),

)
ans =
2 1
1 0
0 1
Por tanto E
4
=
_
_

_
2
1
0
_

_
,
_

_
1
0
1
_

_
_
, de esto tenemos que g
3
= 2 < 3 = a
3
.
Ejemplo 6.8. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz
A =
_

_
4 1 1
0 5 1
1 0 3
_

_
.
Solucion. Calculamos el polinomio caracterstico
>> A = [4 1 1; 0 5 1; 1 0 3]; factor(poly(sym(A)))
ans =
(4 +x)
3
Es decir = 4 es el unico valor propio con multiplicidad algebraica 3, ahora necesitamos el subespacio
propio para calcular la multiplicidad geometrica.
>> null(A3 eye(3),

)
ans =
1
1
1
Por tanto E
4
=
_
_

_
1
1
1
_

_
_
. Por tanto g
3
= 1 < 3 = a
3
.
Como los valores propios son las races de el polinomio caracterstico, y sabemos que existen polinomios con
coecientes reales (incluso enteros) y races complejas, entonces tambien existen matrices con entradas reales
(enteras) y valores propios complejos, a continuacion damos un ejemplo.
Autor: OMAR DAR

IO SALDARRIAGA 137
Ejemplo 6.9. (MatLab) Calcular los valores y vectores propios de la matriz A =
_

_
1 2 2
2 1 2
4 1 3
_

_
.
Solucion. Usamos MatLab para calcular los valores propios
>> A = [1 2 2; 2 1 2; 4 1 3]; p = poly(sym(A))
x
3
x
2
+x 1
Depues lo factorizamos:
factor(p)
ans =
(x 1) (x
2
+ 1)
De aqui deducimos que los valores propios son
1
= 1,
2
= i y
3
= i. Ahora calculamos los vectores
propios:
>> v1 = null(c eye(3),

)
v1 =
1/3
2/3
1
>> v2 = null(c i eye(3),

)
v2 =
3/5 1/5i
3/5 1/5i
1
>> v2 = null(c +i eye(3),

)
v3 =
3/5 + 1/5i
3/5 + 1/5i
1
Por tanto los vectores propios son v
1
=
_

_
1/3
2/3
1
_

_
, v
2
=
_

_
3/5 1/5i
3/5 1/5i
1
_

_
y v
3
=
_

_
3/5 + 1/5i
3/5 + 1/5i
1
_

_
de valores propios

1
= 1,
2
= i y
3
= i, respectivamente.
6.2. Matrices Similares
Denicion 6.5. Sean A y B matrices de tama no nn, decimos que A y B son similares si existe una matriz
invertible C tal que A = CBC
1
. Escribiremos A B para denotar que A y B son similares.
138
Ejemplo 6.10. Las matrices A =
_
_
2 1
1 2
_
_
y B =
_
_
3 0
0 1
_
_
son similares, ya que si tomamos C =
_
_
1 1
1 1
_
_
entonces tenemos que A = CBC
1
.
La siguiente propiedad de matrices similares es importante para lo que sigue.
Teorema 6.3. Sean A y B matrices de tama no nn, si A y B son similares entonces p
A
() = p
B
() y por
tanto A y B tienen los mismos valores propios.
Demostracion. Como A y B son similares, entonces existe una matriz invertible C tal que B = CAC
1
,
p
B
() = det(B I) = det(CAC
1
I) = det(CAC
1
CIC
1
)
= det
_
C(AI)C
1

= det(C) det(AI) det(C


1
)
= det(C) det(AI)
1
det(C)
= det(AI)
= p
A
().
Denicion 6.6. Sea A una matriz de tama no nn, decimos que A es diagonalizable si existe una matriz
diagonal D tal que A D.
Ejemplo 6.11. La matriz A =
_
_
2 1
1 2
_
_
es diagonalizable ya que en el Ejemplo 6.10 vimos que A es similar a
la matriz diagonal
_
_
3 0
0 1
_
_
.
El Teorema 6.3 nos permite ver de manera facil que no todas las matrices son diagonalizables, como se
muestra a continuacion.
Ejemplo 6.12. Veamos que la matriz A =
_
_
1 1
0 1
_
_
no es diagonalizable. Por el absurdo supongamos que existe
una matriz D diagonal tal que A D, supongamos que D =
_
_
a 0
0 b
_
_
.
Notese que los valores propios de A son = 1 con multiplicidad 2 y los valores propios de D son = a y
= b. Como A D, entonces por el Teorema 6.3 A y D tienen los mismos valores valores propios, por tanto
a = b = 1, entonces D = I.
Finalmente, como A D, existe una matriz invertible C tal que A = CDC
1
por tanto
_
_
1 1
0 1
_
_
= A = C D
..
=I
C
1
= CIC
1
= I =
_
_
1 0
0 1
_
_
De esta igualdad se debe dar que 1 = 0, lo que es absurdo. Concluimos que A no es diagonalizable.
Autor: OMAR DAR

IO SALDARRIAGA 139
Este ejemplo tambien muestra que el recproco del Teorema 6.3 no es cierto ya que la matriz A =
_
_
1 1
0 1
_
_
y
la matriz identidad tienen los mismos valores propios, sin embargo no son similares.
En los ejemplos de la seccion anterior vimos que la multiplicidad geometrica de de los valores propios es
menor o igual a la multiplicidad algebraica, esto es cierto en general.
Teorema 6.4. Sea A una matriz de tama no nn y sea un valor propio de A, entonces g

, es decir,
multiplicidad geometrica de multiplicidad algebraca de .
Demostracion. Sea

un valor propio de A, Como es un valor propio, entonces existe v ,= 0 tal que Av =

v
y por tanto E

,= 0.
Supongamos que dimE

= k y sean v
2
, . . . , v
k
tal que v, v
2
, . . . , v
k
es una base para E

, entonces
Av
i
=

v
i
para i = 1, . . . , k. Ahora sean w
k+1
, . . . , w
n
tal que v, v
2
, . . . , v
k
, w
k+1
, . . . , w
n
es una base para R
n
y sea
S =
_
v v
2
. . . v
k
w
k+1
. . . w
n
_
, como v, v
2
, . . . , v
k
, w
k+1
, . . . , w
n
es una base, entonces S es invertible
y se tiene que
I = S
1
S = S
1
_
v v
2
v
k
w
k+1
w
n
_
=
_
S
1
v S
1
v
2
S
1
v
k
S
1
w
k+1
S
1
w
n
_
,
de donde S
1
v = e
1
, S
1
v
2
= e
2
, . . . , S
1
v
k
= e
k
.
Ahora denamos B = S
1
AS, entonces por el teorema anterior tenemos que p
A
() = p
B
() y la matriz B
tiene la siguiente forma:
B = S
1
AS = S
1
A
_
v v
2
v
k
w
k+1
w
n
_
= S
1
_
Av
..

v
Av
2
..

v2
Av
k
..

v
k
Aw
k+1
Aw
n
_
= S
1
_

v
2

v
k
Aw
k+1
Aw
n
_
=
_
S
1

v
. .

S
1
v
S
1

v
2
. .

S
1
v2
S
1

v
k
. .

S
1
v
k
S
1
Aw
k+1
S
1
Aw
n
_
=
_

S
1
v
. .
e1

S
1
v
2
. .
e2

S
1
v
k
. .
e
k
S
1
Aw
k+1
S
1
Aw
n
_
=
_

e
1

e
2

e
k
S
1
Aw
k+1
S
1
Aw
n
_
140
=
_

0
.
.
.
.
.
.
.
.
.
0

0 0
.
.
.
.
.
.
.
.
.
0 0
R
_

_
donde R =
_
S
1
Aw
k+1
S
1
Aw
n
_
. Entonces si escribimos R =
_
_
R
1
R
2
_
_
con R
1
una matriz k (n k)
y R
2
es una matriz (n k) (n k), tenemos que
B =
_

0
.
.
.
.
.
.
.
.
.
0

R
1
0 0
.
.
.
.
.
.
.
.
.
0 0
R
2
_

_
por tanto p
A
() = p
B
() = det(B I) = (1)
k
(

)
k
det R
2
, de donde
multiplicidad algebraica de

k = multiplicidad geometrica de

.
6.3. Cambio de Base
El objetivo de esta seccion es demostrar que si A B entonces las matrices estan relacionadas por un cambio
de coordenadas (cambio de base), para llegar a esto debemos denir cambio de coordenadas.
Denicion 6.7. Sean X = x
1
, . . . , x
n
una base de R
n
y v R
n
, sabemos que existen escalares
1
, . . . ,
n
talque v =
1
v
1
+ +
n
v
n
y que esta representacion es unica. Entonces decimos que el vector v en terminos
de la base X esta dado por
v
X
=
_

1
.
.
.

n
_

_
.
Ejemplo 6.13. Sea X =
_
_
_
x
1
=
_
_
1
1
_
_
, x
2
=
_
_
1
1
_
_
_
_
_
. N otese que v =
_
_
5
1
_
_
= 3x
1
+2x
2
, entonces tenemos que
v
X
=
_
_
3
2
_
_
.
Autor: OMAR DAR

IO SALDARRIAGA 141
Denicion 6.8. Sean X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
n
bases para R
n
, denimos la matriz del cambio de
base (o cambio de coordenadas) de la base X a la base Y como la matriz.
Y
I
X
=
_
(x
1
)
Y
(x
n
)
Y
_
.
Ejemplo 6.14. Sea E =
_
_
_
e
1
=
_
_
1
0
_
_
, e
2
=
_
_
0
1
_
_
_
_
_
la base estandar de R
2
y sea X =
_
_
_
x
1
=
_
_
1
1
_
_
, x
2
=
_
_
1
1
_
_
_
_
_
entonces la matriz
E
I
X
esta dada por
E
I
X
=
_
(x
1
)
E
(x
2
)
E
_
=
_
x
1
x
2
_
=
_
_
1 1
1 1
_
_
.
Teorema 6.5. Sean X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
n
bases para R
n
y sea v R
n
, entonces
v
Y
=
Y
I
X
v
X
.
Demostracion. Como X es una base, entonces existen constantes
1
, . . . ,
n
tal que
v =
1
x
1
+ +
n
x
n
(6.7)
entonces v
X
=
_

1
.
.
.

n
_

_
, y como Y es una base, para 1 i n, existen constantes
1i
, . . . ,
ni
tal que
x
i
=
1i
y
1
+ +
ni
y
n
, (6.8)
luego (x
i
)
Y
=
_

1i
.
.
.

ni
_

_
, por tanto
Y
I
X
=
_
(x
1
)
Y
(x
n
)
Y
_
=
_

11

1n
.
.
.
.
.
.
.
.
.

n1

nn
_

_
De las Ecuaciones (6.7) y (6.8) tenemos que
v =
1
x
1
+ +
n
x
n
=
1
(
11
y
1
+ +
n1
y
n
) + +
n
(
1n
y
1
+ +
nn
y
n
)
= (
1

11
+ +
n

1n
)y
1
+ + (
1

n1
+ +
n

nn
)y
n
luego
v
Y
=
_

11
+ +
n

1n
.
.
.

n1
+ +
n

nn
_

_
=
_

11

1n
.
.
.
.
.
.
.
.
.

n1

nn
_

_
. .
Y
I
X
_

1
.
.
.

n
_

_
. .
v
Y
=
Y
I
X
v
Y
.
142
Ejemplo 6.15. Consideres las bases X =
_
_
_
x
1
=
_
_
1
0
_
_
, x
2
=
_
_
2
1
_
_
_
_
_
y Y =
_
_
_
y
1
=
_
_
3
1
_
_
, y
2
=
_
_
4
1
_
_
_
_
_
de R
2
y
v = 2x
1
+ 3x
2
, expresar a v en terminos de la base Y .
Solucion. Notese que x
1
= y
1
y
2
y x
2
= 2y
1
y
2
, luego (x
1
)
Y
=
_
_
1
1
_
_
y (x
2
)
Y
=
_
_
2
1
_
_
, de donde
Y
I
X
=
_
_
1 2
1 1
_
_
. Ahora, como v
X
=
_
_
2
3
_
_
, entonces
v
Y
=
Y
I
X
v
X
=
_
_
1 2
1 1
_
_
_
_
2
3
_
_
=
_
_
8
5
_
_
.
Es decir, v = 8y
1
5y
2
.
La dicultad que a menudo se encuentra al usar este procedimiento es en el calculo de la matriz de cambio
de base
Y
I
X
, la cual, en este ejemplo, fue facil calcular. El siguiente teorema nos dara una forma efectiva de
calcular esta matriz en el caso general.
Teorema 6.6. Sean X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
n
bases para R
n
y sean A =
_
x
1
x
n
_
y B =
_
y
1
y
n
_
. Entonces
Y
I
X
= B
1
A.
Demostracion. Expresando los vectores x
1
, . . . , x
n
en terminos de la base Y obtenemos:
x
1
=
11
y
1
+
n1
y
n
.
.
.
x
n
=
1n
y
1
+
nn
y
n
. (6.9)
Entonces (x
1
)
Y
=
_

11
.
.
.

n1
_

_
, . . . , (x
n
)
Y
=
_

1n
.
.
.

nn
_

_
y por tanto
Y
I
X
=
_

11

1n
.
.
.
.
.
.
.
.
.

n1

nn
_

_
.
De la Ecuacion (6.9) tenemos que
_

_
x
1
.
.
.
x
n
_

_
=
_

11

n1
.
.
.
.
.
.
.
.
.

1n

nn
_

_
_

_
y
1
.
.
.
y
n
_

_
.
Transponiendo, obtenemos
_
x
1
x
n
_
. .
=A
=
_
y
1
y
n
_
. .
=B
_

11

1n
.
.
.
.
.
.
.
.
.

n1

nn
_

_
. .
=
Y
I
X
,
Autor: OMAR DAR

IO SALDARRIAGA 143
por tanto A = B
Y
I
X
, multiplicando a ambos lados por B
1
obtenemos
Y
I
X
= B
1
A.
De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a contin-
uacion.
Procedimiento 6.2. (Procedimiento para calcular la matriz del cambio de base) Sean X = x
1
, . . . , x
n

y Y = y
1
, . . . , y
n
bases para R
n
y sean A =
_
x
1
x
n
_
y B =
_
y
1
y
n
_
entonces
1. Aplicar reduccion Gauss-Jordan a la matriz aumentada
_
B A
_
hasta encontrar su forma escalonda
reducida.
2. Al nal del paso 1. obtenemos
_
I B
1
A
. .
Y
I
X
_
. Luego en la parte derecha de la matriz aumentada se obtiene
la matriz de cambio de base
Y
I
X
.
Ejemplo 6.16. Considere las bases X =
_
_
_
x
1
=
_
_
1
1
_
_
, x
2
=
_
_
1
1
_
_
_
_
_
y Y =
_
_
_
y
1
=
_
_
2
1
_
_
, y
2
=
_
_
1
0
_
_
_
_
_
de R
2
,
calcular
Y
I
X
y v
Y
si v
X
=
_
_
1
1
_
_
.
Al reducir la matriz
_
y
1
y
2
x
1
x
2
_
=
_
_
2 1 1 1
1 0 1 1
_
_
obtenemos la matriz
_
_
1 0 1 1
0 1 3 1
_
_
y por tanto
Y
I
X
=
_
_
1 1
3 1
_
_
Por el Teorema 6.5 tenemos que v
Y
=
Y
I
X
v
X
=
_
_
0
2
_
_
.
Ejemplo 6.17. (MatLab) Considere las bases X =
_

_
_

_
2
1
1
_

_
,
_

_
1
2
2
_

_
,
_

_
1
2
3
_

_
_

_
y Y =
_

_
_

_
1
2
3
_

_
,
_

_
1
1
2
_

_
,
_

_
1
1
1
_

_
_

_
de R
3
.
Calcular la matriz de cambio de base
Y
I
X
y calcular v
Y
si v = 2x
1
x
2
+x
3
.
Solucion. En MatLab calcular la matriz de cambio de base es simplemente un producto de matrices, ya que
podemos denir A =
_
x
1
x
2
x
3
_
y B =
_
y
1
y
2
y
3
_
y calcular B
1
A, lo cual hacemos como sigue en
MatLab:
>> A = [2 1 1; 1 2 2; 1 2 3]; B = [1 1 1; 2 1 1; 3 2 1]; yIx = inv(B) A
yIx =
1 1 3
1 5 8
2 5 4
144
Entonces la matriz de cambio de base esta dada por
Y
I
X
=
_

_
1 1 3
1 5 8
2 5 4
_

_
. Ahora, para el calculo de v
Y
,
tenemos que v
X
=
_

_
2
1
1
_

_
y v
Y
=
Y
I
X
v
X
, esto lo hacemos en MatLab como sigue:
>> vx = [2; 1; 1]; vy = yIx vx
vy =
6
15
5
Entonces tenemos que v = 6y
1
+ 15y
2
5y
3
.
Las matrices de cambio de base cumplen las siguientes propiedades.
Teorema 6.7. Sean X = x
1
, . . . , x
n
, Y = y
1
, . . . , y
n
y Z = z
1
, . . . , z
n
bases de R
n
entonces tenemos que:
1.
Y
I
X
= (
X
I
Y
)
1
2.
Z
I
X
=
Z
I
Y

Y
I
X
Demostracion. 1. Sean A =
_
x
1
x
n
_
, B =
_
y
1
y
n
_
, por el Teorema 6.6 tenemos que
Y
I
X
=
B
1
A y
X
I
Y
= A
1
B, por tanto
(
X
I
Y
)
1
=
_
A
1
B
_
1
= B
1
A =
Y
I
X
.
2. Sea C =
_
z
1
z
n
_
entonces por el Teorema 6.6 tenemos que
Y
I
X
= B
1
A,
Z
I
Y
= C
1
B y
Z
I
X
=
C
1
A, entonces
Z
I
X
= C
1
A = C
1
BB
1
A =
Z
I
Y

Y
I
X
.
6.3.1. La matriz de una transformacion con respecto a dos bases
Denicion 6.9. Sea T : R
n
R
m
una transformacion lineal y sean X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
m

bases para R
n
y R
m
, respectivamente. Denimos la matriz de T con respecto a las bases X y Y , denotada por
Y
T
X
como la matriz
Y
T
X
=
_
T(x
1
)
Y
T(x
n
)
Y
_
.
La matriz de una transformacion es la matriz con respecto a las bases estandar.
Observacion 6.1. Si T : R
n
R
m
es una transformacion lineal y E = e
1
, . . . , e
n
y E = e
1
, . . . , e
m
son las
bases estandar de R
n
y R
m
, respectivamente, y S es la matriz de T, es decir, la matriz tal que T(x) = Sx, para
todo x R
n
, entonces
S =
E
T
E
=
_
T(e
1
) . . . T(e
n
)
_
.
Autor: OMAR DAR

IO SALDARRIAGA 145
La siguiente es la propiedad mas importante de la matriz con respecto a dos bases.
Teorema 6.8. Sea T : R
n
R
m
una transformacion lineal, sean X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
m
bases
para R
n
y R
m
, respectivamente y sea v R
n
. Entonces
T(v)
Y
=
Y
T
X
v
X
.
Demostracion. Como X es una base, entonces existen constantes
1
, . . . ,
n
tal que
v =
1
x
1
+ +
n
x
n
(6.10)
entonces v
X
=
_

1
.
.
.

n
_

_
, y como Y es una base, para 1 i m, existen constantes
1i
, . . . ,
mi
tal que
T(x
i
) =
1i
y
1
+ +
mi
y
m
, (6.11)
luego T(x
i
)
Y
=
_

1i
.
.
.

mi
_

_
, por tanto
Y
T
X
=
_
T(x
1
)
Y
T(x
n
)
Y
_
=
_

11

1n
.
.
.
.
.
.
.
.
.

m1

mn
_

_
De las Ecuaciones (6.10) y (6.11) tenemos que
T(v) =
1
T(x
1
) + +
n
T(x
n
)
=
1
(
11
y
1
+ +
m1
y
n
) + +
n
(
1n
y
1
+ +
mn
y
n
)
= (
1

11
+ +
n

1n
)y
1
+ + (
1

m1
+ +
n

mn
)y
n
luego
T(v)
Y
=
_

11
+ +
n

1n
.
.
.

n1
+ +
n

nn
_

_
=
_

11

1n
.
.
.
.
.
.
.
.
.

m1

mn
_

_
. .
Y
T
X
_

1
.
.
.

n
_

_
. .
v
X
=
Y
T
X
v
X
.
De nuevo el problema en este teorema es el calculo de la matriz
Y
T
X
, en el siguiente teorema se hara explicito
un procedimiento para calcular dicha matriz.
Teorema 6.9. Sea T : R
n
R
m
una transformacion lineal, sean X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
m
bases
para R
n
y R
m
, respectivamente y sean A =
_
x
1
. . . x
n
_
y B =
_
y
1
. . . y
n
_
, entonces
Y
T
X
= B
1
_
T(x
1
) T(x
n
)
_
,
146
mas a un
Y
T
X
= B
1

E
T
E
A.
En palabras el teorema dice que la matriz de T con respecto a las bases X y Y es el producto de las matrices la
inversa de la matriz de Y , la matriz de T y la matriz de X.
Demostracion.
X
T
Y
=
_
T(x
1
)
Y
T(x
n
)
Y
_
=
_
Y
I
E
T(x
1
)
E

Y
I
E
T(x
n
)
E
_
=
_
Y
I
E
T(x
1
)
Y
I
E
T(x
n
)
_
=
Y
I
E
_
T(x
1
) T(x
n
)
_
= B
1
_
E
T
E
x
1

E
T
E
x
n
_
= B
1
E
T
E
_
x
1
x
n
_
= B
1
E
T
E
A
Este teorema nos da un procedimiento para calcular la matriz de una transformacion T : R
n
R
m
con
respecto a dos bases X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
m
, el cual describimos a continuacion.
Procedimiento 6.3. (Procedimiento para calcular
Y
T
X
)
1. Calcular T(x
i
) para i = 1, . . . , n,
2. Aplicar reduccion Gauss-Jordan a la matriz aumentada
_
y
1
y
n
[ T(x
1
) T(x
n
)
_
=
_
B T(x
1
) T(x
n
)
_
=
_
B
E
T
E
A
_
hasta llevarla a la forma escalonada reducida, donde A =
_
x
1
x
n
_
y
B =
_
y
1
y
n
_
,
3. Al nal del paso 2. obtenemos
_
I B
1

E
T
E
A
. .
Y
T
X
_
.
Ejemplo 6.18. Sea T : R
2
R
2
la transformacion lineal dada por T
_
_
_
_
x
y
_
_
_
_
=
_
_
2x y
x +y
_
_
, sean X =
_
_
_
x
1
=
_
_
1
1
_
_
, x
2
=
_
_
1
1
_
_
_
_
_
y Y =
_
_
_
y
1
=
_
_
2
1
_
_
, y
2
=
_
_
1
0
_
_
_
_
_
bases de R
2
, calcular
Y
T
X
y T(v)
Y
si v
X
=
_
_
1
1
_
_
Primero notese que
E
T
E
=
_
_
2 1
1 1
_
_
y as
T(x
1
) =
E
T
E
x
1
=
_
_
2 1
1 1
_
_

_
_
1
1
_
_
=
_
_
1
2
_
_
y
Autor: OMAR DAR

IO SALDARRIAGA 147
T(x
2
) =
E
T
E
x
2
=
_
_
2 1
1 1
_
_

_
_
1
1
_
_
=
_
_
3
0
_
_
.
Entonces necesitamos reducir la matriz
_
y
1
y
2
[ T(x
1
) T(x
2
)
_
=
_
_
2 1 [ 1 3
1 0 [ 2 0
_
_
cuya forma escalonada esta dada por
_
_
1 0 2 0
0 1 5 3
_
_
, de
donde tenemos
Y
T
X
=
_
_
2 0
5 3
_
_
.
Finalmente, tenemos que:
T(v)
Y
=
Y
T
X
v
X
=
_
_
2 0
5 3
_
_

_
_
1
1
_
_
=
_
_
2
8
_
_
.
Ejemplo 6.19. (MatLab) Considere la tranformacion T : R
3
R
4
denida por
T
_
_
_
_
_
_

_
x
y
z
_

_
_
_
_
_
_
=
_

_
x +y + 3z
2x +y 2z
x + 2y +z
x y + 2z
_

_
y sean X =
_

_
x
1
=
_

_
2
1
1
_

_
, x
2
=
_

_
1
2
2
_

_
, x
3
=
_

_
1
2
3
_

_
_

_
y
Y =
_

_
y
1
=
_

_
1
2
3
4
_

_
, y
2
=
_

_
1
1
2
3
_

_
, y
3
=
_

_
1
1
1
2
_

_
, y
4
=
_

_
1
1
1
1
_

_
_

_
bases de R
3
y R
4
, respectivamente. Calcular la matriz
Y
T
X
y T(v)
Y
si v = x
1
x
2
+x
3
.
Solucion. Usamos el Teorema 6.9 que nos dice que
Y
T
X
= B
1

E
T
E
A, con
A = [
x
1
x
2
x
3
] =
_

_
2 1 1
1 2 2
1 2 3
_

_
, B = [
y
1
y
2
y
3
y
4
] =
_

_
1 1 1 1
2 1 1 1
3 2 1 1
4 3 2 1
_

_
y
E
T
E
=
_

_
1 1 3
2 1 2
1 2 1
1 1 2
_

_
.
En MatLab solo necesitamos multiplicar las matrices, lo cual hacemos a continuacion.
>> A = [2 1 1; 1 2 2; 1 2 3]; B = [1 1 1 1; 2 1 1 1; 3 2 1 1; 4 3 2 1];
eTe = [1 1 3; 2 1 2; 1 2 1; 1 1 2]; yTx = inv(B) eTe A
yTx =
3 11 14
5 16 20
8 5 1
12 7 1
Entonces
Y
T
X
=
_

_
3 11 14
5 16 20
8 5 1
12 7 1
_

_
. Finalmente, multiplicamos
Y
T
X
por v
X
=
_

_
1
1
1
_

_
, lo que nos da T(v)
Y
.
148
>> vx = [1; 1; 1]; Tvy = yTx vx
Tvy =
28
41
2
6
Por tanto T(v)
Y
=
_

_
28
41
2
6
_

_
.
En MatLab tambien se puede usar el Procedimiento 6.3 para calcular la matriz
Y
T
X
, primero notese que
[
T(x
1
) T(x
2
) T(x
3
)
] = [
E
T
E
x
1 E
T
E
x
2 E
T
E
x
3
] =
E
T
E
[
x
1
x
2
x
3
]
=
E
T
E
A
, entonces se debe calcular la matriz escalonada reducida de la matriz [B [
E
T
E
A]. En MatLab lo calculamos
como sigue:
>> C = [B, eTe A]; rref(C)
ans =
1 0 0 0 3 11 14
0 1 0 0 5 16 20
0 0 1 0 8 5 1
0 0 0 1 12 7 1
Notese que en la respuesta se tiene la matriz identidad en la parte izquierda y en la parte derecha se tiene
Y
T
X
.
Es importante observar que las matrices de una transformacion lineal con respecto a bases diferentes son
similares:
Observacion 6.2. Sea T : R
n
R
n
una transformacion lineal y sea X = x
1
, . . . , x
n
una base para R
n
.
Entonces las matrices
X
T
X
y
E
T
E
son similares, ya que por el Teorema 6.9 tenemos que
X
T
X
= A
1

E
T
E
A,
o equivalentemente
E
T
E
= A
X
T
X
A
1
donde A =
_
x
1
x
n
_
.
6.4. Diagonalizaci on
En esta seccion se daran condiciones equivalentes a que una matriz sea diagonalizable, comenzamos con el
siguiente resultado.
Autor: OMAR DAR

IO SALDARRIAGA 149
Teorema 6.10. Sea A una matriz de tama no nn, entonces A es diagonalizable si y solo si A tiene n vectores
propios linealmente independientes. En este caso A es similar a la matriz diagonal D =
_

1
0 0
0
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
donde
1
, . . . ,
n
son los valores propios de A y si los correspondientes vectores propios son v
1
, . . . , v
n
entonces
A = CDC
1
con C =
_
v
1
v
n
_
.
Demostracion. Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una
matriz invertible C tal que A = CDC
1
. Sean c
1
, . . . , c
n
las columnas de C y
1
, . . . ,
n
las entradas en la
diagonal de D.
Armacion: Los vectores c
1
, . . . , c
n
son vectores propios de A con valores propios
1
, . . . ,
n
.
Como A = CDC
1
entonces AC = DC, por tanto
[
Ac
1
Ac
n
] = A[
c
1
c
n
] = AC = DC
=
_

1
0
.
.
.
.
.
.
.
.
.
0
n
_

_
[
c
1
c
n
] = [

1
c
1

n
c
n
].
De esta igualdad se sigue que Ac
1
=
1
c
1
, , Ac
n
=
n
c
n
, lo que demuestra la armacion.
Finalmente, como la matriz C es invertible, entonces sus columnas c
1
, . . . , c
n
son linealmente independientes,
por tanto A tiene n vectores propios linealmente independientes.
Sean v
1
, . . . , v
n
vectores propios linealmente independientes de A con valores propios
1
, . . . ,
n
, respec-
tivamente, es decir, Av
i
=
i
v
i
, para i = 1, . . . , n.
Sea X = v
1
, . . . , v
n
entonces X es una base para R
n
y sea T : R
n
R
n
la transformacion lineal determinada
por A, es decir, T(x) = Ax, para todo x R
n
.
Como T(e
i
) = Ae
i
= i-esima columna de A, entonces
E
T
E
= A. Ahora, sea C =
_
v
1
v
n
_
, entonces por el
Teorema 6.9 tenemos que
X
T
X
= C
1
E
T
E
..
A
C = C
1
AC, por tanto
A = C
X
T
X
C
1
. (6.12)
Ahora veamos que
X
T
X
es una matriz diagonal. Como T(v
i
) = Av
i
=
i
v
i
= 0v
1
+ +
i
v
i
+ + 0v
n
,
150
entonces T(v
i
)
X
=
_

_
0
.
.
.

i
.
.
.
0
_

_
, por tanto
X
T
X
=
_
T(v
1
) T(v
2
) T(v
n
)
_
=
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
. (6.13)
De la Ecuacion (6.12) tenemos que A y
X
T
X
son similares y de la ecuacion (6.13),
X
T
X
es diagonal, por tanto
A es diagonalizable.
Ejemplo 6.20. La matriz A =
_
_
4 5
2 3
_
_
tiene vectores propios v
1
=
_
_
5
2
_
_
y v
2
=
_
_
1
1
_
_
de valores propios 2 y
-1, respectivamente (ver Ejemplo 6.1.)
Si tomamos la base X = v
1
, v
2
de R
2
, formada por los valores propios de la matriz A, C =
_
v
1
v
2
_
la
matriz de vectores propios y D =
_
_
2 0
0 1
_
_
, entonces de acuerdo al Teorema 6.10 tenemos que
A = CDC
1
.
Esto lo podemos vericar de la siguiente manera. De acuerdo al Teorema 6.9 la matriz
X
A
X
de A con respecto
a la base X esta dada por:
X
A
X
= C
1
AC =
1
3
_
_
1 1
2 5
_
_

_
_
4 5
2 3
_
_

_
_
5 1
2 1
_
_
=
_
_
2 0
0 1
_
_
= D,
de donde C
1
AC = D y por tanto
A = CDC
1
.
Ejemplo 6.21. En el Ejemplo 6.6 calculamos los valores y vectores propios de la matriz A =
_

_
3 1 0 0
1 3 0 0
7 1 4 0
7 1 0 4
_

_
y encontramos que los vectores propios son v
1
=
_

_
0
0
1
0
_

_
y v
2
=
_

_
0
0
0
1
_

_
ambos de valor propio = 4, v
3
=
_

_
1/2
1/2
1/2
1/2
_

_
Autor: OMAR DAR

IO SALDARRIAGA 151
de valor propio = 4 y v
4
=
_

_
1/2
1/2
1/2
1/2
_

_
de valor propio = 2. Como A tiene cuatro vectores linealmente indepen-
dientes entonces A es diagonalizable y A = CDC
1
con
C =
_

_
0 0 1/2 1/2
0 0 1/2 1/2
1 0 1/2 1/2
0 1 1/2 1/2
_

_
y D =
_

_
4 0 0 0
0 4 0 0
0 0 4 0
0 0 0 2
_

_
Corolario 6.11. Si una matriz A de tama no nn tiene n valores propios distintos, entonces A es diagonalizable.
Ejemplo 6.22. (MatLab) La matriz A =
_

_
2 2 3
5 1 3
6 0 5
_

_
tiene tres valores propios diferentes, = 1, = 3
y = 2. Esto lo podemos vericar en MatLab como se muestra a continuacion
>> A = [2 2 3; 5 1 3; 6 0 5]; factor(poly(sym(A)))
ans =
-1
3
2
Por tanto A es diagonalizable, de hecho A es similar a la matriz D =
_

_
1 0 0
0 3 0
0 0 2
_

_
.
Teorema 6.12. Sea A una matriz de tama no nn, entonces A tiene n vectores propios linealmente independi-
entes si y solo si para cada valor propio , se tiene que
multiplicidad geometrica de = multiplicidad algebr aica de .
En particular, si todos los valores propios de A son diferentes, todos los vectores propios de A son linealmente
independientes.
Demostracion. Para comenzar la demostracion, supongamos que Atiene k valores propios distintos,
1
, . . . ,
k
,
con multiplicidades n
1
, . . . , n
k
, respectivamente. Es decir, el polinomio caracterstico de A esta dado por p
A
() =
(
1
)
n1
(
k
)
n
k
, con n = n
1
+ +n
k
.
Supongamos que A tiene n vectores propios linealmente independientes, sean v
11
, . . . , v
1m1
, . . . ,
v
k1
, . . . , v
km
k
estos vectores con m
1
+ + m
k
= n y agrupados de tal forma que v
11
, . . . , v
1m1
tienen valor
propio
1
, v
21
, . . . , v
2m2
tienen valor propio
2
y, de manera inductiva, v
k1
, . . . , v
km
k
tienen valor propio
k
.
Como para i = 1, . . . , k, multiplicidad geometrica de
i
multiplicidad algebraica de
i
, entonces m
i
n
i
,
152
ahora si m
i
< n
i
para alg un i = 1, . . . , k entonces tenemos que
n = m
1
+ +m
k
< n
1
+ +n
k
= n,
lo cual es imposible, por tanto para todo i = 1, . . . , k, m
i
= n
i
, es decir, para todo i = 1, . . . , k tenemos que
multiplicidad geometrica de
i
= multiplicidad algebraica de
i
.
Supongamos que la multiplicidad geometrica de cada valor propio es igual a la multiplicidad algebraica,
entonces dim(E
j
) = n
j
, para 1 j k. Sean v
11
, . . . , v
1n1
, v
21
, . . . , v
2n2
, . . . ,
v
k1
, . . . , v
kn
k
bases para E
1
, E
2
, . . . , E

k
, respectivamente.
Veamos que los vectores v
11
, . . . , v
1n1
, v
21
, . . . , v
2n2
, , v
k1
, . . . , v
kn
k
son linealmente independientes.
Supongamos que

11
v
11
+ +
1n1
v
1n1
+ +
k1
v
k1
+ +
kn
k
v
kn
k
= 0 (6.14)
y sean v
1
=
11
v
11
+ +
1n1
v
1n1
, . . . , v
k
=
k1
v
k1
+ +
kn
k
v
kn
k
, entonces la ecuacion (6.14) se convierte
en
v
1
+v
2
+ +v
k
= 0. (6.15)
Armacion: v
1
= v
2
= = v
k
= 0
Supongamos que algunos de los v
j
,= 0, como v
ij
E
i
para 1 i k entonces tenemos que v
1
E
1
,
v
2
E
2
, . . . , v
k
E

k
, entonces los vectores de la lista v
1
, . . . , v
k
que son no nulos, son vectores propios de
valores propios
1
, . . . ,
k
, respectivamente. Como los valores propios
1
, . . . ,
k
son distintos, entonces, por el
Teorema 6.2, los vectores no nulos de la lista v
1
, . . . , v
k
son linealmente independientes, pero de la Ecuacion (6.15)
se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v
1
= = v
k
= 0,
y la armacion se cumple.
Luego para 1 j k tenemos que
0 = v
j
=
j1
v
j1
+ +
jn1
v
jnj
,
pero como los vectores v
j1
, . . . , v
jnj
son una base para E
j
, entonces son linealmente independientes y por
tanto
j1
= =
jnj
= 0. Como esto es para todo j = 1, . . . , k tenemos que

11
= =
1n1
= =
k1
= =
kn
k
= 0.
Entonces los vectores v
11
, . . . , v
1n1
, v
21
, . . . , v
2n2
, . . . , v
k1
, . . . , v
kn
k
son linealmente independientes y como to-
dos estos son vectores propios de A y n
1
+ + n
k
= n, entonces A tiene n vectores propios linealmente
independientes.
Corolario 6.13. Sea A una matriz A de tama no nn, entonces A es diagonalizable si y solo si para todo valor
propio de A se cumple que
multiplicidad geometrica de = multiplicidad algebr aica de .
Autor: OMAR DAR

IO SALDARRIAGA 153
Demostracion. El corolario se sigue de los Teoremas 6.10 y 6.12.
Ejemplo 6.23. 1. En el Ejemplo 6.6 vimos que la matriz
A =
_

_
3 1 0 0
1 3 0 0
7 1 4 0
7 1 0 4
_

_
tiene valores propios = 4, = 4 y = 2 y que las multiplicidades
geometricas y algebraicas eran a
4
= g
4
= 2, a
4
= g
4
= 1 y a
2
= g
2
= 1, entonces la matriz es
diagonalizable.
2. En el Ejemplo 6.7 vimos que el unico valor propio de la matriz A =
_

_
3 2 1
1 6 1
1 2 3
_

_
es = 4 con
multplicidad algebraica a
4
= 3 y geometrica g
4
= 2, entonces por el corolario anterior A no es diago-
nalizable.
3. En el Ejemplo 6.8 vimos que el unico valor propio de la matriz A =
_

_
4 1 1
0 5 1
1 0 3
_

_
es = 4 con
multiplicidad algebraica es a
4
= 3 y geometrica g
4
= 1, por tanto A no es diagonalizable.
6.5. Matrices Simetricas y Diagonalizacion Ortogonal
Denicion 6.10. Sea A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
de tama no mn con entradas complejas.
1. Denimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las
entradas de A, estos es
A =
_

_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_

_
2. La transpuesta hermitiana de A, denotada por A
H
, se dene como A
H
= A
t
.
3. Decimos que A es hermitiana si A = A
H
.
Ejemplo 6.24. Considere la matriz A =
_
_
1 1 i
1 +i 2
_
_
, notese que A =
_
_
1 1 i
1 +i 2
_
_
=
_
_
1 1 +i
1 i 2
_
_
y
A
H
= A
t
=
_
_
1 1 i
1 +i 2
_
_
. Como A = A
H
entonces A es una matriz hermitiana.
154
Teorema 6.14. Sea A una matriz hermitiana de tama no nn entonces los valores propios de A son reales.
Esto es, si es un valor propio de A entonces R. En particular, si A una matriz simetrica con entradas
reales, entonces sus valores propios son reales y por tanto sus vectores propios son reales.
Demostracion. Como A es hermitiana, entonces A = A
H
= A
t
de donde A
t
= A, entonces
v v = v
t
v = v
t
v
Av
= v
t
Av = v
t
A
H
v = v
t
A
t
v = (Av)
t
v
= (Av)
t
v = (v)
t
v = v
t
v = v v.
De donde se sigue que ( )v v = 0, como v ,= 0 entonces v v ,= 0. Por tanto , es decir = .
Teorema 6.15. Sea A una matriz hermitiana de tama no nn y sean x y y vectores propios de valores propios

1
y
2
, respectivamente. Si
1
,=
2
entonces x y = 0, es decir, x y y son ortogonales. El teorema tambien se
cumple si A es una matriz simetrica con entradas reales.
Demostracion.

1
(v
1
v
2
) = (
1
v
1
v
2
) = (Av
1
v
2
) = (Av
1
)
t
v
2
= (Av
1
)
t
v
2
= v
1
t
A
t
..
A
H
=A
v
2
= v
1
t
Av
2
= v
1
t

2
v
2
=
2
v
1
t
v
2
=
2
(v
1
v
2
).
Luego (
1

2
)v
1
v
2
= 0, como
1
,=
2
entonces v
1
v
2
= 0.
Ejemplo 6.25. Sea A =
_
_
2 1
1 2
_
_
. Los valores propios de A son = 1 y = 3 los cuales son n umeros reales y
los vectores propios son v
1
=
_
_
1
1
_
_
y v
2
=
_
_
1
1
_
_
. Notese que v
1
v
2
= 0.
Ejemplo 6.26. La matriz simetrica A =
_

_
2 1 1
1 2 1
1 1 2
_

_
debe tener valores propios reales, usamos MatLab
para calcular la factorizacion de su polinomio caracterstico:
>> A = [2 1 1; 1 2 1; 1 1 2]; factor(poly(sym(A)))
ans =
x (x 3)
2
Por tanto los valores propios son = 0 y = 2 de multiplicidad 2.
6.6. Formas Cuadraticas
Denicion 6.11. Una forma cuadratica es una expresion de la forma
n

i=1
a
ii
x
2
i
+

i<j
a
ij
x
i
x
j
.
Autor: OMAR DAR

IO SALDARRIAGA 155
Notese que si F =
n

i=1
a
ii
x
2
i
+

i<j
a
ij
x
i
x
j
es una forma cuadratica entonces F = x
t
Qx donde Q =
_

_
a
11
a12
2

a1n
2
a12
2
a
22

a2n
2
.
.
.
.
.
.
.
.
.
.
.
.
a1n
2
a2n
2
a
nn
_

_
y x =
_

_
x
1
.
.
.
x
n
_

_
.
Ejemplo 6.27. La forma caudratica F = 2x
2
+ 2xy + 2y
2
se puede escribir matricialmente como F =
_
x y
_
_
_
2 1
1 2
_
_
_
_
x
y
_
_
.
Observacion 6.3. Un hecho muy conocido, pero que no sera demostrado en este libro, es que toda matriz
simetrica es diagonalizable, esto hecho lo usaremos en el siguiente teorema.
Teorema 6.16. (Teorema de los ejes principales) Sea F = x
t
Qx un forma cuadratica en n variables con Q una
matriz simetrica. Como Q es diagonalizable existen vectores propios v
1
, . . . , v
n
de Q linealmente independientes.
Sean
1
, . . . ,
n
los respectivos valores propios correspondientes a v
1
, . . . , v
n
y sea X = v
1
, . . . , v
n
, entonces
X es una base de R
n
. Entonces bajo la base X, la forma cuadratica tiene la forma:
F =
1
y
2
1
+ +
n
y
2
n
.
Demostracion. Primero veamos que a la base X la podemos tomar ortonormal.
Si los
i
son todos distintos, entonces los vectores propios son ortogonales y X es ortogonal, si no lo son,
tomamos v
11
, . . . , v
1k1
, . . . , v
s1
, . . . , v
sks
una reindexacion de los vectores de X de tal manera que v
11
, . . . , v
1k1
son
vectores propios de valor propio
1
,. . . v
s1
, . . . , v
sks
vectores propios de valores propios
s
. Aplicando Gramm-
Schmidt a cada uno de los conjuntos v
11
, . . . , v
1k1
, , . . . ,
v
s1
, . . . , v
sks
obtenemos vectores w
11
, . . . , w
1k1
, . . . ,w
s1
, . . . , w
sks
formando una base ortogonal y redenimos
X =
_
1
[[w
11
[[
w
11
, . . . ,
1
[[w
1k1
[[
w
1k1
, . . . ,
1
[[w
s1
[[
w
s1
, . . . ,
1
[[w
sks
[[
w
sks
_
.
Por tanto X es ortonormal.
Como X es una base de vectores propios entonces
X
Q
X
=
_

1
0
.
.
.
.
.
.
.
.
.
0
n
_

_
. (6.16)
Ademas sabemos que
X
Q
X
= BQB
1
donde B =
_
v
1
v
n
_
. Como X es ortonormal, entonces B es una
matriz ortogonal y B
1
= B
t
, por tanto
Q = B
1
X
Q
X
B = B
t
X
Q
X
B (6.17)
156
Denamos y = Bx y sean y
1
, . . . , y
n
las componentes de y, entonces de (6.17) tenemos que la forma cuadratica
tiene la forma
F = x
t
Qx = x
t
B
t
X
Q
X
Bx = (Bx)
t
X
Q
X
Bx = y
t
X
Q
X
y. (6.18)
Luego de (6.16) y (6.18) tenemos que
F =
1
y
2
1
+ +
n
y
2
n
.
Ademas notese que los ejes de esta forma cuadratica son los vectores de la base X, los cuales son perpendiculares.
Observacion 6.4. Una ecuacion de la forma F = c con F una forma cuadratica y c una constante es una
seccion conica.
El teorema de los ejes principales nos permite identicar la secciones conicas. Sea x
t
Qx = c una conica con
c > 0 constante y sean
1
, . . . ,
2
los valores propios de Q, entonces tenemos lo siguiente:
Si Q es 2x2 y:
1.
1
,
2
> 0 entonces x
t
Qx = c es una elipse.
2.
1
,
2
< 0 entonces x
t
Qx = c es vacia.
3.
1

2
< 0 entonces x
t
Qx = c es una hiperbola.
4.
1

2
= 0 entonces x
t
Qx = c es una forma degenerada.
En el caso 3x3 tenemos:
1. Si
1
,
2
,
3
> 0 entonces x
t
Qx = c es un elipsoide.
2. Si
1
,
2
,
3
< 0 entonces x
t
Qx = c es vacia.
3. Si uno de los
i
es positivo y los otros negativos entonces x
t
Qx = c es un hiperboloide de 2 hojas
4. Si uno de los
i
es negativo y los otros positivos, entonces x
t
Qx = c es un hiperboloide de una hoja.
5. Si c = 0 y uno de los
i
es positivo y los otros negativos o dos positivos y uno negativo entonces x
t
Qx = c
es un cono.
Ahora consideremos la ecuacion z = x
t
Qx con z variable y Q de taman no 2x2 con valores propios
1
y
2
.
Entonces tenemos lo siguiente
1. Si
1

2
> 0 entonces z = x
t
Qx es un paraboloide elptico.
2. Si
1

2
< 0 entonces z = x
t
Qx es un paraboloide hiperbolico o silla de montar.
Autor: OMAR DAR

IO SALDARRIAGA 157
Ejemplo 6.28. La seccion conica 2x
2
+2xy+2y
2
= 4 se puede escribir matricialmente en la forma
_
x y
_
_
_
2 1
1 2
_
_
_
_
x
y
_
_
=
4.
Los vectores propios de Q =
_
_
2 1
1 2
_
_
son v
1
=
_
_
1
1
_
_
y v
2
=
_
_
1
1
_
_
con valores propios 1 y 3, respectivamente.
Entonces con respecto a la base X = v
1
, v
2
tenemos que la ecuacion de la forma cuadratica esta dada por
x
2
+ 3y
2
= 4 cuya ecuacion corresponde a una elipse.
Ahora, si consideramos la ecuacion z = 2x
2
+2xy +2y
2
entonces con respecto a la base X la ecuaci on tiene
la forma z = x
2
+ 3y
2
el cual corresponde a un paraboloide elptico.
Ejemplo 6.29. La secci on conica 4xy = 5 se puede escribir matricialmente en la forma
_
x y
_
_
_
0 2
2 0
_
_
_
_
x
y
_
_
=
5.
Los vectores propios de Q =
_
_
0 2
2 0
_
_
son v
1
=
_
_
1
1
_
_
y v
2
=
_
_
1
1
_
_
con valores propios
-2 y 2, respectivamente. Normalizando estos vectores obtenemos w
1
=
1

2
v
1
y w
2
=
1

2
v
2
, entonces con respecto
a la base X = w
1
, w
2
tenemos que la ecuacion de la seccion conica est a dada por 2x
2
+ 2y
2
= 5 cuya
ecuacion corresponde a una hiperbola abierta en la direcci on de y

, es decir, en la direccion de la linea generada


por v
2
y con interceptos

2
w
2
=

5
2
v
2
=
_
_

5/2

5/2
_
_
y

2
w
2
=
_
_

5/2

5/2
_
_
.
Ahora, si consideramos la ecuacion z = 4xy entonces con respecto a la base X la ecuacion tiene la forma
z = 2x
2
+ 2y
2
la cual corresponde a un paraboloide hiperb olico o silla de montar.
Ejemplo 6.30. (MatLab) Sea Q =
_

_
5 1 1
1 5 1
1 1 5
_

_
, determinar que tipo de conica corresponde a la ecuacion
x
t
Qx = 5.
Solucion. Usamos MatLab para calcular los valores propios de A,
>> A = [5 1 1; 1 5 1; 1 1 5]; eig(A)
ans =
6
3
6
Por tanto la conica corresponde a un elipsoide. Para calcular los ejes coordenados, calculamos los vectores
propios los cuales son v
1
=
_

_
1
1
1
_

_
con valor propio 3 y v
2
=
_

_
1
1
0
_

_
y v
3
=
_

_
1
0
1
_

_
ambos de valor propio 6. Notese
que v
2
y v
3
no son ortogonales, pero estos forman una base para el subespacio propio E
6
, entonces usando
Gramm-Schmidt, reemplazamos v
3
por w
3
= v
3
proy
v2
v
3
=
_

_
1/2
1/2
1
_

_
. Obtenemos que los ejes coordenados bajo
158
los cuales la graca de x
t
Qx = 5 es un elipsoide son las lineas determinadas por los vectores:
v
1
=
_

_
1
1
1
_

_
, v
2
=
_

_
1
1
0
_

_
y w
3
=
_

_
1/2
1/2
1
_

_
.
Ejemplo 6.31. Sea Q =
_

_
1 5 1
5 1 1
1 1 5
_

_
, determinar que tipo de conica corresponde a la ecuacion x
t
Qx = 5.
Solucion. Se puede ver que los valores propios de Q son = 3, 6 y 6. Por tanto la conica corresponde a un
hiperboloide de una hoja.
Es facil ver que los vectores propios de Q son v
1
=
_

_
1
1
1
_

_
con valor propio 3, v
2
=
_

_
1/2
1/2
1
_

_
de valor propio
6 y v
3
=
_

_
1
1
0
_

_
de valor propio -6. De donde se sigue que la ecuaci on de esta conica con respecto a la base
v
1
, v
2
, v
3
es 3x
2
+ 6y
2
6z
2
= 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es la
linea generada por el vector v
3
.
Ejemplo 6.32. Determine el tipo de conica determinada por la cuadr atica 2xy + 2xz + 2yz = 5.
Solucion. La matriz de la forma cuadratica es Q =
_

_
0 1 1
1 0 1
1 1 0
_

_
cuyos vectores propios ortogonales son v
1
=
_

_
1
1
0
_

_
y v
2
=
_

_
1/2
1/2
1
_

_
ambos de valor propio -1 y v
3
=
_

_
1
1
1
_

_
de valor propio 2. Por tanto la ecuacion de esta
conica con respecto a la base v
1
, v
2
, v
3
es x
2
y
2
+ 2z
2
= 5 cuya graca corresponde a un paraboloide de
dos hojas cuyo eje central es la linea generada por el vector v
3
.
6.7. Ejercicios
1. Encuentre los valores, vectores y subespacios propios de la matriz y determine si es diagonalizable.
a. A =
_
_
2 2
5 1
_
_
, b. B =
_
_
2 1
5 2
_
_
, c. C =
_
_
3 2
0 3
_
_
,
d. D =
_

_
5 4 2
4 5 2
2 2 2
_

_
e. E =
_

_
0 1 0
0 0 1
1 3 3
_

_
Autor: OMAR DAR

IO SALDARRIAGA 159
2. Para cada una de las matrices diagonalizables del problema anterior escriba la matriz en la forma MDM
1
con D diagonal.
3. Demuestre que A y A
t
tienen los mismos valores propios.
En los problemas 4-8
1
,
2
, . . . ,
n
son los valores propios de una matriz A.
4. Demuestre que los valores propios de A son
1
,
2
, . . . ,
n
.
5. Demuestre que [A[ =
1

2

n
.
6. Demuestre que los valores propios de AI son
1
,
2
, . . . ,
n
.
7. Demuestre que los valores propios de A
m
son
m
1
,
m
2
, . . . ,
m
n
.
8. Sean v es un vector propio de A con valor propio , f() = a
0
+ a
1
+ + a
k

k
un polinomio y f(A) =
a
0
I + a
1
A + + a
k
A
k
, entonces f(A)v = f()v. Use el resultado para demostrar que los valores propios de
f(A) son f(
1
), f(
2
), . . . , f(
n
).
9. Sea A una matriz y sea p
A
() el polinomio caraterstico de A, demuestre que p
A
(A) = 0, donde p
A
(A) es la
matriz denida como en el problema anterior.
10. Sea A una matriz nn con entradas reales y sea v C
n
un vector propio de A de valor propio , demuestre
que v es un vector propio de A de valor propio

.
11. Verique el problema 7. si A =
_
_
2 2
5 1
_
_
(del problema 1.a.) y f() = 1 2 + 3
3
.
12. Determine cual de las siguientes 3 matrices es diagonalizable
a. A =
_

_
3 0 0
0 3 0
0 0 3
_

_
b. B =
_

_
3 1 0
0 3 0
0 0 3
_

_
c. C =
_

_
3 1 0
0 3 1
0 0 3
_

_
13. Demuestre que si B es invertible entonces AB y BA son similares.
160
14. Encuentre una matriz ortogonal Q y una matriz diagonal D tal que A = QDQ
t
si:
a. A =
_
_
3 4
4 3
_
_
b. A =
_
_
3 2
2 3
_
_
c. A =
_

_
3 1 0
1 3 0
0 0 2
_

_
d. A =
_

_
1 3 0
3 1 0
0 0 1
_

_
15. Para cada una de las matrices del problema anterior identique el tipo de conica representada por la forma
cuadratica x
t
Ax = 4 y bosquejar su graca.
16. Para las matrices dadas en los problemas 12.a y 12.b. identique el tipo de supercie que que representa la
ecuacion z = x
t
Ax con z variable.
15. Para cada una de las matrices del problema 12 encuentre una base X de vectores propios y encuentre la
matriz
X
A
X
.
17. Sean X =
_

_
x
1
=
_

_
1
1
0
_

_
, x
2
=
_

_
0
1
1
_

_
, x
3
=
_

_
1
0
2
_

_
_

_
y
Y =
_

_
y
1
=
_

_
1
1
0
_

_
, y
2
=
_

_
0
1
1
_

_
, y
3
=
_

_
1
0
1
_

_
_

_
bases de R
3
. Encuentre las matrices de cambio de base
Y
I
X
y
X
I
Y
.
18. Sea T : R
3
R
2
la transformacion lineal cuya matriz
E
T
E
esta dada por
E
T
E
=
_
_
1 1 1
0 2 1
_
_
. Calcular la matriz
Z
T
X
de T con respecto a las bases
X =
_

_
x
1
=
_

_
1
1
0
_

_
, x
2
=
_

_
0
1
1
_

_
, x
3
=
_

_
1
0
2
_

_
_

_
de R
3
y Z =
_
_
_
z
1
=
_
_
1
1
_
_
, z
2
=
_
_
0
1
_
_
_
_
_
de R
2
.
19. Sea T : R
3
R
3
la transformacion lineal cuya matriz
E
T
E
esta dada por
E
T
E
=
_

_
1 1 0
0 2 1
1 0 1
_

_
. Calcular la matriz
X
T
X
de T con respecto a la base
X =
_

_
x
1
=
_

_
1
1
0
_

_
, x
2
=
_

_
0
1
1
_

_
, x
3
=
_

_
1
0
2
_

_
_

_
de R
3
.
Mas Problemas.
Autor: OMAR DAR

IO SALDARRIAGA 161
20. Sea X =
_

_
x
1
=
_

_
1
1
0
_

_
, x
2
=
_

_
0
1
1
_

_
, x
3
=
_

_
1
0
2
_

_
_

_
una base de R
3
, encontrar una base Y = y
1
, y
2
, y
3

tal que
X
I
Y
=
_

_
1 0 1
1 1 0
0 1 1
_

_
.
21. Repetir el problema anterior si en lugar de
X
I
Y
se nos da
Y
I
X
=
_

_
1 0 1
1 1 0
0 1 1
_

_
.
22. Sea T : R
3
R
2
una transformacion lineal y sea Z =
_
_
_
z
1
=
_
_
1
1
_
_
, z
2
=
_
_
0
1
_
_
_
_
_
una base para R
2
y
X =
_

_
x
1
=
_

_
1
1
0
_

_
, x
2
=
_

_
0
1
1
_

_
, x
3
=
_

_
1
0
2
_

_
_

_
una base para R
3
. Si
Z
T
X
=
_
_
1 1 1
0 2 1
_
_
, calcular la matriz
E
T
E
.
23. Sea T : R
2
R
2
la transformacion lineal denida por T
_
_
_
_
x
y
_
_
_
_
=
_
_
x + 2y
2x +y
_
_
y sea Y =
_
_
_
y
1
=
_
_
1
1
_
_
, y
2
=
_
_
0
1
_
_
_
_
_
una base de R
2
. Calcular la base X tal que
Y
T
X
=
_
_
1 1
0 2
_
_
.
24. Sea T : R
2
R
2
tal que
E
T
E
=
_
_
2 1
1 1
_
_
. Demuestre que no existe una base X tal que
X
T
X
=
_
_
1 1
0 1
_
_
.

Potrebbero piacerti anche