Sei sulla pagina 1di 197

Colección de Matemáticas Universitarias 3

Introducción al Álgebra Lineal

Oihane Fdez. Blanco


Imagen de portada: tejidos tı́picos ecuatorianos ©AMARUN

Colección de Matemáticas Universitarias, 3

Álgebra Lineal y sus aplicaciones


Introducción al Álgebra Lineal
Oihane Fdez. Blanco

© Asociación AMARUN, Parı́s, 2017


Depósito legal: Bibliothèque Nationale de France
Impreso en Francia
Fecha de la versión: enero 2017

ISBN

La Asociación AMARUN tiene por objetivo desarrollar las ciencias exactas en améri-
ca del sur, principalmente en paı́ses de la región andina (Bolivia, Colombia, Ecuador,
Perú). Entre las diversas actividades de AMARUN se encuentra la organización de
escuelas de verano en matemáticas, la producción de material pedagógico (leccio-
nes, hojas de ejercicios) y la edición de una revista de divulgación. Para mayores
informaciones sobre los proyectos y actividades, consultar www.amarun.org
Índice general
Introducción 1

1 Vectores y matrices con coeficientes en R 3


1.1 Escalares, y Vectores en Rn . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Suma algebraica y geométrica de vectores . . . . . . . . 10
1.1.2 Multiplicación escalar . . . . . . . . . . . . . . . . . . . 12
1.1.3 Combinación lineal de vectores . . . . . . . . . . . . . . 15
1.1.4 Producto punto: longitud, distancia y ángulo entre vectores 18
1.2 Matrices de m × n con coeficientes en R . . . . . . . . . . . . . 26
1.2.1 Operaciones con Matrices (álgebra de matrices) . . . . . 28
1.2.2 Transpuesta de una matriz: AT . . . . . . . . . . . . . . 34

2 Sistemas de Ecuaciones Lineales 37


2.1 Definición de un sistema de ecuaciones lineales . . . . . . . . . 37
2.1.1 Forma matricial de un sistema de ecuaciones lineales . . 38
2.1.2 Forma vectorial de un sistema de ecuaciones lineales . . 40
2.2 Resolución de un sistema de ecuaciones lineales . . . . . . . . . 41
2.2.1 El Método de Eliminación de Gauss . . . . . . . . . . . 42
2.3 Sistemas homogeneos e independencia lineal de vectores . . . . 59
2.3.1 Interpretación vectorial de la solución . . . . . . . . . . 59
2.3.2 Sistemas homogeneos . . . . . . . . . . . . . . . . . . . 60
2.3.3 Independencia lineal de vectores . . . . . . . . . . . . . 64
2.4 Matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.4.1 Cálculo de la inversa de una matriz . . . . . . . . . . . . 75
2.4.2 Caracterización de matrices invertibles . . . . . . . . . . 80
2.5 Proyecto: Generalización del algoritmo . . . . . . . . . . . . . . 82
2.6 ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

3 Subespacios vectoriales de Rn y transformaciones lineales 83


3.1 Subespacios vectoriales y sistemas generadores . . . . . . . . . 84
3.1.1 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . 84
3.1.2 Subconjuntos de Rn generados por k vectores . . . . . . 86
3.1.3 Conjuntos generadores para Rn . . . . . . . . . . . . . . 94
3.2 Bases, dimensiones y coordenadas de un subespacio. Teorema de
la base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2.1 Base y dimensión para Nul(A). . . . . . . . . . . . . . . 103
3.2.2 Base y dimensión para Col(A). . . . . . . . . . . . . . . 105
3.2.3 Base y dimensión para Fil(A). . . . . . . . . . . . . . . 106
3.3 Teorema de la Base y del Conjunto generador, Teorema del Ran-
go, y Caracterizaciones para matrices invertibles . . . . . . . . 108
3.3.1 Teorema de la base y del conjunto generador . . . . . . 108
3.3.2 Teorema del rango . . . . . . . . . . . . . . . . . . . . . 109

i
ii Índice general

3.3.3 Más caracterizaciones de matrices invertibles . . . . . . 110


3.4 Interpretación geométrica de un sistema de ecuaciones lineales y
de su conjunto solución . . . . . . . . . . . . . . . . . . . . . . 111
3.4.1 Interpretación geométrica de las soluciones de A~x = ~0 y
A~x = ~b . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.4.2 Interpretación geométrica de un sistema de ecuaciones
lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.4.3 Cómo representar una recta en R3 . . . . . . . . . . . . 116
3.4.4 Caso general . . . . . . . . . . . . . . . . . . . . . . . . 117
3.5 Transformaciones lineales y matriciales . . . . . . . . . . . . . . 122
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.6 Matriz de una transformación lineal . . . . . . . . . . . . . . . 125
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.7 Algunos ejemplos de transformaciones lineales . . . . . . . . . . 129
3.8 Rango y núcleo de una transformación uno a uno y sobreyectiva 131
3.9 Composición de transformaciones y transformaciones invertibles 134
3.10 Más caracterizaciones de A, matriz invertible . . . . . . . . . . 136

4 Ortogonalidad y Mı́nimos Cuadrados 137


4.1 El complemento ortogonal H ⊥ de un subespacio vectorial H ≤ Rn 137
4.2 Conjuntos y bases ortogonales . . . . . . . . . . . . . . . . . . . 141
4.3 Proyecciones ortogonales y el proceso de Gram-Schmidt . . . . 146
4.3.1 Proyección ortogonal de ~b ∈ Rn sobre H ≤ Rn . . . . . . 146
4.3.2 El proceso de Gram-Schmidt . . . . . . . . . . . . . . . 149
4.4 El problema de mı́nimos cuadrados . . . . . . . . . . . . . . . . 152
4.5 Matrices ortogonales y transformaciones lineales . . . . . . . . 158

5 Determinantes 161
5.1 Determinante de una matriz cuadrada . . . . . . . . . . . . . . 161
5.1.1 Definición matemática . . . . . . . . . . . . . . . . . . . 162
5.2 Matrices invertibles y la Regla de Cramer . . . . . . . . . . . . 170
5.3 Interpretación geométrica del determinante . . . . . . . . . . . 172

6 Valores propios y vectores propios 175


6.1 Valores propios, vectores propios y el polinomio caracterı́stico de
una matriz cuadrada A . . . . . . . . . . . . . . . . . . . . . . 175
6.1.1 Cálculo de los vectores propios de An×n . . . . . . . . . 178
6.2 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
6.3 Vectores propios y transformaciones . . . . . . . . . . . . . . . 190

Índice alfabético 191


Introducción
El primer capı́tulo, Vectores y Matrices, consiste en un repaso sobre la es-
tructura algebraica y las operaciones definidas sobre vectores y sobre matrices.
Estos conceptos fundamentales son los pilares del álgebra lineal, y será necesa-
rio tener un buen conocimiento de los mismos. En este capı́tulo se trabaja con
el concepto de combinación lineal de vectores, independencia lineal, operacio-
nes entre vectores y matrices, y las propiedades generales de las matrices. En el
segundo capı́tulo, Sistemas de Ecuaciones Lineales, se explica la interpre-
tación tanto geométrica como vectorial de un sistema de ecuaciones lineales,
y cómo se puede resolver éste mediante el método de eliminación de Gauss.
Relacionaremos los sistemas de ecuaciones lineales con la multiplicación entre
matrices y vectores. En el tercer capı́tulo, El espacio Vectorial Rn , se crea el
puente entre matrices y espacios vectoriales, mediante la resolución de sistemas
de ecuaciones lineales.
Estos tres primeros capı́tulos son los pilares fundamentales de este curso, y sin
un buen conocimiento de ellos será imposible avanzar en el resto de contenidos
del mismo. El álgebra lineal interesante y divertida, empieza a partir del cuarto
capı́tulo, y por eso es importante no sólo adquirir un buen conocimiento de estos
tres primeros capı́tulos, sino también avanzar rápido para poder llegar cuanto
antes a los siguientes.
ESCRIBIR QUÉ SE HACE EN EL RESTO DE CAPÍTULOS
NOTACIÓN QUE SE USA ∼, ∈, ∈, / ~v , λ,

1
1 Vectores y matrices con
coeficientes en R
Este capı́tulo no es más que un breve repaso a conceptos que ya se deberı́an
conocer, como son los vectores en Rn y las matrices en R. Para lectores que ya
tengan un conocimiento previo y un manejo hábil de vectores, se recomienda
revisar únicamente la sección 1.1.3 de este capı́tulo, y para aquellos que tengan
un conocimiento previo del uso de matrices, se recomienda saltarse la lectura
de la sección 1.2.1.

1.1. Escalares, y Vectores en Rn


En esta sección vamos a definir a qué llamaremos escalar, y a qué vector. Los
vectores se introducirán de forma inductiva, esto es, primero haremos un repaso
conciso sobre vectores en R2 (el plano) para después introducir los vectores en
R3 (el espacio), y de esta forma lograr una generalización a vectores en Rn ,
donde n ∈ N.

Definición 1.1.1 A los números reales, esto es, a los elementos de la recta
real R se les llamarán escalares y se denotarán con letras del alfabeto griego:
λ, µ, ν, . . . ∈ R.

Gráficamente. El conjunto R es una lı́nea horizontal con el 0 de los números


reales en la mitad. A la izquierda del mismo se sitúan los números negativos,
y a la derecha los positivos.

Figura 1.1: El conjunto R de los números reales o escalares.

Definición 1.1.2 Sea n = 2, 3, 4, . . . y Rn = R× .(n)


. . ×R, el producto carte-
siano de n veces R, esto es, el conjunto formado por n-tuplas ordenadas de
números reales (o escalares) puestos en columna (o en fila).

Rn ≡ R × . . . × R
 
≡ x1 . . . x n : x1 , . . . , x n ∈ R
  
 x1
 

 .. 
=  .  : x1 , . . . , x n ∈ R .
 
xn
 

3
4 Capı́tulo 1. Vectores y matrices con coeficientes en R

Los elementos de Rn se llaman vectores en Rn y se dice que tienen dimensión


n. Si ~v ∈ Rn , éste está determinado por n escalares v1 , . . . , vn ∈ R:
 
v1
~v =  ...  ∈ Rn ,
 

vn

donde v1 , . . . , vn son las componentes del vector ~v . Además, dos vectores son
iguales si lo son componente a componente.

En este documento, los vectores se van a denotar por una letra del alfabeto
latino con una flecha encima: ~a, ~b, ~v , w,
~ ~x, . . .. Por tanto, dicho de otra manera,
un vector ~v ∈ Rn es una serie ordenada de n números reales o escalares puestos
en fila o en columna. Si están puestos en fila se llamará vector fila, y si están
en columna, vector columna:

Vector Fila ~ = w1
w w2 ... wn donde w1 , . . . , wn ∈ R.
 
v1
 v2 
~v =  .  ∈ Rn donde v1 , . . . , vn ∈ R.
 
Vector Columna
 .. 
vn

Un vector en Rn no se puede graficar, ya que el ser humano sólo percibe


hasta 3 dimensiones. Es por eso que, para entender mejor qué es un vector, se
va a trabajar a continuación los casos n = 2, 3, esto es, el plano y el espacio.

Vectores en el plano R2

Definición 1.1.3 El conjunto R2 se define como el producto cartesiano de R


consigo mismo, esto es:
  
2 x
R ≡ R × R = {(x, y) : x, y ∈ R} = : x, y ∈ R .
y

Los elementos de R2 se llaman vectores en R2 y se dice que tienen dimensión


2. Si ~v ∈ R2 , éste está determinado por dos escalares v1 , v2 ∈ R:
 
v
~v = 1 ∈ R2 ,
v2

donde v1 , v2 son las componentes del vector ~v .

Gráficamente. El conjunto R2 = R×R son dos rectas reales puestas de forma


perpendicular, y con punto deintersección
 el cero de ambas. A este punto de
0
intersección con componentes se le conoce como origen y se denota por ~0.
0
1.1. Escalares, y Vectores en Rn 5

Figura 1.2: El conjunto R2 , el vector ~0 y un vector cualquiera ~v ∈ R2 cuyas


componentes son escalares positivos.

Obsérvese que ~v1 y ~v2 no son las componentes de un vector, sino que son dos
vectores con componentes v11 , v12 y v21 , v22 respectivamente:
   
v v
~v1 = 11 y ~v2 = 21 .
v12 v22

Ejemplo 1.1.1 Dibuje los siguientes vectores en R2 :


       
3 1 −4 −2
w
~= ; ~v = ; ~u = ; ~z =
2 −2 −4 4

-4 -3 -2 2 3 4
-1

-2

-3

-4

Figura 1.3: Ejemplo de vectores en R2 .

Dualidad punto/vector. Normalmente cuando se trabaja en R2 , los elementos


de este conjunto se llaman puntos o pares coordenados, y se denotan por P =
6 Capı́tulo 1. Vectores y matrices con coeficientes en R

(x, y) ó P (x, y). En este capı́tulo, en cambio, llamamos a los elementos de R2


vectores, y no puntos. Un punto sólo determina un sitio o emplazamiento en
el plano de la figura 1.2. Un vector, en cambio, determina una dirección, una
longitud y un sentido en R2 . Esta forma de ver a los elementos de R2 como
vectores y no como puntos, junto con la suma de vectores y la multiplicación
escalar (véase sección ??) otorgan a R2 estructura de espacio vectorial, como
se verá en el capı́tulo 3. Además, al añadir el producto punto (véase sección
1.1.4) será posible definir la longitud de un vector y el concepto de vectores
perpendiculares, pudiendo de esa manera estudiar el concepto de ortogonalidad
en un espacio vectorial, como se verá en el capı́tulo 4.
 
v
¿Cómo diferenciar un vector ~v = 1 de R2 de un punto cartesiano P (x, y)
v2
en el plano? En realidad, uno puedo hacer una identificación uno a uno entre el
conjunto de puntos y el conjunto de vectores en R2 , ya que cada punto P (x, y)
en R2 se puede identificar con el vector ~v que naceenel origen (0, 0) y termina
x
en el punto P , y cuyas componentes serán ~v = ; y viceversa, un vector
  y
v1
~v = se puede identificar de forma natural con el punto P (v1 , v2 ) situado
v2
exactamente en el final del vector al dibujar éste con punto inicial el origen en
R2 . El vector ~0 es el único vector que no indica ninguna dirección ni sentido y
tiene longitud cero, y se identifica trivialmente con el punto (0, 0).

Ejemplo 1.1.2 Identifique en la Figura 1.1.1 cuáles son los puntos equivalentes
a cada vector dado.

Es importante tener en cuenta que los vectores no necesariamente salen del


origen ~0, podrı́an partir de cualquier otro punto en el plano. Por eso, a la hora
de encontrar las componentes de un vector, o para dibujarlo, sólo se necesita
saber cuánto vale la unidad, y en qué dirección están los ejes de R2 .

Por ejemplo, suponiendo que la unidad viene dada por una longitud
  fija como
2
se muestra en la figura 1.4, entonces para dibujar el vector ~v = , basta con
1
decidir el punto de origen de donde va a salir el vector (que podrı́a ser cualquier
punto sobre el plano), moverse dos unidades a la derecha y una hacia arriba
(lı́nea negra en la figura 1.4) o bien una unidad hacia arriba y dos a la derecha
(lı́nea azul en la figura 1.4). Al unir el punto inicial con el punto final y poner
una flecha en la punta, tendremos el vector deseado en R2 , con su dirección
determinada por el segmento de recta del vector, el sentido por la flecha y la
longitud por el teorema de Pitágoras (véase sección 1.1.4).
1.1. Escalares, y Vectores en Rn 7

1
1 1
1

Figura 1.4: Mientras que un punto P se dibuja usando como referencia el ori-
gen, un vector ~v puede dibujarse usando como referencia cualquier
punto.

En realidad, un punto siempre representa una posición, un lugar, y por eso


es necesario especificar con respecto a qué otro lugar se determina, esto es,
es necesario un punto de referencia, al que se le conoce como el origen. Un
vector, en cambio, representa un sentido y una dirección, por lo que puede par-
tir de cualquier lugar y no necesita un punto de referencia para determinarse.
Además, una vez introducido el producto punto (véase sección 1.1.4) será posi-
ble otorgarle una magnitud, por lo que además se le podrá asociar a su sentido
y dirección un escalar que determinará su longitud.

Vectores en el espacio R3

Definición 1.1.4 El conjunto R3 se define como el producto cartesiano de R2


y R, esto es:

R3 ≡ R2 × R = R × R × R = {(x, y, z) : x, y, z ∈ R}.

Los elementos de R3 se llaman vectores en R3 y se dice que tienen dimensión


3. Si ~v ∈ R3 , éste está determinado por tres escalares v1 , v2 , v3 ∈ R:
 
v1
~v = v2  ∈ R3 ,
v3

donde v1 , v2 , v3 son las componentes del vector ~v .

Gráficamente. Existen varias formas de graficar R3 . Siempre será tres rectas


reales puestas en perpendicular dos a dos, con el punto de intersección el cero
de cada una de las rectas, pero dependiendo de cómo se nombre a cada recta,
R3 tendrá gráficamente una forma u otra. A estas tres rectas se les llaman el
eje x, el eje y y el eje z, y la componente v1 del vector ~v corresponde al eje x,
la componente v2 al eje y y componente v3 al eje z.
8 Capı́tulo 1. Vectores y matrices con coeficientes en R

1 1 2 3
2
3

Figura 1.5: El conjunto R3 con sus ejes x, y y z.

Otro ejemplo para graficar R3 con un ordenamiento de los tres ejes distinto
podrı́a ser el siguiente.

1 1 2 3
2
3

Figura 1.6: El conjunto R3 con sus ejes x, y y z en un orden distinto al pro-


porcionado en la figura 1.5.

En el primer caso el eje z representa la altura, y en el segundo, en cambio,


la profundidas. Obviamente, existen 3! = 6 formas de dibujar R3 dependiendo
del orden de los ejes escogido. Para dibujar un vector en R3 y siguiendo la idea
de cómo dibujar un vector en R2 , es muy útil dibujar el paralelepı́pedo del cuál
el vector es la diagonal. Una vez dibujado el paralelepı́pedo,
  recuérdese que
0
el vector es aquel que tiene como punto inicial ~0 = 0 y final el extremo
0
opuesto superior del paralelepı́pedo.  
1
Por ejemplo, para dibujar el vector ~v = 2, como acabamos de argumentar,
2
es necesario primero fijar los ejes de coordenadas, ya que como se ha indicado
existen varias formas de dibujar a R3 según cómo nombremos a los ejes de
coordenadas x, y, z (veánse figuras 1.5 y 1.6). Una vez fijado los ejes, para
dibujar el vector se toma un punto cualquiera en el espacio R3 . Una vez elegido
el punto de salida del vector, hay varias maneras de moverse para encontrar el
extremo final del mismo. Uno puede moverse primero en el eje x una unidad
al frente, dos en el eje y hacia la derecha y dos en el eje z hacia arriba (lı́nea
verde en la figura 1.7), o bien puede moverse primeramente dos unidades en el
eje y, dos en el z y uno en el x (lı́nea negra en la figura 1.7), etc. Cuando se
realizan todas las combinaciones posibles para llegar desde el extremo inicial
1.1. Escalares, y Vectores en Rn 9

al final, se obtiene el paralelepı́pedo del cual el vector es la diagonal (lı́nea roja


en la figura 1.7).

1
1

1
1 1

Figura 1.7: El vector ~v sin eje de coordenadas.


 
2
Ejercicio 1.1 Dibuje el vector ~v = 1.
3
Si usamos los ejes de coordenadas como en la figura 1.5, el vector se dibuja
de la siguiente manera:

1 1 2

Si en cambio se usan los ejes como en la figura 1.6, entonces se obtiene que:

1 1 2

2
3

Obsérvese que en ambos casos se obtiene el mismo vector, ya que para ir del
primer vector dibujado en el ejercicio al segundo, se debe primero rotar toda
la figura 90º alrededor del eje x en el sentido contrario a las agujas del reloj y
luego 90º alrededor del eje y en el sentido contrario a las agujas del reloj.

Por último, es importante recalcar que, ası́ como en R2 , en R3 también es


posible hablar sobre una dualidad punto/vector, y en general esta dualidad se
puede extender a vectores en Rn .
A continuación se realiza un repaso sobre las diferentes operaciones posibles
entre vectores, y también entre vectores y escalares, a saber: suma, multiplica-
ción escalar y producto punto.
10 Capı́tulo 1. Vectores y matrices con coeficientes en R

1.1.1. Suma algebraica y geométrica de vectores


Para sumar dos vectores, estos tienen que tener el mismo número de compo-
nentes, esto es, tienen que estar en el mismo conjunto Rn .

~ ∈ Rn . Entonces, el vector ~v + w
Definición 1.1.5 Sean ~v , w ~ ∈ Rn que es la
suma algebraica de las vectores ~v y w~ se define como:
     
v1 w1 v1 + w1
~ =  ...  +  ...  ≡ 
~v + w ..
 ∈R .
n
     
.
vn wn vn + wn
| {z }
otro vector en Rn

Esto es, las componentes del vector ~v + w


~ es el resultado de la suma de las
componentes de los vectores ~v y w.
~

Definición 1.1.6 La suma geométrica de dos vectores en Rn es el vector re-


sultante después de poner un vector en el extremo del otro, y unir el inicio del
primero con el final del segundo.
   
2 3
Ejemplo 1.1.3 Sean ~v = y w
~ = . Entonces, la suma geométrica
5 −1
de estos dos vectores es:

1 1 1 1 1 1

Figura 1.8: Suma geométrica de vectores en R2 .

Si calcula las componentes del vector ~v + w ~ en la suma geométrica de la


figura 1.8 verá que el resultado es el mismo que si hacemos la suma algebraica
de estos dos vectores, esto es:
   
2+3 5
~v + w
~= = .
5−1 4

No es difı́cil entender que estas dos operaciones, en realidad, son la misma.


Obsérvese que la suma de las componentes en el eje x es el movimiento que
se está haciendo sobre el eje x para conseguir la parte geométrica de la suma;
equivalentemene en el eje y.

Obviamente el vector ~0 es el elemento neutro en la suma de vectores, ya que


~v + ~0 = ~v . Además, existe el elemento opuesto a ~v ∈ R para cualquier vector,
esto es, siempre existe un vector w ~ ~v = ~0.
~ ~v para cada ~v de tal forma que ~v + w
1.1. Escalares, y Vectores en Rn 11

Definición 1.1.7 (El vector opuesto a ~v ) Sea ~v un vector en Rn . Enton-


ces, se define el opuesto de ~v , que se denota por −~v , como aquel vector que
verifica que
~v + (−~v ) = ~0

Geométricamente. Es un vector que al sumárselo a ~v (al ponerlo en la punta


de ~v ) nos da el vector cero. Por tanto, necesariamente el vector −~v tiene 
misma
v1
dirección y longitud de ~v , pero sentido contrario. De ahı́ que si ~v =  ... ,
 

vn
 
−v1
entonces por definición −~v ≡  ... .
 

−vn

Proposición 1.1.1 (Propiedades de la suma vectorial) Sean ~u, ~v , w ~ ∈ Rn


y λ, µ ∈ R. La operación suma de vectores verifica las siguientes propiedades:

1. Es conmmutativa: ~u + ~v = ~v + ~u.

2. Es asociativa: (~u + ~v ) + w
~ = ~u + (~v + w).
~

3. Existe el elemento neutro: ~u + ~0 = ~0 + ~u = ~u.

4. Existe el elemento inverso para un vector ~u cualquiera: ~u +(−~u) = (−~u)+


~u = ~0.

~ ∈ Rn , se tiene que:
Prueba. Como ~u, ~v , w
     
u1 v1 w1
 ..   .. 
~u =  .  ; ~v =  .  ; ~ =  ...  .
w
 

un vn wn

Entonces:
   
u1 + v1 v1 + u1
1. Se calculan ~u + ~v =  .. ..
 y ~v + ~u =  .
   
. .
un + vn vn + un
Como la operación suma en R para escalares satisface la propiedad con-
mutativa, y las componentes de un vector son escalares, se tiene que
ui + vi = vi + ui , ∀i = 1, . . . , n. Además dos vectores son iguales si lo son
componente a componente. Por tanto se tiene que ~u + ~v = ~v + ~u.
12 Capı́tulo 1. Vectores y matrices con coeficientes en R

2. De una manera muy similar a la anterior, esta propiedad se demuestra


usando la propiedad asociativa de los escalares en R.

3. Las componentes del vector ~0 son todas el elemento neutro 0 para la


suma de R, y por tanto ui + 0 = 0 + ui = 0, ∀i = 1, . . . , n. Como dos
vectores son iguales si lo son componente a componente, se deduce que
~u + ~0 = ~0 + ~u = ~u.
 
−u1
4. Dado que por definición −~u =  ... , para cada i = 1, . . . , n, y el
 

−un
escalar −ui es el elemento inverso a ui , es trivial demostrar que ~u +(−~u) =
~0.

1.1.2. Multiplicación escalar


Definición 1.1.8 Sean λ ∈ R y ~v ∈ Rn . La multiplicación escalar de λ por ~v
es el vector λ~v en Rn definido como:
   
v1 λv1
λ~v = λ  ...  ≡  ...  ∈ Rn .
   

vn λvn

Esto es, para obtener las componentes del vector λ~v ∈ Rn se debe multiplicar
cada componente del vector ~v por el escalar λ.
 
−1
Ejercicio 1.2 (Interpretación geométrica de λ~v ) Sea ~v = . Calcule
2
1 1
y dibuje los vectores 2~v , 2 ~v , (−1)~v , (−2)~v , (− 2 )~v . Interprete el resultado.

Resolver el ejercicio y poner los DIBUJOs.

Conclusiones del ejercicio 1.2

i) Si λ > 1, entonces el vector λ~v es la suma del vector ~v un número λ de


veces:
λ~v = ~v + .(λ)
. . +~v

ii) Si 0 < λ < 1, entonces gráficamente el vector λ~v es la λ-ésima parte del
vector ~v .

iii) Si λ = 0, entonces 0 · ~v = ~0. Obsérvese que: 0 · ~v


|{z} = ~0
|{z}
un vector
multiplicación de un

escalar por un vector


1.1. Escalares, y Vectores en Rn 13

iv) Si λ = −1, entonces (−1) · ~v es el vector opuesto −~v . Esto es, es el vector
~v pero con el sentido cambiado. De nuevo: (−1) · ~v = −~v
| {z } |{z}
un vector
multiplicación de un

escalar por un vector

v) Si −1 < λ < 0, entonces el vector λ~v es la λ-ésima parte del vector ~v pero
en sentido contrario.
vi) Si λ < −1, entonces el vector λ~v es la suma del vector λ veces, pero con
el sentido contrario.
vii) Obsérvese además que cuando multiplicamos por un número negativo (λ <
0):
λ~v = (−|λ|) ~v = (−1)(|λ|~v ) = (−1) · |λ| · ~v ,
| {z } | {z }
Después Primero

le cambiamos dilatamos/contraemos

el sentido el vector |λ| veces


o también:

λ~v = (−|λ|) ~v = ((−1) · |λ|)~v = |λ| · (−1) · ~v .


|{z} | {z }
Después Primero

dilatamos/contraemos le cambiamos

el vector |λ| veces el sentido

Definición 1.1.9 Sea ~v ∈ R. Se dice que el vector λ~v es múltiplo de ~v o


colineal con ~v , con factor de multiplicidad λ.

Ejercicio 1.3 (Interpretación geométrica de λ~v ) Determine que conjun-


to u objeto geométrico conforman todos los vectores múltiplos de un vector
dado ~v . Para ello, puede usar la dualidad punto/vector.
Solución. Obsérvese que, del ejercicio 1.2 se puede deducir rápidamente que
todos los múltiplos de un vector ~v ∈ Rn forman la recta en Rn que pasa por el
origen y tiene dirección ~v .

Proposición 1.1.2 (Propiedades de la multiplicación escalar) Sean ~u ∈


Rn y λ, µ ∈ R. La operación multiplicación escalar de vectores verifica las si-
guientes propiedades:
1. Es asociativa: (λµ)~u = λ(µ~u) = µ(λ~u).
2. Existe el elemento neutro: 1 ~u = ~u.
3. (−1)~u = −~u.
Prueba.
1. Es fácil comprobar que, en los tres vectores (λµ)~u = λ(µ~u) = µ(λ~u), la
i.ésima componente es la misma: λµui , ∀i = 1, . . . , n. Y dos vectores son
iguales si lo son componente a componente.
14 Capı́tulo 1. Vectores y matrices con coeficientes en R

Para las propiedades 2 y 3, la demostración es trivial usando la definición de


multiplicación escalar. Por ejemplo, la propiedad 3 se demuestra de la siguiente
manera:    
(−1)u1 −u1
(−1)~u =  ...  =  ...  = −~u.
   

(−1)un −un


Se acaban de definir dos operaciones para vectores, una es la suma de vec-


tores en Rn , que da como resultado un nuevo vector en Rn , y la otra es la
multiplicación escalar entre λ y un vector en Rn , que también da como resulta-
do un nuevo vector en Rn . Es por ello que se dice que estas dos operaciones son
operaciones cerradas1 en Rn , ya que al hacer cualquiera de las dos operaciones
el resultado sigue estando en Rn . Estas dos operaciones sobre vectores, además,
verifican unas propiedades distributivas:

Proposición 1.1.3 (Propiedades de la suma y la multiplicación escalar)


Sean ~u, ~v ∈ Rn y λ, µ ∈ R. Las operaciones suma de vectores y multiplicación
escalar verifican las siguientes propiedades distributivas:

1. λ(~u + ~v ) = λ~u + λ~v .

2. (λ + µ)~u = λ~u + µ~u

Prueba. Como ~u, ~v ∈ Rn , se tiene que:


   
u1 v1
~u =  ...  ; ~v =  ...  .
   

un vn

Entonces, las propiedades enumeradas se demuestran fácilmente usando la pro-


piedad distributiva de los escalares en R y el hecho de que dos vectores son
iguales si lo son componente a componente. 

Aunque en este caso es trivial demostrar la igualdad 0~u = ~0 por definición de


la multiplicación escalar, y por tanto se podrı́a añadir a la lista de propiedades,
en realidad ésta es una propiedad que se deduce de las anteriores, y que en
espacios vectoriales más generales se debe demostrar de forma general. Es por
ello que se añade aparte del resto, y se comprueba de forma matemáticamente
rigurosa:

Corolario 1.1.1 Sea 0 = 0R el elemento neutro de la suma para los escalares


y sea ~0 = ~0Rn el vector cero, elemento neutro para la suma de los vectores en
Rn . Entonces, se satisface que:

0~u = ~0.
1 Por ejemplo, el producto punto (ver definición sección 1.1.4) no es una operación cerrada
en Rn ya que al operador dos vectores el resultado es un escalar.
1.1. Escalares, y Vectores en Rn 15

Prueba. Es fácil ver que


0~u = (0 + 0)~u.

Usando la segunda propiedad distributiva de la Proposición 1.1.3 se tiene en-


tonces que:
0~u = 0~u + 0~u.

Por la propiedad de existencia del elemento inverso para la suma en la Propo-


sición 1.1.1, aunque no se sepa aún quién es el vector 0~u, sı́ se sabe que existe
su inverso, al que se le denota por −0~u y que satisface que 0~u + (−0~u) = ~0. Por
tanto, si sumamos este elemento en ambos lados de la igualdad, se tiene que:

0~u + (−0~u) = 0~u + 0~u + (−0~u);

~0 = 0~u + ~0.

Y como la suma de cualquier vector con el vector ~0 es ese mismo vector (Pro-
posición 1.1.1), se concluye que:

~0 = 0~u.

1.1.3. Combinación lineal de vectores


Como se acaba de argumentar en la sección anterior, si se suman vectores o se
multiplica un escalar por un vector, se sigue obteniendo un vector. Una forma
más general de hacer operaciones con vectores consiste en hacer combinaciones
lineales. Suponga que se desea sumar un número determinado de vectores.
Antes de sumarlos, mediante la multiplicación escalar es posible modificar el
largo y el sentido de estos vectores. La combinación lineal de vectores consiste en
modificar los vectores mediante una dilatación/contracción/cambio de sentido,
y después sumarlos.
Por ejemplo:

(a) Si sólo se tiene un vector, lo único que se puede hacer es dilatarlo, con-
traerlo y/o cambiarle el sentido. Por tanto, una combinación lineal
de un sólo vector es: λ~v con λ ∈ R, ~v ∈ Rn , esto es, todos los múlti-
plos o vectores colineales a ~v . El conjunto de todos los múltiplos de un
vector forman la recta con dirección ~v que pasa por el origen, como ya
argumentamos (ejercicio 1.3 ).

(b) Si se tienen dos vectores ~v y w,


~ antes de sumarlos se pueden modificar
usando los escalares λ y µ para obtener λ~v y µw, ~ de tal forma que la
combinación lineal de dos vectores es: λ~v + µw ~ con λ, µ ∈ R, ~v , w
~∈
Rn . Este vector resultante está contenido o bien en una recta (si ~v y w ~
son múltiplos) o en el plano formado por los vectores ~v y w.
~
16 Capı́tulo 1. Vectores y matrices con coeficientes en R

Figura 1.9: El vector λ~v + µw


~ si ~v y w
~ no son múltiplos.

(c) De la misma forma, la combinación lineal de tres vectores es: λ~v +µw+ν~
~ u
~ ~u ∈ Rn , etc.
con λ, µ, ν ∈ R, ~v , w,

Figura 1.10: El vector λ~v + µw~ + ν~u, si ~v , w


~ y ~u no son coplanares o colineales,
esto es, si no están en el mismo plano o recta.

En general se tiene que:

Definición 1.1.10 Sea k ∈ R, ~v1 , . . . , ~vk ∈ Rn y λ1 , . . . , λk ∈ R. Se dice que


el vector w
~ definido como

~ ≡ λ1~v1 + λ2~v2 + . . . + λk~vk ∈ Rn


w

es combinación lineal de los vectores ~v1 , . . . , ~vk ∈ Rn con pesos λ1 , . . . , λk ∈ R.

Obsérvese que en la definición anterior el ı́ndice k indica el número de vectores


con los que se está realizando la combinación lineal, y n en cambio indica
a qué conjunto pertenecen los vectores, esto es, la dimensión o número de
componentes de los k vectores. Si k = n, entonces, por ejemplo, se tendrı́an
dos vectores en R2 , tres vectores en R3 , etc. Pero en general se desea tomar un
número arbitrario de k vectores en Rn .

Ejemplo 1.1.4 Sean los vectores


       
3 1 1 0
~ = 2, ~v1 = 1, ~v2 = −1 y ~v3 = 1.
w
4 1 0 1
1.1. Escalares, y Vectores en Rn 17
4

1 1 1 1

1 1 2 1 1 2 1 1 1 1
2 2

Entonces, el vector w
~ es combinación lineal de los vectores ~v1 , ~v2 , ~v3 con pesos
λ1 = 1, λ2 = 2, λ3 = 3, ya que
       
3 1 1 0
2 = 1 + 2 −1 + 3 1 .
4 1 0 1

Ésta es la construcción geométrica de w


~ usando la combinación lineal de arriba:

2 2

1 1
Sobre el plano x=0

1 1 2 1 1 2
2
Sobre el plano
z=0

   
1 1
Ejercicio 1.4 (a) ¿Es el vector combinación lineal de los vectores
  2 2
2
y ?
4

(b) ¿Es el vector ~v1 combinación lineal de los vectores ~v1 y ~v2 ?
   
1 2
(c) Sean los vectores y . ¿Es el vector ~0 combinación lineal de estos
2 4
dos vectores? ¿Podrı́as encontrar más de una combinación lineal?
   
1 1
(d) Sean los vectores y . ¿Es el vector ~0 combinación lineal de estos
2 3
dos vectores? ¿Podrı́as encontrar más de una combinación lineal?

(e) Sean ~v1 , . . . , ~vk vectores en Rn . ¿Es el vector ~0 combinación lineal de


~v1 , . . . , ~vk ?
18 Capı́tulo 1. Vectores y matrices con coeficientes en R

Solución del ejercicio 1.4.


     
1 1 2
(a) Para que el vector sea combinación lineal de los vectores y ,
2 2 4
necesitamos encontrar los pesos λ1 y λ2 de tal forma que el primero se
pueda escribir como combinación de los dos últimos, con pesos λ1 y λ2 ,
esto es, la pregunta es si existen escalares λ1 y λ2 de tal forma que:
     
1 1 2
= λ1 + λ2 .
2 2 4

Obviamente, si tomamos λ1 = 1 y λ2 = 0, se verifica la condición. Aunque


1
también se podrı́a tomar λ1 = 0 y λ2 = . En cualquier caso, sı́ es com-
2
binación lineal de los vectores dados, y existe más de una posibilidad para
los pesos.

(b) Sı́, ya que ~v1 = 1~v1 + 0~v2 .


   
~ 1 2
(c) Sı́, ya que 0 = 0 +0 . Existe más de una forma, ya que ~0 =
    2   4  
1 1 2 1 2
1 − ó ~0 = 2 −1 .
2 2 4 2 4
   
~ 1 1
(d) Sı́, ya que 0 = 0 +0 . En este caso, existe una única forma de
2 3
escribir el vector ~0 como combinación lineal de los vectores dados.
 Si uno

1 1
intenta encontrar λ1 y λ2 para que se verifique que ~0 = λ1 + λ2 ,
2 3
descubre que la única posibilidad es que se verifique que:
(
λ1 + λ2 = 0
2λ1 + 3λ2 = 0.

Pero al resolver este sistema de ecuaciones lineales con incógnitas λ1 , λ2 ,


descubre que la única solución2 es λ1 = λ2 = 0.

(e) Sı́, ya que ~0 = 0~v1 + 0~v2 + . . . + 0~vn−1 + 0~vn .

1.1.4. Producto punto: longitud, distancia y ángulo entre


vectores
Hasta ahora se ha trabajado con el conjunto de todos los vectores de n com-
ponentes, llamado Rn , que junto con la suma de vectores y la multiplicación
escalar forman el conocido como espacio vectorial (Rn , +, ·) de dimensión n
(véase Definición ??). Por tanto se sabe cómo alargar o contraer vectores, y
cómo cambiarlos de sentido (con la multiplicación escalar) y también cómo
2 Si uno hace (el mismo ejercicio para el literal (d) de este mismo ejercicio, el sistema a
λ1 + 2λ2 = 0
resolver es , el cuál tiene infinitas soluciones, a saber: λ1 = −2λ2 .
2λ1 + 4λ2 = 0.
1.1. Escalares, y Vectores en Rn 19

combinar vectores para obtener nuevos en función de los anteriores (combina-


ciones lineales). Cuando a esta estructura algebraica se le añade la operación
producto punto, es posible determinar la longitud de un vector, la distancia
entre dos puntos, el ángulo entre dos vectores y por último se puede definir
la ortogonalidad entre dos vectores. El espacio vectorial (Rn , +, ·) junto con el
producto punto forman el conocido como Espacio Euclideo Rn .
Es importante recalcar que el producto punto también es conocido como el
producto interior o producto escalar entre vectores.

Definición 1.1.11 Sean ~v , w ~ ∈ Rn dos vectores de Rn . Se define el producto


punto, también conocido como producto interior o producto escalar, entre los
vectores ~v , w
~ como:
 
w1
 . 
~ = v1 . . . vn  ..  = v1 w1 + . . . + vn wn .
~v · w
wn
  
2 3
Ejemplo: Si ~v = −5 y w
~ =  2 , entonces
−1 −3
 
3

~ = 2, −5, −1  2  = 6 − 10 + 3 = −1.
~v · w
−3

El producto punto verifica las siguientes propiedades:

Proposición 1.1.4 (Propiedades del producto punto) Sean ~v , w, ~ ~z ∈ Rn


y λ ∈ R. Entonces, se verifican las siguiente propiedades para el producto punto
entre vectores:

(i) Es conmutativa: ~v · w ~ · ~v .
~ =w

~ · ~z = ~v · ~z + w
(ii) Es distributiva para la suma entre vectores: (~v + w) ~ · ~z.

(iii) Es asociativa para la multiplicación escalar: (λ~v ) · w


~ = λ(~v · w)
~ = ~v · (λw).
~

(iv) ~v · ~v ≥ 0.

(v) ~v · ~v = 0 si y sólo si ~v = 0.

Prueba. Las propiedades (i), (ii), (iii) se demuestran fácilmente usando la


definición de producto punto, la suma de vectores y la multiplicación escalar.
Por ejemplo:
~v · w
~ = v1 w1 + . . . + vn wn .
Como cada sumando vi wi para i = 1, . . . , n en la suma son dos escalares
multiplicados, y la multiplicación entre escalares es conmutativa, se tiene que
vi wi = wi vi , y por tanto:

~u · w ~ · ~v .
~ = v1 w1 + . . . + vn wn = w1 v1 + . . . + wn vn = w
20 Capı́tulo 1. Vectores y matrices con coeficientes en R

La propiedad (ii) se demuestra usando que los escalares verifican la propiedad


distributiva (a + b)c = ac + bc para cualesquiera tres escalares a, b, c, y compro-
~ · ~z y ~v · ~z + w
bando que los vectores (~v + w) ~ · ~z tienen las mismas componentes.
Análogamente para (iii), se demuestra usando la propiedad asociativa para los
escalares R y demostrando que los tres vectores (λ~v ) · w ~ , λ(~v · w)
~ y ~v · (λw)
~
tienen las mismas componentes.
2
Para la propiedad (iv), obsérvese que ~v · ~v = (v1 )2 + . . . + (vn ) . Por lo tanto,
~v · ~v es la suma de n escalares vi con i = 1, . . . , n elevados al cuadrado. Dado
que a2 ≥ 0 para a ∈ R, se tiene que ~v · ~v es la suma de n escalares mayores o
iguales a cero. Y la suma de esos n escalares mayores o iguales a cero debe ser
también mayor o igual a cero:

~v · ~v = v1 2 + . . . + vn 2 ≥ 0.

Para la propiedad (v), se desea demostrar que ~v · ~v = 0 ⇐⇒ ~v = 0. Para ello se


deben demostrar las dos implicaciones: tanto que ~v · ~v = 0 implica ~v = 0, como
que ~v = 0 implica ~v · ~v = 0.

Primera implicación: ~v · ~v = 0 =⇒ ~v = 0 .
2
La hipótesis es que ~v · ~v = (v1 )2 + . . . + (vn ) = 0. Obsérvese que (v1 )2 ≥
2
0, . . . , (vn ) ≥ 0. La suma de números positivos o cero sólo puede ser igual
a cero si ellos mismos son cero. Por tanto, (vi )2 = 0 para i = 1, . . . , n. Y el
cuadrado de un escalar es igual a cero sólo si ese escalar es cero. En conclusión
vi = 0 para i = 1, . . . , n y
   
v1 0
~v =  ...  =  ...  .
   

vn 0

Segunda implicación: ~v = 0 =⇒ ~v · ~v = 0 .

Dado que ~v = 0 trivialmente se demuestra que ~v · ~v = ~0 · ~0 = 0. 


De las propiedades anteriores se puede concluir esta propiedad más general:

Corolario 1.1.2 Sean n+1 vectores ~v1 , . . . , ~vn , ~v en Rn , y n escalares λ1 , . . . , λn .


Entonces:

(λ1~v1 + . . . + λn~vn ) · ~v = λ1 (~v1 · ~v ) + . . . + λn (~vn · ~v ) .

Prueba
El vector λ1~v1 + λ2~v2 + . . . + λn~vn se puede ver como la suma de los vectores
λ1~v1 y λ2~v2 + . . . + λn~vn . Por tanto, usando la propiedad distributiva (ii) del
producto punto en la Proposición 1.1.4 para la suma de vectores se tiene que:
   
λ1~v1 + λ2~v2 + . . . + λn~vn  · ~v (ii)
= (λ1~v1 ) · ~v + λ2~v2 + λ3~v3 + . . . + λn~vn  ~v
|{z} | {z } |{z} | {z }
∈Rn ∈Rn ∈Rn ∈Rn
1.1. Escalares, y Vectores en Rn 21

Usando la propiedad 1.1.4 en (λ1~v1 ) · ~v y de nuevo la


 (iii) de la Proposición 

propiedad (ii) en λ2~v2 + λ3~v3 + . . . + λn~vn  ~v se tiene que:


|{z} | {z }
∈Rn ∈Rn

 
(ii),(iii)
(λ1~v1 ) · ~v + λ2~v2 + λ3~v3 + . . . + λn~vn  ~v =
|{z} | {z }
∈Rn ∈Rn
λ1 (~v1 · ~v ) + (λ2~v2 ) · ~v + (λ3~v3 + . . . + λn~vn ) · ~v .

Siguiendo el mismo proceso, se tiene que:

(ii),(iii) (ii),(iii)
λ1 (~v1 · ~v ) + (λ2~v2 ) · ~v + (λ3~v3 + . . . + λn~vn ) · ~v = ... =

= λ1 (~v1 · ~v ) + λ2 (~v2 · ~v ) + . . . + λn (~vn · ~v ) .




Longitud de un vector
Para definir la longitud de un vector ~v ∈ Rn usando el producto punto,
primero se conseguirá la longitud para un vector en R2 , luego para un vector
en R3 , y después se generalizará para vectores en Rn . Por último, se introduce
la noción de vector unitario.

Longitud de un vector en R2 Sea ~v ∈ R2 :


DIBUJO
Está claro que la longitud del vector ~v se puede definir como la distancia
entre el inicio del vector ~v y el final del mismo. Usando el teorema de Pitágoras
se tiene por tanto que:

Longitud (~v ) = hipotenusa del triángulo rectángulo del DIBUJO


q
2 2
= (v1 ) + (v2 )

Longitud de un vector en R3 . Sea ahora ~v ∈ R3 :


DIBUJO
Si la longitud de ~v es, de nuevo, el largo de la flecha que se refiere a ~v en el
DIBUJO, entonces por el teorema de Pitágoras:
DIBUJO √
Longitud (~v ) = v3 2 + d2 . Pero se desconoce el valor de d. Obsérvese que
esté valor se puede obtener usando de nuevo el teorema de Pitágoras sobre un
triángulo rectángulo que en este caso se encuentra en el plano z = 0:
DIBUJO
Ası́ que d2 = v1 2 + v2 2 y
p
Longitud (~v ) = v1 2 + v2 2 + v3 2
22 Capı́tulo 1. Vectores y matrices con coeficientes en R

Generalización de la longitud a un vector en Rn . Vistos los resultados ob-


tenidos para n = 2, 3 aunque un ser humano no puede hacer la misma cuenta
para n > 3 ya que máximo es capaz de percibir tres dimensiones, si puede
axiomatizar que si funciona para n = 2, 3, deberı́a funcionar para cualquier
dimensión. Por tanto, se generaliza la longitud de un vector en dimensión n de
la siguiente manera:

Definición 1.1.12 Sea ~v ∈ Rn . Sedefine


 la longitud, también conocida como
v1
 v2 
norma o magnitud, del vector ~v =  .  como:
 
 .. 
vn
q
2 2 2

kvk = (v1 ) + (v2 ) + . . . + (vn ) = ~v · ~v .

Proposición 1.1.5 (Propiedades de la norma de un vector) La longitud,


norma o magnitud de un vector verifica las siguientes propiedades:

(i) kvk ≥ 0.

(ii) k~v k = 0 ⇐⇒ ~v = ~0.

(iii) kλ~v k = |λ|k~v k para λ ∈ R y ~v ∈ Rn .

Prueba
Las dos primeras propiedades se deducen de las propiedades del producto
punto
  dadas en Proposición
 1.1.4. Para demostrar la propiedad (iii): si ~v =
v1 λv1
 ..   . 
 .  entonces λ~v =  .. . Por tanto:
vn λvn
p p √ √
kλ~v k = λ2 v1 2 + . . . + λ2 vn 2 = λ2 (v1 2 + . . . + vn 2 ) = λ2 · ~v · ~v = |λ|k~v k,

ya que por definición a2 = |a| para a ∈ R.


Vectores unitarios y normalización de un vector.


Esta noción de longitud de un vector permite hablar sobre los vectores de
longitud uno:

Definición 1.1.13 Sea ~u ∈ Rn . Se dice que ~u es un vector unitario si verifica


que k~uk = 1.

Se usará la notación de ~u exclusivamente cuando el vector es especı́ficamente


unitario.

Ejemplo
p 1.1.5 En R2 , un vector ~u es unitario si sus componentes verifican
que (u1 )2 + (u2 )2 = 1. Por tanto, usando la dualidad punto/vector explicada
1.1. Escalares, y Vectores en Rn 23

en la página 5, se deduce que todos los vectores unitarios en R2 están en la


circunferencia de radio 1 centrada en (0, 0).
DIBUJO
Si un vector no es unitario y además es diferente del vector ~0, a partir de él
siempre podremos conseguir el vector unitario que está en la misma dirección
de ~v y con el mismo sentido:
DIBUJO
Existen dos vectores unitarios que tienen la misma dirección. En este caso,
tendrán sentido opuesto.
En R3 y razonando análogamente, los vectores unitarios están sobre la esfera
de radio 1 centrada en el origen.

Sea un vector ~v ∈ Rn − {~0}. Esto es, ~v 6= ~0. ¿Cómo se podrı́a conseguir ese
vector unitario ~u que está en la misma dirección de ~v y con mismo sentido?
Obviamente, este vector es múltiplo de ~v , por lo que ~u = λ~v , ası́ que encontrar
~u es equivalente a encontrar λ. Además, se sabe que, al ser unitario, se verifica
que k~uk = 1 y como ~u y ~v tienen el mismo sentido obligatoriamente λ > 0. Por
tanto, kλ~v k = 1 con λ > 0. Para encontrar λ se despeja en la ecuación:

1
kλ~v k = 1 =⇒ |λ|k~v k = 1 =⇒ |λ| = .
k~v k

Obsérvese que dado que la norma siempre es mayor o igual a cero, se tiene
que k~v1k ≥ 0. Ası́, λ = k~v1k ≥ 0 y se obtiene que el vector unitario ~u = k~v1k ~v
está en la misma dirección y tiene el mismo sentido de ~v , y el vector unitario
−~u = − k~v1k ~v en cambio está en la misma dirección pero tiene sentido contrario
a ~v .
DIBUJO
A continuación se formaliza esta definición:

Definición 1.1.14 Sea ~v ∈ Rn −{~0} un vector no unitario. Entonces, al vector


~u = k~v1k ~v se le conoce como la normalización de ~v . El vector ~u es el vector
unitario que está en la misma dirección y sentido de ~v , y es único.

Obviamente, el vector ~0 no se puede normalizar, dado que no tiene ni dirección


ni sentido.

 
1
−2 4

Ejemplo 1.1.6 Si ~v =   2  ∈ R entonces k~v k = 1 + 4 + 4 = 3 no es un

0
 
1/3
−2/3
vector unitario, y su normalización es ~u = 
 2/3 .

0
DIBUJO
24 Capı́tulo 1. Vectores y matrices con coeficientes en R

Distancia entre dos puntos


−→ −→
Sean P, Q dos puntos en Rn y sean ~v = 0P y w ~ = 0Q los vectores duales que
se consiguen uniendo el origen con los puntos correspondientes:
DIBUJO
La distancia entre los puntos P y Q corresponde a la longitud del vector que
une los puntos P y Q, que es exactamente la longitud del vector ~v − w:
~
DIBUJO
Por tanto, se puede definir tanto la distancia entre dos puntos como la dis-
tancia entre dos vectores de la siguiente manera:
−→ −→
Definición 1.1.15 Sean P, Q dos puntos en Rn y ~v = 0P y w ~ = 0Q los
vectores duales a P, Q respectivamente. Se define la distancia entre P y Q, o
equivalentemente la distancia entre ~v y w
~ como:
~ ≡ k~v − wk.
d(P, Q) = d(~v , w) ~

Ángulo entre vectores


~ ∈ Rn . El ángulo entre dos vectores se puede ver cómo el ángulo
Sean ~v , w
formado por estos dos vectores en Rn :
DIBUJO
Si unimos las puntas de los dos vectores ~v y w~ usando el vector ~v − w,
~ entonces
se tiene el siguiente triángulo, que no necesariamente es rectángulo:
DIBUJO
En R2 , la ley de los cosenos dice que si se tiene un triángulo cualquier de
lados a, b y c, el ángulo θ entre los lados a y b verifica que:
LEY DE LOS COSENOS:

DIBUJO
c2 = a2 + b2 − 2ab cos(θ)

Por tanto, si se aplica esta ley al triángulo formado por los vectores ~v , w
~ y
~v − w,
~ dado que a = ||~v ||, b = ||w||
~ y c = ||~v − w||,
~ se tiene que:
~ 2 = ||~v ||2 + ||w||
||~v − w|| ~ 2 − 2||~v ||||w||
~ cos(θ).
~ 2 = (~v − w)
Como ||~v − w|| ~ · (~v − w)
~ = ~v · ~v + w
~ ·w
~ − 2~v · w,
~ sustituyendo este
valor en la igualdad anterior se tiene que
||~v ||2 + ||w||
~ 2 − 2~v · w
~ = ||~v ||2 + ||w||
~ 2 − 2||~v ||||w||
~ cos(θ),
de donde, despejando cos(θ), se tiene que
~v · w~
cos(θ) = .
||~v ||||w||
~
En general:

~ en Rn − {~0} es aquel
Definición 1.1.16 El ángulo θ entre dos vectores ~v y w
que verifica la fórmula:
~v · w~ ~v w
~
cos(θ) = = · .
||~v ||||w||
~ ||~v || ||w||
~
1.1. Escalares, y Vectores en Rn 25

Obsérvese que, como ||~v ||, ||w||


~ ≥ 0, entonces si ~v · w ~ > 0 es porque θ ∈
(−π/2, π/2). Además, si ~v · w~ = 0 entonces cos(θ) = 0 y por tanto θ = ±π/2,
esto es, ~v y w
~ están en posición perpendicular el uno del otro, lo cual permite
introducir la noción de ortogonalidad entre vectores.

Ortogonalidad entre vectores


Como se ha argumentado, por la definición del ángulo entre dos vectores se
~ forman un ángulo de 90◦ , y por tanto los vectores
sabe que los vectores ~v y w
~ y ~v − w
~v , w ~ forman un triángulo rectángulo si y sólo si ~v · w
~ = 0.
DIBUJO
Por tanto:

Definición 1.1.17 Sean ~v , w ~ ∈ Rn . Se dice que ~v y w


~ son ortogonales entre
sı́ si se verifica que ~v · w
~ = 0. Dicha ortogonalidad entre los dos vectores se
denota como ~v ⊥ w. ~

Obsérvese que dado que el vector ~0 verifica que ~0 · ~v = 0, se dice que ~0 es


ortogonal con todo Rn :

~0 · ~v = 0, ∀~v ∈ Rn , por lo que ~0 ⊥ Rn .

Se toma ahora el triángulo formado por los vectores ~v , w


~ y ~v + w.
~
DIBUJO
En este caso, se tiene que:

~ ∈ Rn . Entonces:
Lema 1.1.1 Sean ~v , w
2 2 2
k~v + wk
~ = k~v k + kwk
~ + 2~v · w.
~

Prueba. Es fácil comprobar esta relación:


2
k~v + wk ~ · (~v + w)
~ = (~v + w) ~ · ~v + (~v + w)
~ = (~v + w) ~ ·w
~ = ~v · ~v + w
~ · ~v + ~v · w ~ ·w
~ +w ~
2 2
= k~v k + kwk
~ + 2~v · w
~

~ ∈ Rn . Entonces:
Teorema 1.1.1 Sean ~v , w
2 2 2
k~v + wk
~ = k~v k + kwk
~ ⇐⇒ ~v y w
~ son ortogonales.

Prueba.
Se deduce rápidamente del lema anterior. 
Este último teorema es en realidad el Teorema de Pitágoras para un triángulo
rectángulo en Rn . Es más, es fácil comprobar el siguiente ejercicio.

Ejercicio 1.5 Compruebe que en general ||~v − w||


~ = 6 ||~v + w||
~ encontrando un
ejemplo. Deduzca el siguiente resultado:

||~v − w||
~ = ||~v + w||
~ ⇐⇒ ~v ⊥ w.
~
26 Capı́tulo 1. Vectores y matrices con coeficientes en R

Por completitud se define el producto cruz ~v × w ~ entre dos vectores. Esta


operación sólo es posible realizarla en R3 y da como resultado otro vector en
R3 ortogonal tanto a ~v como a w. ~ Además, la norma de este vector se puede
demostrar que es (sorprendentemente) el área del cuadrilátero formado por los
vectores ~v y w.
~ Esta multiplicación a grandes rasgos tiene la siguiente forma:
 
v2 w 3 − w 2 v3
~ = v3 w1 − v1 w3  .
~v × w
v1 w2 − v2 w1

1.2. Matrices de m × n con coeficientes en R


¿Qué es en realidad una matriz? Una matriz es una manera de ordenar m×n
elementos en filas y columnas, y sirve para almacenar información. Por ejemplo,
si quisieramos guardar la información de la temperatura hoy en cinco horas de-
terminadas del dı́a, podrı́amos usar un vector fila y cada componente del vector
serı́a la temperatura medida en cada hora. Pero si quisieramos guardar la infor-
mación de la temperatura de cuatro dı́as seguidos, en cinco horas determinadas
cada dı́a, entonces usarı́amos una matriz de cuatro filas y cinco columnas. Las
filas corresponden a la información almacenada cada dı́a, y las columnas co-
rresponden a la temperatura tomada a la hora determinada en que se produjo
la medición en cada dı́a.

Definición 1.2.1 Una matriz A de dimensión m×n es una colección de m×n


elementos ordenados en m filas y n columnas de la siguiente manera:
 
a11 a12 a13 . . . a1n
 a21 a22 a23 . . . a2n 
m ≡ # de filas
A= .
 
.. .. .. ..  n ≡ # de columnas
 .. . . . . 
am1 am2 am3 ... amn

El elemento correspondiente a la i-ésima fila y a la j-ésima columna se denota


por aij , donde i = 1, . . . , m y j = 1, . . . , n. Para denotar que una matriz A es
de dimensión m × n se usará la notación Am×n .

Otra forma de representar una matriz de forma general es usando la siguiente


notación:
A = (aij )i = 1, . . . , m
j = 1, . . . , n

De nuevo, el ı́ndice i en aij representa el número de la fila en el que se encuentra


el término aij de la matriz, y el ı́ndice j en cambio representa el número de
columna en el que se encuentra el término aij .
Obsérvese además que un vector columna en Rn es una matriz de dimensión
n × 1, y un vector fila es una matriz de dimensión 1 × n.
 
1 2 3
Ejemplo 1.2.1 Si A = −5 4 7, entonces a23 = 7, a32 = 3 y a21 = −5,
2 3 0
y A es de dimensión 3 × 3, esto es, A = A3×3 .
1.2. Matrices de m × n con coeficientes en R 27

Matrices más conocidas


En este apartado haremos un repaso rápido de las matrices más conocidas
con las que trabajaremos:
 
0 ... 0
(a) La matriz cero: (0)m×n =  ... . . . ...  .
 

0 ... 0 m×n
 
1 0 ... 0 0
0 1 ... 0 0
 
(b) La matriz identidad: In =  ... ... .. ....  .

 . . .
0 0 ... 1 0
0 0 ... 0 1 n×n
(c) Matrices cuadradas: matrices con mismo número de filas y de columnas.
Por ejemplo, la matriz identidad es una matriz cuadrada.
(d) Matrices triangulares superiores: matrices cuadradas con, por debajo de
la diagonal, todas las componentes iguales a cero.
1. Matrices triangulares inferiores: matrices cuadradas con, por encima de
la diagonal, todas las componentes iguales a cero.

Relación entre vectores y matrices


Obsérvese que para una matriz A de dimensión m × n, dado que su expresión
general es  
a11 a12 a13 . . . a1n
 a21 a22 a23 . . . a2n 
Am×n =  . ..  ,
 
.. .. ..
 .. . . . . 
am1 am2 am3 . . . amn
cada una de las columnas de la matriz Am×n corresponde exactamente a un
vector columna en Rm . Estos vectores columna son:
     
a11 a12 a1n
 a21   a22   a2n 
~a1 =  .  ; ~a2 =  .  ; ...; ~an =  . 
     
 ..   ..   .. 
am1 am2 amn
Por tanto, la matriz Am×n se puede ver como n vectores columna ~a1 , . . . , ~an ∈
Rm puestos en fila india. De la misma forma, la matriz Am×n también se
puede ver como m vectores fila a~1 0 , . . . , a~m 0 en Rn puestos en vertical, donde
los vectores a~1 0 , . . . , a~m 0 son:
  
0


 a ~1 = a 11 a12 . . . a 1n
  
a~2 0 = a21 a22 . . . a2n


..
.



  
a~m 0 = a


m1 am2 . . . amn
28 Capı́tulo 1. Vectores y matrices con coeficientes en R

Por tanto, tenemos que:

a~1 0
 
 
a11 . . . a1n  a~2 0 
 .. .. ..  = 
Am×n = . ~a1 . . . ~an =
 
. .   .. 
| {z }  . 
am1 . . . amn n vectores en Rm a~m 0
(tantos como columnas)
| {z }
ordenados horizontalmente m vectores en Rn

(tantos como filas)

ordenados verticalmente

1.2.1. Operaciones con Matrices (álgebra de matrices)


En este apartado se detallen algunas de las operaciones que se pueden realizar
con matrices.

Suma de matrices
Sean dos matrices A, B de dimensión m × n. Esto es:
   
a11 . . . a1n b11 ... b1n
 .. .. .. ;  .. .. .. 
Am×n =  . . .  Bm×n =  . . . 
am1 ... amn bm1 ... bmn

Definición 1.2.2 Sean Am×n , Bm×n matrices de dimensión m × n, como las


definidas anteriormente. Se define la matriz A + B de dimensión m × n como
la matriz:  
a11 + b11 . . . a1n + b1n
A+B ≡
 .. .. .. 
.
. . . 
am1 + bm1 ... amn + bmn m×n

Esto es, las componentes de A + B son el resultado de sumar dos matrices


A = (aij ) y B = (bij ) de la misma dimensión m × n componente a componente.
Obviamente, A y B deben tener la misma dimensión, esto es, el mismo núme-
ro de filas y de columnas, para poder realizar la suma. Obsérvese que esta ope-
ración equivale a sumar los vector columna
 de A con
 los vector columna de B.
Esto es, Si A = a~1 . . . a~n y B = ~b1 . . . ~bn , entonces:


 
A + B = a~1 + ~b1 a~2 + ~b2 ... a~n + ~bn
m×n

vectores columna de A + B.

Equivalentemente, interpretando a las matrices A y B por


 sus0 vectores fila,
0 
 0  0 a~1 + ~
b 1
a~1 b~1  0 ~0 
 ..   .   a~2 + b2 
entonces si A =  .  y B =   ..  resulta que A + B =  .. .
  

a~m 0 0 .
b~m
 
0
a~m 0 + b~m m×n
1.2. Matrices de m × n con coeficientes en R 29

Multiplicación escalar
Definición 1.2.3 Sean λ ∈ R y Am×n una matriz de dimensión m × n. La
multiplicación escalar de un escalar λ por una matriz A es la matriz λA dada
por:    
a11 . . . a1n λa11 . . . λa1n
λA = λ  ... .. ..  ≡  .. .. ..  .

. .   . . . 
am1 ... amn λam1 ... λamn
Esto es, las componentes de λA se definen como la multiplicación entre λ y
cada componente de A.
Ahora vamos a definir cómo multiplicar matrices por vectores columna. Para
definir la multiplicación de una matriz por un vector, existen dos formas: una
es la manera clásica, usando el producto punto entre vectores (véase Definición
1.2.4),y la otra es usando el concepto de combinación lineal de vectores (véase
Caracterización 1.2.5).
Supongamos que tenemos una matriz A de dimensión m × n vista con sus
vectores fila, y un vector columna ~v ∈ Rn de la siguiente forma:
   0  
a11 . . . a1n a~1 v1
 .. . .
Am×n =  . . .. ..  =  ..  ; ~v =  ...  .
    

am1 ... amn a~n 0 m×n


vn n×1

Producto de matriz por vector


Definición 1.2.4 Sean Am×n una matriz de dimensión m × n y ~v ∈ Rn , como
los definidos anteriormente. El producto A~v ∈ Rm se define como:
 
 0  0  a11 v1 + a12 v2 + · · · + a1n vn
a~1 a~1 · ~v
 ..   a21 v1 + a22 v2 + · · · + a2n vn 
 
 .. 
A~v =  .  ~v ≡  .  =  . . . . ∈ Rm .
0
 .. .. .. .. 

a~1 a~n · ~v
am1 v1 + am2 v2 + · · · + amn vn

Esto es, A~v es el vector columna de dimensiones m × 1 cuyas componentes se


consiguen multiplicando cada vector fila de A con el vector ~v .
Si A es de dimensión m × n y queremos calcular A~v , es necesario multiplicar
los vectores fila de A (en Rn ) por otro vector. Por tanto, es necesario que ese
vector ~v tenga el mismo número de componentes que el vector fila a~i 0 ∈ Rn , y
por tanto se concluye que necesariamente ~v ∈ Rn .
Además, cada fila a~i 0 de A se multiplica por el vector ~v , y el resultado co-
rresponde a la componente i-ésima del vector A~v . Esto es, en el resultado de
calcular A~v , cada a~i 0~v es un escalar por lo que hay m escalares (tantos como
filas tiene A) puestos en una sola columna. En conclusión, A~v es una matriz
de m × 1, esto es, un vector columna en Rm . En conclusión, el resultado de A~v
debe ser un vector en Rm .

Am×n • ~vn×1 =w
~ m×1
30 Capı́tulo 1. Vectores y matrices con coeficientes en R

Ejemplo 1.2.2 Una matriz A3×4 no se puede multiplicar con un vector ~v ∈ R3


porque el número de columnas de A no coincide con el número de filas de ~v .
Debe multiplicarse por un vector en R4 : A3×4 · ~v4×1 , y como resultado tenemos
tres filas y 1 columna, un vector columna en R3 .
Veamos ahora una caracterización para A~v , usando combinación lineal de
vectores y los vectores columna de la matriz A. Esta caracterización o forma
de interpretar la multiplicación A~v es muy importante:

Definición 1.2.5 (Caracterización de A~v ) La multiplicación A~v es una com-


binación lineal de los vectores columna de A, con pesos las componentes v1 , . . . , vn
de ~v , esto es:
 
v1
 . 
A~v = a~1 . . . a~n  ..  = v1 a~1 + . . . + ~vn a~n .
vn

Además como los vectores columna de A verifican que a~1 , . . . , a~n ∈ Rm , el


resultado de esta combinación lineal es un vector en Rm .
Prueba. Por la Definición 1.2.4, se sabe que:
 
a11 v1 + a12 v2 + · · · + a1n vn
 a21 v1 + a22 v2 + · · · + a2n vn 
A~v =  .
 
.. .. ..
 ..

. . . 
am1 v1 + am2 v2 + · · · + amn vn

Por tanto,
     
v1 a11 v2 a12 vn a1n
 v1 a21   v2 a22   vn a2n 
A~v =  .  +  .  + ... +  . 
     
 ..   ..   .. 
v1 am1 v2 am2 vn amn
     
a11 a12 a1n
 a21   a22   a2n 
= v1  .  + v2  .  + . . . + vn  . 
     
 ..   ..   .. 
am1 am2 amn

Esta igualdad demuestra que ambas definiciones son equivalentes. 

Obsérvese que también se pueden multiplicar vectores fila con matrices. Para
ello, y observando las dimensiones de cada elemento a multiplicar, uno debe
darse cuenta de que, dado que la matriz A tiene dimensión m × n y un vector
fila tiene dimensiones 1 × m, sólo se puede definir esta operación en la forma
wA.
~ Para obtener las componentes de wA ~ se debe hacer el producto escalar de
w
~ con cada columna de A, dando como resultado un vector fila de dimensión
1 × n. En este caso, se obtiene una combinación lineal de los vectores fila de A
con pesos las componentes de w. ~
1.2. Matrices de m × n con coeficientes en R 31

Producto entre matrices


Definición 1.2.6 Sean Am×n y Bn×k dos matrices. Si ~b1 . . . , ~bk ∈ Rn son
los vectores columna de B, esto es, si {~b1 . . . , ~bk } es el
 conjunto de k vectores
columna en R puestos en fila de tal forma que B = ~b1 . . . ~bk , se define
n

el producto AB de A y B como una matriz de dimensión m × k dada por:


 

AB
|{z} = A~b1 A~b2 ... A~bk 
matriz por matriz matriz por vector matriz por vector matriz por vector

Esto es, las columnas de la matriz AB se obtienen después de hacer el producto


entre la matriz A y las columnas de B.
Si A es de dimensión m×n, para que las multiplicaciones A·~bi tengan sentido es
necesario que los vectores columna de B estén en Rn , por lo que necesariamente
B tiene que tener n filas. Pero no existe ninguna condición para las columnas
de B. Por tanto, analizando las dimensiones, tenemos que para poder hacer la
multiplicación entre dos matrices es absolutamente necesario que el número de
columnas de A sea igual al número de filas de B. Ası́, cada A~bi es un vector en
Rm y la matriz C = AB tiene dimensión m × k:
 

Cm×k = Am×n · Bn×k = A~b1 A~b2 ... A~bk  .


| {z }
k vectores columna en Rm

Además, si escribimos A con sus vectores fila y usamos la definición 1.2.4,


entonces es fácil comprobar que la siguiente definición concuerda con la dada
en Definición 1.2.6:

a~1 0 · ~b1 a~1 0 · ~b2 a~1 0 · ~bk


 
...
a~1 0
 
 a~2 0 · ~b1 a~2 0 · ~b2 ... 0 ~ 
a~2 · br 
 .. 
 
AB =  .  · ~
b1 . . . bk~ = .

.. .. .. 
 .. . . . 
a~m 0 | {z }
| {z } B con sus vectores columna
a~m 0 · ~b1 0 ~
a~m · b2 0 ~
. . . a~m · bk
A con sus vectores fila

Esto es, las componentes de AB se obtienen después de hacer el producto punto


entre las filas de A y las columnas de B.
Dicho de otra manera, si C es la matriz resultante de multiplicar A y B, esto
es, si C = AB y denotamos por cij a las componentes de C, de tal forma que
C = (cij ), entonces:
 
Producto punto de
n
 = a~i 0 · ~bj =
 la i-ésima fila de  X
cij =  aik bkj = ai1 b1j + ai2 b2j + . . . + aik bkj .
 A y la j-ésima 
k=1
columna de B

Es importante recalcar que la matriz C = AB tiene tantas filas como filas tiene
A, y tantas columnas como columnas tiene B:
Cm×k = Am×n · Bn×k .
32 Capı́tulo 1. Vectores y matrices con coeficientes en R

Obsérvese que el producto de matriz por vector es un caso especial del producto
entre matrices, tomando B como una matriz de dimensión n × 1 o de 1 × m.

A~v = Am×n · ~vn×1 para vectores columna,

~v A = ~v1×m · Am×n para vectores fila,


Obsérvese además que para poder multiplicar una matriz por si misma, es
necesario que esta sea cuadrada, ya que el número de filas y de columnas de la
matriz deben coincidir. Como caso particular, se puede definir la multiplicación
de una matriz por si misma de la siguiente manera:

Definición 1.2.7 Sea A una matriz cuadrada. Entonces, se define la n-ésima


potencia de A como:

An ≡A (n .veces)
.. A
 
1 3
Ejemplo 1.2.3 Sea A = . Entonces:
1 −1
  2
32
    
1 3 1 3 4 0 1
A2 = = 6=
1 −1 1 −1 0 4 12 (−1)2

Propiedades de las operaciones


Se enuncian a continuación las propiedades para las operaciones suma de
matrices, multiplicación escalar y el producto entre matrices:

Proposición 1.2.1 Sean A, B, C tres matrices de dimensión m × n, D, E dos


matrices de dimensión n × k, y λ, µ ∈ R. Las operaciones sobre matrices veri-
fican las siguientes propiedades:
Propiedades para la suma de matrices:
1. Existe el elemento neutro: A + (0) = (0) + A = A.
2. Es asociativa: (A + B) + C = A + (B + C).
Propiedades para la multiplicación escalar:
1. Es asociativa: (λµ)A = λ(µA) = µ(λA).
Propiedades para el producto entre matrices:
1. Existe el elemento neutro por la izquierda para una matriz A:
Im A = A.
2. Existe el elemento neutro por la derecha para una matriz A:
AIn = A.
3. A(0)n×k = (0)m×k y (0)k×m A = (0)k×n .
Propiedades distributivas:
1. λ(A + B) = λA + λB.
2. (λ + µ)A = λA + µA.
1.2. Matrices de m × n con coeficientes en R 33

3. A(D + E) = AD + AE.
4. (A + B)D = AD + BD.

Prueba. La prueba de esta proposición se deja al lector. Se debe seguir


la idea de la demostración de las propiedades de la suma y la multiplicación
escalar para vectores, dada en la Proposición 1.1.2. 
Es muy importante observar que aunque hay propiedades que sı́ se satisfacen
para los escalares, no necesariamente se deben satisfacer en las operaciones
con matrices. Por ejemplo, λµ = µλ para λ, µ ∈ R, pero AB 6= BA para
matrices. La mejor manera de demostrar que una afirmación es errónea, es
encontrando un ejemplo donde no se satisfaga. A eso se le llama dar o encontrar
un contraejemplo3 . Veamos algunas propiedades que no se satisfacen para las
operaciones con matrices, y sus contrajemplos:

Proposición 1.2.2 Sean A una matriz de m × n, y B y C dos matrices de


dimensión n × k. Entonces:

1) En general AB 6= BA. Esto es, en el producto de matrices el orden de los


factores para A y B dos matrices cualesquiera a veces sı́ altera al producto.

2) AB = AC no implica que B = C. Esto es, en la igualdad AB = AC no


necesariamente se simplifica la matriz A.

3) Aunque AB = (0) no necesariamente se verifica que, o bien A = (0) o bien


B = (0).

Prueba.
   
0 1 0 0
1) Contraejemplo: Si tomamos las matrices A = y B = ,
0 0 1 0
resulta que:
         
0 1 0 0 1 0 0 0 0 1 0 0
AB = = 6= BA = =
0 0 1 0 0 0 1 0 0 0 0 1

2) Contraejemplo: sea A = (0). Tomando B y C dos matrices cualesquiera pero


distintas, resulta que AB = AC pero B 6= C.

3) Contraejemplo: se deja como ejercicio para el lector.


3 Para demostrar que una afirmación es cierta, es necesario que se satisfaga siempre para
todos los casos posibles. Por ejemplo, si digo que en un aula todas las personas presentes
son ecuatorianas, es necesario comprobar uno por uno que realmente son ecuatorianas.
Pero si lo que se desea es demostrar que esa afirmación es falsa, esto es, que no todos los
presentes son ecuatorianos, bastarı́a con encontrar una persona que no lo sea. Esa persona
serı́a el contraejemplo, y ya no serı́a necesario comprobar las demás personas.
34 Capı́tulo 1. Vectores y matrices con coeficientes en R

1.2.2. Transpuesta de una matriz: AT


Para terminar con este capı́tulo se presenta una operación más que se puede
hacer a una matriz de dimensión arbitraria. Ésta operación consiste en crear
una nueva matriz a partir de la anterior, a la que se le conocerá como matriz
transpuesta.

Definición 1.2.8 Si A es una matriz de m × n, se define AT la transpuesta


de A como aquella matriz que tiene como columnas las filas de A.
 
1 5
   2 6 
1 2 3 4  
Ejemplo 1.2.4 Si A = entonces AT =  3 7 .
5 6 7 8  
 4
|{z} 8
|{z}

1ra fila de A 2da fila de A

Obviamente si A es de dimensión m × n, entonces AT es de dimensión n × m.


Además, no sólo las columnas de AT son las filas de A, sino que también las
filas de AT son las columnas de A. A continuación se numeran las propiedades
de las matrices transpuestas.

Proposición 1.2.3 Sean A y B dos matrices de dimensión m × n, C una


matriz de dimensión n × r y λ ∈ R. Entonces:
(i) (AT )T = A
T
(ii) (λA) = λAT
T
(iii) (A + B) = AT + B T
T
(iv) (AC) = C T AT
Prueba. Obsérvese que para demostrar que dos matrices son iguales sólo
es necesario demostrar que sus columnas (o sus filas, o sus componentes) son
iguales. La demostración de las propiedades (i), (ii) y (iii) se dejan al lector.
Para demostrar la propiedad (iv) se va a ver que la componente dij de la matriz
D = (AC)T es igual a la componente fij de la matriz F = C T AT . Pero antes
se hará un estudio de las dimensiones de las dos matrices para comprobar que
efectivamente tienen la misma dimensión.
Dado que las dimensiones de A y C son: Am×n , Cn×r , se tiene que (AC)m×r
T
y (AC) r×m . Por otro lado: (AT )n×m , (C T )r×n y por tanto (C T AT )r×m . En
conclusión, ambas matrices tienen la misma dimensión.
Sea i = 1, . . . , r y sea j = 1, . . . , m cualquiera. Obsérvese ahora que, dado
que D = (AC)T ,la componente dij de D es la componente dji de la matriz AC.
Por tanto, dij se consigue haciendo el producto punto de la j.ésima fila de A y
la i.ésima columna de C. Por otro lado, como F = C T AT , se tiene que fij se
calcula con el producto punto de la i.ésima fila de C T y la j.ésima fila de AT .
Ası́, fij es el producto punto entre la i.ésima columna de C y la j.ésima fila de
A.
Por tanto, dij = fij para todo i = 1, . . . , r, j = 1, . . . , m, y en conclusión
T
(AC) = C T AT . 
1.2. Matrices de m × n con coeficientes en R 35

Ejercicio 1.6 Escribe el producto punto entre vectores como una multiplica-
ción de matrices.
Solución. Sean ~v , w~ ∈ Rn dos vectores de Rn . Se define el producto punto,
también conocido como producto interior o producto escalar, entre los vectores
~v , w
~ como:
 
w1
~ = v1 . . . vn  ...  = v1 w1 + . . . + vn wn ,
~ = ~v T · w

~v · w
 

wn

donde ~v T es la traspuesta de ~v visto como una matriz de dimensión n × 1.


2 Sistemas de Ecuaciones Lineales
En este capı́tulo se introducen los sistemas de ecuaciones lineales y su forma
vectorial y matricial. Se expondrá una forma óptima de encontrar la solución
de este tipo de sistemas usando matrices, a la que se llamará el Método (o al-
goritmo) de Eliminación de Gauss, y se analizarán las posibilidades que surgen
al resolver estos sistemas, al proporcionar una interpretación vectorial del con-
junto solución del sistema. Por último, se introducirán las matrices invertibles
y, como aplicación del método de eliminación de Gauss, se presentará un algo-
ritmo para encontrar la inversa de una matriz invertible usando este método.
Adicionalmente se estudiarán algunas caracterizaciones para matrices inverti-
bles.

2.1. Definición de un sistema de ecuaciones


lineales
Para poder trabajar con sistemas de ecuaciones lineales, primero se debe en-
tender qué es una ecuación lineal. Pero antes, es interesante entender qué es
exactamente una ecuación. Una ecuación es una igualdad algebraica que invo-
lucra incógnitas1 :

2
x + 1 = 0
 (ecuación polinómica) ,
(x2 +1)
e =1 (ecuación exponencial) ,
 2
log(x + 1) = 0 ( ecuación logarı́tmica).

Definición 2.1.1 A una ecuación con n incógnitas x1 , x2 , . . . , xn , y n + 1


escalares a1 , a2 , . . . , an , b ∈ R del tipo:

a1 x1 + a2 x2 + . . . + an−1 xn−1 + an xn = b

se le conoce como ecuación lineal.

Ejercicio 2.1 ¿Son éstas ecuaciones lineales?

3x1 − 5x2 = 2 x1 x2 + x3 = 0

2x1 + x2 − x3 = 2 3 x1 2 + x1 + 1 = 0
1 Obsérvese que ninguna de estas ecuaciones tiene solución en los números reales.

37
38 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Solución. Sólo las que están en la primera columna son ecuaciones lineales.

Una vez que está claro qué es una ecuación lineal en Rn se puede dar la
definición de un sistema de ecuaciones lineales:

Definición 2.1.2 Se define un sistema de m ecuaciones lineales con n incógni-


tas x1 , . . . , xn como el conjunto de ecuaciones lineales:


 a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2 ,

.. (2.1)


 .

am1 xn + am2 x2 + . . . + amn xn = bm .

Revisando detenidamente la forma de (2.1), se puede decir que un sistema de


ecuaciones lineales viene dado por m ecuaciones (filas), y a cada fila i = 1, . . . , m
se le asocian n+1 escalares ai1 , . . . , ain , bi , de los cuales los primeros n escalares
ai1 , . . . , ain van asociados a las incógnitas x1 , . . . , xn respectivamente, y hay un
término libre bi :

a11 x1 + a12 x2 + · · · + a1n xn = b1 ,


(ECuación1 )
a21 x1 + a22 x2 + . . . + a2n xn = b2 ,

(EC2 )
m filas .

 ..


am1 xn + am2 x2 + . . . + amn xn = bm . (ECm )

Haciendo uso de las matrices para almacenar la información, es claro que


se podrı́an almacenar los términos libres de la derecha de cada ecuación en
un vector ~b en Rm , mientras que las incógnitas se podrı́an almacenar en un
vector ~x en Rn y los coeficientes restantes del sistema de ecuaciones lineales
corresponderı́an a una matriz de dimensión m × n de la siguiente forma:
   
b1 x1
~b =  ..  ∈ Rm , ~x =  ..  ∈ Rn y
 .   . 
bm xn
 
a11 a12 ... a1(n−1) a1n

 a21 a22 ... a2(n−1) a2n 

A =  .. .. .. .. ..
.
 
 . . . . . 
a(m−1)1 a(m−1)2 ... a(m−1)(n−1) a(m−1)n 
am1 am2 ... am(n−1) amn

2.1.1. Forma matricial de un sistema de ecuaciones lineales


Observando bien el sistema (2.1), si el término de la izquierda de cada ecua-
ción del sistema se toma como la componente de un vector, y se hace lo mismo
para el término de la derecha, es posible obtener la siguiente igualdad entre dos
2.1. Definición de un sistema de ecuaciones lineales 39

vectores:    
a11 x1 + . . . + a1n xn b1
 a21 x1 + . . . + a2n xn   b2 
=
   
 ..  .. 
 .   . 
am1 x1 + . . . + amn xn bm
| {z } | {z }
Vector en Rm Vector en Rm

Es muy importante darse cuenta de que para cada componente del vector de la
izquierda en la igualdad superior, esto es, para cada fila i = 1, . . . , m, el escalar
ai1 x1 + . . . ain xn no es más que el resultado de un producto punto. Si tomamos
los vectores fila a~1 0 , . . . , a~m 0 de la matriz A definida anteriormente, entonces
ai1 x1 + · · · + ain xn = bi se puede reescribir como a~i 0 · ~x = bi , donde ~x es el
vector definido más arriba. Por tanto, el sistema de ecuaciones lineales como
igualdad entre vectores de Rm se puede reescribir como:
 0   
a~1 · ~x b1
 a~2 0 · ~x   b2 
 ..  =  .. 
   
 .   . 
a~m 0 · ~x bm
| {z } | {z }
A~
x ~b

Y, revisando la Definición 1.2.4, se comprueba que la expresión de la izquierda


en la igualdad de arriba no es más que el producto A~x. Ası́, se tiene que:

Definición 2.1.3 El sistema de ecuaciones lineales (2.1) siempre se puede es-


cribir de forma matricial como A~x = ~b, o más detalladamente:
     
a11 a12 . . . a1n x1 b1
 a21 a22 . . . a2n   x2   b2 
· .  = . 
     
 .. .. .. ..  .
 . . . .   .   .. 
am1 am2 . . . amn m×n xn n×1 bm m×1

Obsérvese que la forma matricial A~x = ~b no es más que otra forma equiva-
lente de escribir el sistema de ecuaciones lineales (2.1); ambas formas codifican
la misma información.

Definición 2.1.4 A la matriz A de un sistema de ecuaciones lineales A~x = ~b


en su forma matricial se le conoce como la matriz asociada al sistema o matriz
de coeficientes. El vector ~x es el vector incógnita del sistema, y ~b el vector de
coeficientes libres.

Ejemplo 2.1.1 Sea el sistema de ecuaciones lineales:



 x1 − 2x2 + x3 = 0
2x2 − 8x3 = 8
−4x1 + 5x2 + 9x3 = −9

La forma matricial A~x = ~b de este sistema es:


40 Capı́tulo 2. Sistemas de Ecuaciones Lineales

     
1 −2 1 x1 0
0 2 −8 · x2  =  8 ,
−4 5 9 x3 −9
| {z } | {z } | {z }
A ~
x ~b
   
1 −2 1 x1
la matriz asociada es A =  0 2 −8 , el vector incógnita es ~x = x2 ,
−4 5 9 x3
 
0
y el vector de coeficientes libres es ~b =  8 . Obsérvese que, efectivamente,
−9
si multiplicamos A~x se tiene que:
 
x1 − 2x2 + x3
A~x =  2x2 − 8x3 ,
−4x1 + 5x2 + 9x3

de tal forma que al igualar componente a componente el vector A~x con el vector
~b se obtiene el sistema de ecuaciones lineales original.

2.1.2. Forma vectorial de un sistema de ecuaciones lineales


Recuérdese por la Definición 1.2.5 que al multiplicar una matriz A por un
vector ~x, el vector resultante de esa multiplicación es una combinación lineal
de los vectores columna de A con pesos los coeficientes del vector ~x. Por tanto,
el vector A~x también se podrı́a interpretar como una combinación lineal de
los vectores columna de A con pesos x1 , x2 , . . ., xn . Por tanto el sistema de
ecuaciones lineales (2.1) también se puede reescribir como:
       
a11 a12 a1n b1
 a21   a22   a2n   b2 
x1  .  + x2  .  + . . . + xn  .  =  . 
       
 ..   ..   ..   .. 
am1 am2 amn bm

Esto es, si se escribe A con sus vectores columna se tiene que A = a~1 a~2 ... a~n ,
y A~x = ~b es equivalente a

x1 a~1 + . . . + xn a~n = ~b.

Obsérvese además que en esta combinación lineal los pesos son las incógnitas
del sistema de ecuaciones lineales (2.1), por lo que aún no están determinados.
Más bien, cuando se encuentre la solución del sistema de ecuaciones lineales se
podrá determinar el valor de estas variables, si es que existen (ver Sección 2.2).

Definición 2.1.5 Un sistema de ecuaciones lineales (2.1) siempre se puede


escribir de forma vectorial como

x1 a~1 + . . . + xn a~n = ~b,


2.2. Resolución de un sistema de ecuaciones lineales 41

donde a~1 a~2 . . . a~n son los vectores columna de la matriz de coeficientes A,
x1 , . . . , xn son los coeficientes del vector de incógnitas ~x y ~b es el vector de
coeficientes libres.
Es muy importante observar que, de nuevo, la forma vectorial de un sistema
de ecuaciones lineales no es más que otra forma equivalente de escribir el sis-
tema de ecuaciones lineales (2.1) ó su forma matricial A~x = ~b; las tres forman
codifican la misma información.

Ejemplo 2.1.2 Sea el sistema de ecuaciones lineales del ejemplo anterior:



 x1 − 2x2 + x3 = 0
2x2 − 8x3 = 8
−4x1 + 5x2 + 9x3 = −9

Entonces, la forma vectorial de este sistema es:


       
1 −2 1 0
x1  0  + x2  2  + x3 −8 =  8  .
−4 5 9 −9
Efectivamente, si se hace el producto escalar y se suman los vectores resultantes
en la parte izquierda de la igualdad superior, se obtiene la matriz Ax.

2.2. Resolución de un sistema de ecuaciones


lineales
Hay dos maneras de interpretar las soluciones de un sistema de ecuaciones
lineales; una es de forma algebraica (como pesos de una combinación lineal de
vectores) y la otra de forma geométrica (como intersección de hiperplanos).
Antes de explicar estas dos interpretaciones, en esta sección se presentará un
algoritmo para encontrar las soluciones de un sistema de ecuaciones lineales
de forma óptima, junto con la forma paramétrica de expresar estas soluciones.
Después, en la siguiente sección (Sección 2.3), se explicará la interpretación vec-
torial de estos resultados, y más tarde en la Sección 3.4 se verá la interpretación
geométrica.
Antes de explicar el algoritmo de resolución, se establecen unas definiciones
necesarias:

Definición 2.2.1 Se dice que un punto p = (p1 , . . . , pn ) es solución del sistema


de ecuaciones lineales (2.1) si satisface cada una de las ecuaciones del sistema.
Además, si un sistema de ecuaciones lineales no tiene solución, se dice que
es inconsistente. Si tiene solución, se dice que es consistente, y al conjunto de
todas las soluciones posibles se le conoce por el conjunto solución CS.
Para un sistema de ecuaciones lineales A~x = ~b, el conjunto de todos los puntos
que son solución del sistema es el conjunto de todos los puntos p ∈ Rn tal que
p = ~b, siendo p~ el vector equivalente al punto p (véase página 5, dualidad
A~
punto/vector). Por tanto:
n o
CS = p ∈ Rn : A~ p = ~b .
42 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Como ya se explicó, una matriz sirve para guardar información. En el caso de


un sistema de ecuaciones lineales se puede definir una matriz que guarda toda
la información sobre un sistema de ecuaciones lineales, obviando las variables o
incógnitas del sistema y guardando en una matriz sólo los escalares del mismo:

Definición 2.2.2 Sea un sistema de ecuaciones


  lineales (2.1) con su forma
matricial A~x = ~b. Se conoce a la matriz A|~b como la matriz aumentada del
sistema.
 
Obsérvese que las n primeras columnas de A|~b guardan la información de
los coeficientes que acompañan a cada variable xi con i = 1, . . . , n, mientras que
la última columna guarda la información de los coeficientes libres bj de cada
ecuación, con j = 1, . . . , m. Por tanto, se podrı́a decir que cada columna i.ésima
de A está asociada a la variable xi del sistema, con i = 1, . . . , n, mientras que la
última columna es la columna de los coeficientes libres del sistema.En cambio,
cada fila atesora los escalares de cada ecuación del sistema.

Ejemplo 2.2.1 Sea el sistema de ecuaciones lineales:



 x1 − 2x2 + x3 = 0
2x2 − 8x3 = 8
−4x1 + 5x2 + 9x3 = −9

La matriz aumentada de este sistema de ecuaciones lineales es


 
  1 −2 1 0
A|~b =  0 2 −8 8  .
−4 5 9 −9

La primera columna corresponde a los coeficientes de la variable x1 en cada


ecuación, la segunda a los coeficientes de la variable x2 , etc, mientras que la
primera fila guarda los escalares de la primera ecuación, etc.

2.2.1. El Método de Eliminación de Gauss


El método de eliminación de Gauss consiste en un algoritmo que nos permite
resolver un sistema de ecuaciones lineales de forma óptima, operando sobre la
matriz aumentada del sistema mediante ciertas operaciones sobre las filas de
la matriz. Se enunciará y explicará el algoritmo de forma teórica para luego
aplicarlo en ejemplos, de tal forma que la aplicación del mismo quede clara.
Pero antes, es necesario definir las operaciones sobre las filas que se pueden
hacer en este proceso.

Operaciones fila para el método de eliminación de Gauss


Definición 2.2.3 Sobre una matriz cualquiera A se definen las siguientes ope-
raciones fila:

Reemplazo (Fi =⇒ Fi + Fj ): consiste en sustituir una fila Fi por esa


misma fila más la suma de otra fila Fi + Fj .
2.2. Resolución de un sistema de ecuaciones lineales 43

Intercambio (Fi ↔ Fj ): consiste en intercambiar una fila Fi por otra


Fj .

Escalamiento (Fi =⇒ λFi ): consiste en sustituir una fila Fi por ella


misma multiplicada por una constante distinta de cero λFi , λ 6= 0.

Mixta (Fi =⇒ Fi + λFj ): es un escalamiento más un reemplazo, ya que


consiste en sustituir una fila Fi por ella misma más λ 6= 0 veces otra fila
Fi + λFj .

También serı́a posible realizar una operación fila del tipo Fi =⇒ λFi + µFj ,
con λ, µ 6= 0, pero en la medida de lo posible y por simplicidad, se va a intentar
evitar ese tipo de operaciones.
Como cada fila de la matriz aumentada de un sistema representa una ecua-
ción del sistema (obviando las variables, de tal forma que la manipulación de
la ecuación se vuelve más sencilla), al reemplazar una fila por esa fila más la
suma de otra, en el sistema de ecuaciones lineales correspondiente se estará re-
emplazando una ecuación por esa ecuación más la suma de otra ecuación; el
intercambio de filas corresponderá a un reordenamiento de las ecuaciones del
sistema; el escalamiento de una fila en la matriz aumentada en cambio consis-
tirá en reemplazar una ecuación por una proporcional a ésta, etc. Por tanto,
cada vez que se realice una operación fila sobre la matriz aumentada de un
sistema de ecuaciones lineales, ésta se convertirá en la matriz aumentada de un
sistema equivalente al anterior.
A continuación se presenta el algoritmo de resolución para sistemas de ecua-
ciones lineales que permitirá ahorrar tiempo e identificar rápidamente la o las
soluciones. Una vez comprendido este algoritmo, el lector deberá saber identifi-
car las variables pivote y las variables libres del sistema, y entender la diferencia
entre la forma matricial
 A~x = ~b de un sistema de ecuaciones lineales, su matriz
~
aumentada A|b , la matriz escalonada U y la matriz escalonada reducida.

El algoritmo de eliminación de Gauss


Explicar este algoritmo de forma teórica no es trivial, pero se intentará ha-
cerlo de la mejor manera posible. Lo más importante, y que el lector no debe
olvidar al aplicar este algoritmo, es que está en realidad operando sobre sis-
temas de ecuaciones lineales equivalentes entre sı́. Como ya se ha explicado y
se verá en los ejemplos de las páginas 45, 47 y 50, en realidad hacer operacio-
nes fila sobre la matriz aumentada de un sistema de ecuaciones lineales no es
más que operar sobre las ecuaciones del sistema para conseguir un sistema de
ecuaciones lineales equivalente.

Explicación del algoritmo Para comenzar con el algoritmo, es necesario que el


primer término a11 de la matriz asociada al sistema A~x = ~b sea distinto de cero.
Si no lo fuera, se debe hacer un intercambio de filas para que ası́ sea. Siempre
se deben
  buscar a los pivotes de la matriz aumentada en la parte izquierda
de A|~b y en sus sucesivas modificaciones después de realizar las operaciones
fila pertinentes. Nunca se situará un pivote en la última fila de estas matrices
aumentadas.
44 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Matriz aumentada del sistema

Primer pivote

Intercambio de filas
Ceros debajo
para que
del pivote

fila
te
uien
Sig

No hay más
Ubicar el siguiente pivote
Identificar el primer
elemento no nulo

filas
de la fila

Forma escalonada
Hay VL Determinar las variables
Sistema consistente libres y las variables
Infinitas soluciones
VL

pivote
y
ha
o
N

Fila
Sistema consistente con
Única solución

Forma escalonada reducida


De izquierda a derecha, convertir en 1
a los pivotes, y hacer ceros encima de ellos Sistema inconsistente
Ecuación

Solución única:
Determinar el punto que
Solución en forma paramétrica verifica las ecuaciones
Escribir las variables pivote
en función de las variables libres

Una vez a11 6= 0, a ese elemento de la matriz se le conocerá por primer pivote,
y siguiendo el algoritmo se debe convertir en cero a los elementos de la columna
que están debajo de ese pivote, utilizando las operaciones fila y apoyándose en
el pivote para conseguirlo, ya que está asegurado que éste siempre será distinto
de cero. Una vez hecho esto, se debe identificar el segundo pivote en la segunda
fila. Para encontrar el segundo pivote, se debe buscar el primer elemento de
la segunda fila distinto de cero. De nuevo, se debe convertir en cero a todos
los elementos que están en la misma columna que el segundo pivote y debajo
de éste, utilizando las operaciones fila. Una vez hecho esto, se debe identificar
el tercer pivote en la tercera fila, hacer ceros debajo, pasar a la siguiente fila,
identificar el siguiente pivote, hacer ceros debajo, etc, hasta que ya no queden
2.2. Resolución de un sistema de ecuaciones lineales 45

más filas, o las últimas filas en la parte izquierda de la matriz aumentada


modificada sean puramente de ceros. Es muy importanterecalcar  que los pivotes
sólo se deben buscar en la parte izquierda de la forma A|b . ~
Una vez realizado este proceso, se llega a una matriz aumentada del tipo
(U |~c ). La matriz obtenida U será la forma escalonada de la matriz A. Se le
conoce por este nombre ya que se puede trazar una lı́nea en forma de escalera
con escalones no necesariamente de la misma longitud, que separará los ceros
de la parte inferior de la matriz con los términos no nulos. La escalera bajará de
escalón (esto es, la lı́nea bajará de fila para formar un escalón) justo antes de
cada pivote.
Una vez llegados a este punto en el que se ha conseguido la forma escalonada
U del sistema, será posible deducir si el sistema es consistente o inconsistente.
Como se argumentará con el primer ejemplo para la aplicación del algoritmo
de Gauss que se presenta en la página 45 (véase Teorema 2.2.1), un sistema
será inconsistente si la última fila de la matriz U junto con la columna de
términos libres del sistema equivalente
 al original, esto es, si la matriz aumen-
tada (U |~c ) es del tipo 0 . . . 0|c , con c 6= 0. Si no, el sistema de ecuaciones
lineales será consistente.
Como ya se comentó, cada columna de la matriz A corresponde a los coefi-
cientes de una de las variables del vector incógnita ~x. Para cada una de las
columnas que posean un pivote, se dirá que la variable correspondiente a esa
columna es una variable pivote. Si no, se dirá que es una variable libre. Estas
definiciones se volverán claras en el tercer ejemplo para la aplicación del al-
goritmo de Gauss que se presenta en la página 50. Si en la matriz escalonada
U de un sistema A~x = ~b todas las variables son variables pivote, entonces el
sistema tendrá una única solución (véase el ejemplo en la página 47 para una
mejor comprensión de esta afirmación). Si, en cambio, existe alguna variable
libre, el sistema tendrá infinitas soluciones (véase el ejemplo en la página 50
para una mejor comprensión de esta afirmación).

Ejemplo 1: sistema inconsistente


Sea el sistema de ecuaciones lineales

 2x + y + 7z + 3t = 4 (EC1 )
3z + 2t = 1 (EC2 )
2x + y + 4z + t = 2 (EC3 )

La forma matricial A~x = ~b de este sistema de ecuaciones lineales es:


 
  x  
2 1 7 3 y  4
 0 0 3 2    = 1
z 
2 1 4 1 3×4 2 3×1
t 4×1

Y la matriz aumentada asociada es:


 
2 1 7 3 4
 0 0 3 2 1 
2 1 4 1 2
46 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Entonces, siguiendo los pasos del algoritmo de Gauss de la página 44, dado
que a11 = 2 6= 0, éste será el primer pivote y se deben convertir en cero a todos
los elementos de la primera columna debajo del pivote, usando las operaciones
fila y apoyándose en el pivote. Por tanto, en la segunda fila no se debe hacer
nada, ya que ya está un cero, y sólo se debe cambiar la tercera fila por la tercera
fila menos la primera para que el a31 = 2 se convierta en cero:
   
2 1 7 3 4 2 1 7 3 4
F 3=⇒F 3−F 1 (mixta)
 0 0 3 2 1  ∼  0 0 3 2 1 .
2 1 4 1 2 0 0 −3 −2 −2
Obsérvese que al hacer estas operaciones fila lo único que se está haciendo
es sustituir la tercera ecuación por la ecuación equivalente correspondiente a
restar la tercera ecuación y la primera, de tal forma que la matriz
 
2 1 7 3 4
 0 0 3 2 1 
0 0 −3 −2 −2
no es más que la matriz aumentada del sistema de ecuaciones lineales equiva-
lente al original dado por:

 2x + y + 7z + 3t = 4 (EC1 )
3z + 2t = 1 (EC2 )
−3z + −2t = −2 (EC3 − EC1 )

Obviamente este sistema no tiene solución ya que no existe ningún punto


 
x
y  4
p= z  ∈ R

t
tal que sus coordenadas z, t puedan verificar la segunda y la tercera ecuación
al mismo tiempo, ya que 3z + 2t nunca podrá valer 1 y 2 a la misma vez.
En cualquier caso, y continuando con el algoritmo de Gauss, se debe buscar
el segundo pivote en la segunda fila, esto es, el primer elemento no nulo en
la segunda fila. En este caso serı́a el término a23 = 3. Por tanto, es necesario
convertir el término a33 = −3 justo debajo en cero.
   
2 1 7 3 4 2 1 7 3 4
F 3=⇒F 3+F 2 (reemplazo)
 0 0 3 2 1  ∼  0 0 3 2 1 .
0 0 −3 −2 −2 0 0 0 0 −1
En esta nueva matriz aumentada, la tercera ecuación del sistema de ecuaciones
lineales equivalente al original se ha convertido en 0 = −1, lo cual es imposible
y por tanto el sistema no tiene solución. El conjunto solución es el conjunto
vacı́o:
CS = ∅.
Como último comentario a este ejemplo, si una revisa el sistema de ecuaciones
original y resta la primera ecuación con la segunda, verá que lo que obtiene es
que 2x + y + 4z + t = 3, lo cual no concuerda con la tercera ecuación. De ahı́ la
inconsistencia.
2.2. Resolución de un sistema de ecuaciones lineales 47

Teorema 2.2.1 Si en la matriz escalonada U de un sistema de ecuaciones


lineales junto con la columna de términos libres, la última fila es del tipo

0 0 ... 0 c

con c 6= 0, entonces el sistema es inconsistente.

Prueba. La matriz aumentada (U |~c ), donde U es la forma escalonada de una


matriz
  A, se consigue después de hacer operaciones fila a la matriz aumentada
A|~b del sistema original A~x = ~b. Por lo tanto, (U |~c) es la matriz aumentada
de un sistema de ecuaciones lineales equivalente al original, y ambos sistemas
tienen las mismas soluciones. 
Como por hipótesis la última fila es del tipo 0 0 . . . 0 c , esa última
fila corresponde a la ecuación 0 = c. Pero como c 6= 0 por hipótesis, es impo-
sible que se pueda dar esa ecuación y por tanto el sistema no tiene solución, y
ası́, tampoco el sistema original lo tendrá. 

Ejemplo 2: sistema con solución única


Sea el sistema de ecuaciones lineales dado por:

 2x + y + z = 5 (EC1 )
4x − 6y = −2 (EC2 )
−2x + 7y + 2z = 9 (EC3 )

A continuación se resuelve el sistema de ecuaciones lineales usando el algoritmo


de Gauss (ver página 44). La matriz aumentada del sistema es:
 
2 1 1 5
 4 −6 0 −2 
−2 7 2 9

Dado que a11 = 2 6= 0, ya se tiene el primer pivote. Se hace ceros debajo del
pivote usando las operaciones fila de la Definición 2.2.3:
   
2 1 1 5 F 2 =⇒ F 2 − 2F 1 (mixta) 2 1 1 5
F 3 =⇒ F 3 + F 1 (reemplazo)
 4 −6 0 −2  ∼  0 −8 −2 −12 
−2 7 2 9 0 8 3 14

Al realizar estas operaciones fila se han reemplazado la segunda y tercera ecua-


ción por (EC2 ) − 2(EC1 ) y (EC3 ) + (EC1 ) respectivamente, de tal forma que
se obtiene el siguiente sistema de ecuaciones lineales equivalente:

 2x + y + z = 5 (EC1 )
− 8y − 2z = −12 (EC2 ) − 2(EC1 )
8y + 3z = 14 (EC3 ) + (EC1 )

Obsérvese que la matriz obtenida después de las operaciones fila es exactamente


la matriz aumentada de este sistema de ecuaciones equivalente.
48 Capı́tulo 2. Sistemas de Ecuaciones Lineales

En la segunda fila el primer término distinto de cero es el a22 = −8. Éste es


por tanto el segundo pivote:
 
2 1 1 5
 0 −8 −2 −12 
0 8 3 14

Haciendo ceros debajo de este pivote se obtiene:


   
2 1 1 5 2 1 1 5
 0 −8 −2 −12  F 3=⇒F ∼
3+F 1
 0 −8 −2 −12 
0 8 3 14 0 0 1 2

Se recalca de nuevo que es muy importante tener siempre en mente que en el


proceso de eliminación de Gauss, al operar en las matrices con las operaciones
fila, en realidad se está operando en las ecuaciones del sistema. Por tanto, la
matriz anterior es la matriz aumentada del sistema equivalente al original:

 2x + y + z =
 5
− 8y − 2z = −12

z = 2

En este caso hay tres variables pivote: x, y, z y no existe ninguna variable


libre. Por tanto el sistema es consistente y la solución es única. Una forma
de encontrar la solución a este sistema de ecuaciones lineales es, obviamente,
reemplazando el valor de z = 2 en las dos primeras ecuaciones, encontrando el
valor de y en la segunda ecuación después de este reemplazo, y reemplazando
este valor de y en la primera ecuación para encontrar el valor de x, de la
siguiente manera:

5−y−z 5−1−2
 x =
 2 = 2 = 1
−12+2z −12+2×2
y = −8 = −8 = 1

z = 2

Aunque es factible calcular la solución de esta manera tan pedestre, existe


una forma mucha más óptima y elegante de encontrar la solución de cualquier
sistema de ecuaciones lineales, que además reproduce este mismo proceso de una
forma mucho más limpia y con menos posibilidades de equivocarse. Esta manera
es calculando la Forma Escalonada Reducida de la matriz A, que, como dice
el Algoritmo de Eliminación de Gauss proporcionado en la página 44, consiste
en, de derecha a izquierda, hacer ceros encima de los pivotes de la matriz.
Al realizar este proceso, lo que en realidad se está haciendo es, efectivamente,
reemplazando los valores de cada variable pivote en las ecuaciones superiores.
En este ejemplo en concreto, se comienza haciendo ceros encima del tercer
pivote, que es el término a33 = 1:
   
2 1 1 5 F 1 =⇒ F 1 − F 3 2 1 0 3
 F 2 =⇒ F 2 + 2F 3 
 0 −8 −2 −12  ∼ 0 −8 0 8 

0 0 1 2 0 0 1 2
2.2. Resolución de un sistema de ecuaciones lineales 49

Efectivamente, al sustituir por z = 2 en la ecuación −8y − 2z = −12 se obtiene


que −8y − 4 = −12 y al pasar la constante al otro lado se tiene la ecuación
−8y = 8, que corresponde a la ecuación de la segunda fila de la última matriz
obtenida. Analógamente para la ecuación 2x + y + z = 5, ésta se convierte
en la ecuación 2x + y = 5 − 2, que corresponde a la primera fila de lá matriz
obtenida. Este proceso es mucho más simple usando matrices que operando en
las ecuaciones, ya que implica menos riesgo a equivocarse. Una vez hecho ceros
encima del último pivote, se reescala el segundo pivote a 1, de tal forma que se
obtiene la ecuación y = −1, y se hace ceros encima del mismo. Por último, se
reescala el primer pivote para obtener el valor de x:
     
2 1 0 3 F2
F 2=⇒ −8
2 1 0 3 2 0 0 2
 0 −8 0 8  ∼  0 1 0 −1  F 1=⇒F ∼
1−F 2
 0 1 0 −1 
0 0 1 2 0 0 1 2 0 0 1 2
 
F 1=⇒ F21
1 0 0 1
∼  0 1 0 −1 
0 0 1 2
Esta matriz es la matriz escalonada reducida del sistema, ya que todos los
pivotes están reescalados al valor 1 y el resto de elementos en las columnas de
cada pivote valen cero. No siempre la matriz escalonada reducida de un sistema
será la matriz identidad, pero si ocurrirá que las columnas de las variables pivote
serán columnas de la matriz identidad, como puede comprobarse en la matriz
reducida del ejemplo de la página 50.
Después de varias operaciones fila y siguiendo el algoritmo de eliminación
de Gauss, se ha conseguido demostrar que el sistema de ecuaciones original,
mediante operaciones fila, es equivalente al sistema de ecuaciones:

 x
 = 1
y = −1

z = 2

En conclusión, existe una solución p para este sistema de ecuaciones lineales,


que corresponde a cuando el vector de incógnitas ~x toma el valor de
 
1
p~ = 1 .
2

Por tanto, el conjunto solución del sistema sólo está constituido por un único
elemento:  
 1 
CS = 1 .
2
 

Se comprueba por completitud que el resultado es correcto:


 x 1 
 2x + y + z = 5 y
z
= 12  2(1) + 1 + 2 = 5
4x − 6y = 2 =⇒ 4(1) − 6(1) = 2
−2x + 7y + 2z = 9 −2(1) + 7(1) + 2(2) = 9
 
50 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Ejemplo 3: sistema con infinitas soluciones


Sea el sistema de ecuaciones lineales:

 3y − 6z + 6t + 4r = −5
3x − 7y + 8z − 5t + 8r = 9
3x − 9y + 12z − 9t + 6r = 15

La matriz aumentada del sistema es:


 
0 3 −6 6 4 −5
 3 −7 8 −5 8 9  .
3 −9 12 −9 6 15 3×6

Obsérvese que a11 = 0. Por tanto, según el algoritmo de Gauss, se debe hacer
un intercambio de filas, que corresponde a un reordenamiento de las ecuaciones.
   
0 3 −6 6 4 −5 3 −7 8 −5 8 9
F1 ←→F2
 3 −7 8 −5 8 9  ∼  0 3 −6 6 4 −5 
3 −9 12 −9 6 15 3 −9 12 −9 6 15

Al hacer esta operación de filas, en el sistema de ecuaciones lineales original no


se está más que poniendo la primera ecuación en segundo lugar, y la segunda
en primer lugar. Esto es, la segunda matriz no es más que la matriz aumentada
del sistema equivalente al original dado por:

 3x − 7y + 8z − 5t + 8r = 9 (EC1 )
3y − 6z + 6t + 4r = −5 (EC2 )
3x − 9y + 12z − 9t + 6r = 15 (EC3 )

Continuando con el algoritmo de Gauss, ahora que a11 6= 0, se debe hacer


ceros debajo del primer pivote. Para ello, sólo es necesario hacer cero en la
tercera fila2 (tercera ecuación del sistema de ecuaciones lineales):
   
3 −7 8 −5 8 9 3 −7 8 −5 8 9
F3 =⇒F3 −F1
 0 3 −6 6 4 −5  ∼  0 3 −6 6 4 −5 
3 −9 12 −9 6 15 0 −2 4 −4 −2 6

Al hacer esta operación de filas, en el sistema de ecuaciones lineales se está sus-


tituyendo la tercera ecuación por la tercera ecuación menos la primera. Al hacer
esto, se consigue un sistema de ecuaciones equivalente al anterior, en el sentido
de que ambos sistemas de ecuaciones lineales tendrán la misma o las mismas
soluciones. Éste será el sistema de ecuaciones lineales equivalente asociado a la
última matriz obtenida:

 3x − 7y + 8z − 5t + 8r = 9 (EC1 )
3y − 6z + 6t + 4r = −5 (EC2 )
−2y + 4z − 4t − 2r = 6 (EC3 0 ) = (EC3 − EC1 )

2 Obsérvese que dado que en la tercera fila todos los elementos son múltiplos de 3, se podrı́a
reemplazar esta fila F 3 por F33 . Lo único que se estarı́a haciendo es reemplazar la ecuación
3x − 9y + 12z − 9t + 6r = 15 por la ecuación equivalente x − 3y + 4z − 3t + 2r = 5, que
simplificarı́a los cálculos al obtener números más pequeños.
2.2. Resolución de un sistema de ecuaciones lineales 51

Continuando con el algoritmo de eliminación de Gauss, una vez conseguido los


ceros debajo del primer pivote, se debe identificar el segundo pivote (primer
elemento no nulo en la segunda fila) que corresponde a a22 = 3, y hacer ceros
en los elementos de la columna debajo de este pivote. Para ello existen varias
posibilidad. Se podrı́a dividir la segunda fila para 3, de tal forma que el pivote
se convertirı́a en 1. Esto implicarı́a que los últimos elementos en la segunda fila
se volverı́an fracciones, lo cual complicarı́a los cálculos sucesivos. También se
podrı́a sustituir la fila tercera F 3 por 3F 3 − 4F 2, logrando el objetivo desea-
do. Pero hay que tener cuidado con este tipo de operaciones, ya que hay que
modificar y restar (mentalmente3 ) dos filas. Dado que, desde el punto de vis-
ta del autor, estas operaciones vuelven mucho más complejo el cómputo, se
realizará una operación de reemplazo del tipo F 3 =⇒ F 3 + 32 F 2:
 
3 −7 8 −5 8 9
 
3 −7 8 −5 8 9 2
F3 =⇒F3 + 3 F2 
 0 3 −6 6 4 −5  ∼  0 3 −6 6 4 −5 

0 −2 4 −4 −2 6 0 0 0 0 2/3 8/3

Mediante un escalamiento del tipo F 3 =⇒ 23 F 3, se obtiene la matriz:


 
3 −7 8 −5 8 9
 0 3 −6 6 4 −5 
 
0 0 0 0 1 4

En conclusión, mediante las operaciones fila realizadas, el sistema inicial



 3y − 6z + 6t + 4r = −5
3x − 7y + 8z − 5t + 8r = 9
3x − 9y + 12z − 9t + 6r = 15

se ha convertido en el sistema equivalente:



 3x − 7y + 8z − 5t + 8r = 9
3y − 6z + 6t + 4r = −5
r = 4

Por tanto, las variables pivote del sistema son x, y, r, y las variables libres son
z, t.Para dar la solución del último sistema de ecuaciones lineales, uno de forma
natural sustituirı́a el valor de r = 4 proporcionado en la tercera ecuación en
las otras dos, después despejarı́a el valor de y en función de z, t, y por último
reemplazarı́a este valor en la primera ecuación para despejar x en función de
z, t. Por tanto, la solución p vendrı́a a tener los siguientes componentes:



 x = x(z, t),
y = y(z, t),



z ∈ R,

t ∈ R,





r = 4.

3 Obviamente, el uso de calculadora para estas operaciones es innecesario, y deberı́a ser


prohibido.
52 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Esto es, la solución se consigue cuando se obtiene la forma de las variables pivote
en función de las variables libres, y las variables libres (de forma natural) pueden
tomar cualquier valor. De ahı́ su nombre. De nuevo, el proceso para encontrar
las funciones x = x(z, t) y y = y(z, t) usando las ecuaciones puede ser costoso
y podrı́a dar riesgo a equivocarse. La forma de evitar arrastrar las variables a
la hora de hacer estos reemplazos es calculando la matriz escalonada reducida
del sistema. Para ello, es necesario, de derecha a izquierda, volver los pivotes
1 y hacer ceros encima de los pivotes. Como el tercer pivote ya vale 1, se hace
cero encima del mismo:
   
3 −7 8 −5 8 9 F1 =⇒ F1 − 8F3
F2 =⇒ F2 − 4 F3
3 −7 8 −5 0 −23
 0 3 −6 6 4 −5  ∼ 3  0 3 −6 6 0 −21 
0 0 0 0 1 4 0 0 0 0 1 4

Al hacer estas operaciones fila, lo único que se está haciendo es reemplazar el


valor de r = 4 en las dos primeras ecuaciones. Ahora se convierte el segundo
pivote en 1 mediante un escalamiento, de tal forma que se consigue la expresión
de y en función de z, t, dado que la segunda ecuación se reescala a y − 2z + 2t =
−7:
   
3 −7 8 −5 0 −23 F2 =⇒ 13 F2
3 −7 8 −5 0 −23
 0 3 −6 6 0 −21  ∼  0 1 −2 2 0 −7 
0 0 0 0 1 4 0 0 0 0 1 4

Al hacer cero encima del segundo pivote, se está sustituyendo el valor de y


por −7 + 2z–2t en la primera ecuación. Para conseguir la matriz escalonada
reducida, es necesario escalar la primera ecuación para que el primer pivote sea
1, de tal forma que se consigue la expresión de x en función de z, t:
   
3 −7 8 −5 0 −23 3 0 −6 9 0 −72
F =⇒F +7F2
 0 1 −2 2 0 −7  1 ∼1  0 1 −2 2 0 −7 
0 0 0 0 1 4 0 0 0 0 1 4

 
F1 =⇒ 13 F1
1 0 −2 3 0 −24
∼  0 1 −2 2 0 −7  .
0 0 0 0 1 4

Obsérvese que en la matriz escalonada reducida, las columnas pivote se con-


vierten en vectores columna de la matriz identidad. Es mucho más sencillo
encontrar la solución en este sistema de ecuaciones lineales equivalente al ori-
ginal, asociado a su matriz escalonada reducida, ya que el sistema es:

 x − 2z + 3t = −24
y − 2z + 2t = −7
r = 4

Como puede observarse claramente, las variables pivote x, y en la matriz es-


calonada reducida ya están en función de las variables libres z, t, por lo que
encontrar la solución es prácticamente automático. Sólo es necesario despejar
2.2. Resolución de un sistema de ecuaciones lineales 53

x, y en las ecuaciones, obteniendo que la solución al sistema es:




 x = −24 + 2z − 3t

y = −7 + 2z − 2t


 z, t variables libres
r = 4.

En conclusión, gracias a la matriz escalonada reducida es posible de una sola


vez escribir las variables pivote en función de las variables libres.
Se comprueba por completitud que el resultado es correcto. Para ello, se
deben sustituir los valores obtenidos de x, y, z, t, r en el sistema de ecuaciones
original y comprobar que se cumplen las ecuaciones. Para hacer la comproba-
ción computacionalmente más fácil, se escribe el sistema de ecuaciones lineales
en su forma vectorial:
           
0 3 −6 6 4 −5
x 3 + y −7 + z  8  + t −5 + r 8 =  9 
3 −9 12 −9 6 15

Una vez hecho esto, se sustituyen los pesos por los valores obtenidos y se com-
prueba que, efectivamente, todo lo que está a la izquierda de las ecuaciones es
exactamente igual a lo que está en la derecha, de tal forma que la solución es
correcta:
         
0 3 −6 6 4
(−24 + 2z − 3t) 3 + (−7 + 2z − 2t) −7 + z  8  + t −5 + 4 8
3 −9 12 −9 6
         
0 3 (−7 + 2z − 2t) −6z 6t 16
= 3 (−24 + 2z − 3t) + −7 (−7 + 2z − 2t) +  8z  + −5t + 32
3 (−24 + 2z − t) −9 (−7 + 2z − 2t) 12z −9t 24
   
0 − 21 + 6z − 6t − 6z + 6t + 16 −5
=  −72 + 6z − 9t + 49 − 14z + 14t + 8z − 5t + 32  =  9 
−72 + 6z − 9t + 63 − 18z + 18t + 12z − 9t + 24 15

Por tanto, la solución es correcta y los puntos p que verifican el sistema de


ecuaciones lineales deben tener las siguientes componentes:
   
x −24 + 2z − 3t
y   −7 + 2z − 2t 
   
z  = 
p=   z 
 con z, t ∈ R.
t  t 
r 4

La incógnita r siempre toma el mismo valor: 4. Las incógnitas z y t pueden


tomar cualquier valor en R (son libres), pero dependiendo del valor que tomen
z y t, las incógnitas x y y tomarán valores distintos. Como a z y t se le pueden
asignar infinitos valores, entonces hay infinitas soluciones para este sistema.
Algunas soluciones particulares de este sistema de ecuciones lineales son:
54 Capı́tulo 2. Sistemas de Ecuaciones Lineales
 
−24
 −7 
 
1. Si z = 0 = t. Solución del sistema: p1 =  0 

 0 
4
 
−22
 −5 
 
2. Si z = 1 y t = 0.  1 
Solución del sistema: p2 =  
 0 
4
 
−27
 −9 
 
3. Si z = 0 y t = 1.  0 
Solución del sistema: p3 =  
 1 
4
Obśervese que estas soluciones son soluciones de los tres sistemas equivalentes:
Sistema Original:

 3y − 6z + 6t + 4r = −5
3x − 7y + 8z − 5t + 8r = 9
3x − 9y + 12z − 9t + 6r = 15

Sistema asociado a la matriz escalonada:



 3x − 7y + 8z − 5t + 8r = 9
3y − 6z + 6t + 4r = −5
r = 4

Sistema asociado a la matriz escalonada reducida:



 x − 2z + 3t = −24
y − 2z + 2t = −7
r = 4

En el siguiente apartado se explica cómo expresar las soluciones de un sistema


de ecuaciones lineales con infinitas soluciones en su forma paramétrica, y cómo
expresar el conjunto solución del mismo.

La solución p en forma paramétrica. Las infinitas soluciones de un sistema


de ecuaciones lineales siempre se podrán escribir como un punto p0 , que será una
solución particular del sistema, más una combinación lineal de ciertos vectores.
En esta combinación lineal los pesos serán las variables libres, y el punto p0
será la solución correspondiente a cuando todas las variables libres valen cero.
p = {p + combinación lineal de vectores con pesos las variables libres}
En el último ejemplo:
     
x −24 + 2z − 3t −24 + 2z − 3t
y   −7 + 2z − 2t   −7 + 2z − 2t 
     
p= z  = 
  z = 0
  + z + 0·t 

t  t   0 + 0·z + t 
r 4 4 + 0 · x3 + 0·t
2.2. Resolución de un sistema de ecuaciones lineales 55

           
−24 2z −3t −24 2 −3
 −7  2z  −2t  −7  2 −2
           
 0  +  z  +  0  =  0 +
= z1 + t  0 
         
 0  0  t   0  0 1
4 0 0 4 0 0
| {z } | {z }
un punto una combinación lineal de vectores

Por tanto, el conjunto solución viene dado por:


      

 −24 2 −3 

−7 2 −2

 


    


CS =  0  + z 1 + t  0  : z, t ∈ R
     


  0  0 1 


 
4 0 0
 

Resumen
En este apartado se hará un breve resumen de algunos de los contenidos
revisados en esta sección.

Definición 2.2.4 Una vez que identificados todos los pivotes y hecho cero de-
bajo de ellos4 , la matriz aumentada que se consigue (asociada al sistema de
ecuaciones equivalente al original) viene dada por (U |~c ) y U es la matriz esca-
lonada del sistema de A.

Obsérvese que, una vez llegados a la matriz escalonada en el algoritmo de


Gauss:

(a) No necesariamente habrá un pivote por cada columna, pero sı́ por cada
fila, menos en una fila que esté llena de ceros en la parte izquierda de la
matriz aumentada.

(b) Todo lo que no sean columnas pivote (CP), esto es, columnas de la matriz
donde haya un pivote, se llamarán variables libres (VL). Por ejemplo, en
esta matriz escalonada, se identifican las variables libres y las variables
pivote:

∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
 
 0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ 
0 0 0 ∗ ∗ ∗ ∗ ∗
 
 
0 0 0 0 0 ∗ ∗ ∗
 
 
0 0 0 0 0 0 ∗ ∗
 
|{z} |{z} |{z} |{z} |{z} |{z} |{z}
CP CP VL CP VL CP CP

(c) Para escribir la solución de un sistema de ecuaciones lineales, se escriben


los pivotes en función de las variables libres.
4 Recuérdeseque los pivotes se buscan en la parte izquierda de la matriz aumentada, por lo
que en la última columna de una matriz aumentada nunca habrá ubicado un pivote.
56 Capı́tulo 2. Sistemas de Ecuaciones Lineales

(d) En un sistema con variables libres habrá infinitas soluciones, y el conjunto


solución se escribirá como un punto que es solución particular del sistema,
y una combinación lineal de vectores con pesos las variables libres.
Mediante el ejemplo de la página 50 se intentará justificar la importancia de
calcular la matriz escalonada reducida del sistema. La matriz escalonada es:
 
3 −7 8 −5 8 9
 0 3 −6 6 4 −5 
0 0 0 0 1 4

Mirando la última ecuación del sistema equivalente, se tiene rápidamente que


r = 4. Si se sustituye este valor en la segunda ecuación, y se despeja y para
que quede en función de z, t, se tiene que:
4 5
y − 2z + 2t + r = −
3 3
5 4 r=4
y = − + 2z − 2t − r =⇒
3 3
5 4
y = − + 2z − 2t − 4
3 3

y = y(z, t) = −7 + 2z − 2t.

Consiguiendo de esta forma y en función de z, t. Por último, para escribir x en


función de z, t se hace el mismo proceso, pero esta vez no sólo se tendrı́a que
sustituir el valor de r = 4, sino que también el valor de y = −7 + 2z − 2t para
que quede x únicamente en función de z, t:

3x − 7y + 8z − 5t + 8r = 9

3x = 9 + 7y − 8z + 5t − 8r

7 8 5 8 r=4
x = x(y, z, t, r) = 3 + y − z + t − r =⇒
3 3 3 3
7 8 5 8
x = x(y, z, t) = 3 + y − z + t − 4
3 3 3 3
23 7 8 5 y=−7+2z−2t
x = x(y, z, t) = − + y− z+ t =⇒
3 3 3 3
23 7 8 5
x = x(z, t) = − + (−7 + 2z − 2t) − z + t
3 3 3 3

x = x(z, t) = −24 + 2z − 3t.

Como pueden comprobar, este proceso es muy peligroso ya que es fácil equivo-
carse en el cómputo. La forma de hacer esta cuenta de sustitución de forma más
sencilla es calculando la matriz escalonada reducida del sistema, como
ya se ha recalcado anteriormente.
2.2. Resolución de un sistema de ecuaciones lineales 57

Ejercicio 2.2 Suponga que las siguientes matrices son las matrices aumen-
tadas de un sistema de ecuaciones lineales. ¿Son los sistemas consistentes o
inconsistentes? Dé el conjunto solución de cada uno de los sistemas.
 
2 1 7 3 4
(a)  0 0 3 2 1 .
0 0 0 0 0
 
2 1 7 3 4
(b)  0 0 3 2 1 .
0 0 0 1 0
 
2 1 7 3 4
(c)  0 0 3 2 1 .
0 0 0 0 1

Solución.
(a) Por la forma de la matriz aumentada, esta matriz ya es la forma escalonada
del sistema. Hay dos pivotes en a11 = 2 y en a23 = 3, por lo que las variables
x y z son variables pivote, y las variables y y t son variables libres. Para
encontrar la forma escalonada reducida es necesario hacer tres operaciones
fila más:
   
2 1 7 3 4 F1 =⇒F1 − 37 F2
2 1 0 −5/3 5/3
 0 0 3 2 1  ∼  0 0 3 2 1 
0 0 0 0 0 0 0 0 0 0
   
2 1 0 −5/3 5/3 1 1/2 0 −5/6 5/6
F2 =⇒F2 /3
∼  0 0 1 2/3 1/3  F1 =⇒F ∼
1 /2
 0 0 1 2/3 1/3 
0 0 0 0 0 0 0 0 0 0
Esta matriz es la matriz aumentada del sistema de ecuaciones lineales:
 1 5 5
 x + y − t =
2 6 6






2 1
z + t =
3 3







0 = 0
Al despejar las variables pivote x, z en función de las variables libres y, t se
obtiene que la solución en forma paramétrica es:
   
x(y, t) 5/6 − y + 5/6t
 y   y
P~

= z(y, t)  =  1/3 − 2/3t 
  

t t
     
5/6 −1 5/6
 0  1  0 
=1/3 + y  0  + t −2/3 , ∀y, t ∈ R.
    

0 0 1
58 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Por lo tanto, el conjunto solución es:


      

 5/6 −1 5/6 

0 1  0 
  
CS =   + y  + t  : y, t ∈ R
 1/3
    0   −2/3  

0 0 1
 

(b) Obsérvese que en este caso la última fila de la matriz escalonada corres-
ponde a la ecuación t = 0, por lo que no hay inconsistencia. Al contrario la
matriz aumentada proporcionada ya es la forma escalonada del sistema, y
hay tres pivotes en a11 = 2, a23 = 3 y a34 = 1. por lo que las variables x, z
y t son variables pivote, y la variable y es variable libre. Para encontrar la
forma escalonada reducida es necesario hacer cinco operaciones fila más:
   
2 1 7 3 4 F1 =⇒ F1 − 3F3 2 1 7 0 4
 2F =⇒ F2 − 2F 3
 0 0 3 2 1  ∼  0 0 3 0 1 

0 0 0 1 0 0 0 0 1 0
   
F1 =⇒F1 − 73 F2
2 1 0 0 5/3 F1 =⇒ F1 /2 1 1/2 0 0 5/6
F2 =⇒ F2 /3
∼  0 0 3 0 1  ∼  0 0 1 0 1/3 
0 0 0 1 0 0 0 0 1 0
Esta matriz es la matriz aumentada del sistema de ecuaciones lineales:
 1 5
 x + y =
2 6






1
z =
3







t = 0

Al despejar las variables pivote x, z, t en función de la variable libre y se


obtiene que la solución en forma paramétrica es:
   
x(y) 5/6 − y
 y   y 
P~ =  z(y)  =  1/3 
  

t(y) 0
   
5/6 −1
 0  1
= 1/3 + y  0  , ∀y ∈ R.
  

0 0

Por lo tanto, el conjunto solución es:


    

 5/6 −1 

0  1
  
CS =   + y   : y ∈ R
  

 1/3 0 

0 0
 
2.3. Sistemas homogeneos e independencia lineal de vectores 59

(c) En este caso la última fila de la matriz corresponde a la ecuación 0 = 1, lo


cual es imposible, por lo que es sistema es inconsistente.


2.3. Sistemas homogeneos e independencia lineal


de vectores
En esta sección blablabla

2.3.1. Interpretación vectorial de la solución


Por la Definición 2.1.5 se sabe que un sistema de ecuaciones lineales A~x = ~b
se puede escribir como una combinación lineal de los vectores columna de la
matriz A con pesos las variables del vector ~x, y esta
 combinación
 lineal se iguala
x1
al vector ~b. Esto es, si A = ~a1 . . . ~an y ~x =  ... , entonces:
  

xn

A~x = ~b ⇐⇒ x1~a1 + . . . + xn~an = ~b.


La ecuación de la derecha se deberı́a de leer como: el vector ~b es combinación
lineal de los vectores ~a1 , . . ., ~an con pesos x1 , . . ., xn . Pero recuérdese que esto
proviene de reescribir un sistema de ecuaciones lineales en forma vectorial y
por tanto los pesos x1 , . . ., xn son incógnitas. En base a este argumento se
puede deducir que, cuando se resuelve un sistema de ecuaciones lineales, esto
es, cuando se encuentran los valores de ~x que satisfacen la ecuación, también
se está comprobando si ~b se puede escribir como combinación lineal de los
vectores columna de A, ya que la solución al sistema es a su vez los pesos
de la combinación. Por tanto se puede establecer el siguiente teorema, que no
necesita demostración:

Teorema 2.3.1 El sistema de ecuaciones lineales A~x = ~b tiene solución si


y sólo si ~b es combinación lineal de los vectores columna de A. Además, la
solución son los pesos de la combinación lineal.
Si un sistema de ecuaciones lineales es inconsistente, eso significa que no existe
ningún punto p que verifique que A~ p = ~b, lo cual implica que no existen valores
para los pesos x1 , . . . , xn en la combinación lineal x1~a1 + . . . + xn~an = ~b de tal
forma que ~b se pueda escribir como combinación lineal de los vectores columna
de la matriz A. Esto es, ~b no es combinación lineal de los vectores columna de
A. Si la solución del sistema A~x = ~b es única, entonces existe una sola forma de
escribir esta combinación lineal, y si hay infinitas soluciones, entonces existen
infinitos pesos que verifican la combinación lineal.
Por ejemplo, en los ejemplos de la sección anterior, el hecho deque el ejemplo
4
de la página 45 sea inconsistente significa que el vector ~b = 1 no se puede
2
60 Capı́tulo 2. Sistemas de Ecuaciones Lineales
       
2 1 7 3
escribir como combinación lineal de los vectores 0, 0, 3, 2; en
2 1 4 1
cambio, el ejemplo de la página 47 con solución única sepuede
 interpretar como
5
que existe una única forma de escribir el vector ~b = 2 como combinación
      9
2 1 1
lineal de los vectores  4 , −6, 0, en concreto con pesos x = 1, y = 1
−2 7 2
y z = 2, respectivamente. Efectivamente:
       
5 2 1 1
~b = 2 = 1  4  + 1 −6 + 2 0 .
9 −2 7 2

Por último,el ejemplo de la página 50 con infinitas soluciones significa que el


vector ~b se puede escribir como combinación lineal de los vectores columna de
A de infinitas formas. Tantas como soluciones tiene el sistema.

2.3.2. Sistemas homogeneos


blablabla

Definición 2.3.1 Sea A~x = ~b un sistema de ecuaciones lineales. Si ~b = ~0,


entonces se dice que A~x = ~0 es un sistema de ecuaciones lineales homogeneo.
En cambio, se dice que A~x = ~b con ~b 6= ~0 es un sistema de ecuaciones lineales
no-homogeneo.

Mientras que un sistema no-homogeneo A~x = ~b puede ser consistente o incon-


sistente, un sistema lineal homogeneo A~x = ~0 verifica la siguiente condición:

Lema 2.3.1 Un sistema homogeneo A~x = ~0 siempre es consistente.

Prueba. Como A~0 = ~0, existe al menos una solución del sistema, a saber,
p~ = ~0. 

Obviamente, un sistema lineal homogeneo, al ser consistente, puede tener


una única solución o infinitas soluciones, dependiendo de la matriz A y la
forma escalonada U asociada a esta matriz. Si existe una variable libre en el
sistema, éste tendrá infinitas soluciones. En cambio, si la solución es única se
tiene que:

Lema 2.3.2 Si A~x = ~0 tiene una única solución, entonces es la solución p~ = ~0.

Prueba Por reducción al absurdo, supongamos que p~ 6= ~0. Entonces, existen


dos soluciones para A~x = ~0, a saber: p~1 = p~ 6= 0 y p~2 = ~0, lo cual es absurdo
ya que por hipótesis el sistema tiene una única solución. Por tanto, lo supuesto
es falso y p~ = ~0. 
2.3. Sistemas homogeneos e independencia lineal de vectores 61

Existe un resultado muy interesante y útil para sistemas homogeneos con


una única solución. En este caso, si se toma una matriz A fija, como ya se ha
comentado, A~x = ~b no necesariamente será consistente para todo ~b. Pero en
caso de que lo sea para un ~b dado, se puede saber si tendrá solución única o no
únicamente resolviendo el sistema homogeneo A~x = ~0 asociado:

Proposición 2.3.1 Sea A una matriz de dimensión n × m y ~b ∈ Rm de tal


forma que el sistema A~x = ~b es consistente. Entonces, se verifica que:
A~x = ~0 tiene A~x = ~b tiene
⇐⇒ .
una única solución una única solución

Prueba. Para resolver el sistema de ecuaciones lineales homogeneo A~x = ~0 y


el no-homogeneo A~x = ~b, es necesario hacer las mismas operaciones fila para
llegar a la matriz escalonada U de cada  uno de los sistemas. En el caso del
~
sistema homogeneo se obtendrá U |0 y en el caso del sistema no-homogeneo
(U |~c)En cualquier caso, es obvio que si A~x = ~0 tiene solución única U no
tendrá variables libres por lo que A~x = ~b también tendrá solución única, de ser
consistente, y viceversa. 
Es claro deducir por tanto que si A~x = ~0 tiene infinitas soluciones, como el
sistema A~x = ~0 y A~x = ~b comparten la matriz escalonada, A~x = ~b, en caso de
ser consistente, también tendrá infinitas soluciones.

Ejemplo 2.3.1 Sean los siguientes sistemas de ecuaciones lineales homogeneos


A~x = ~0. Encuentre el conjunto solución e interprete el resultado.

 x − 4/3z = 0
(a) y =0
z = 0.


 x − 4/3z = 0
(b) y =0
x + y − 4/3z = 0.

Solución.
 
0
(a) Es obvio que este sistema tiene una única solución: ~x = 0. En cualquier
0
1 0 − 43 0
 

caso, la matriz aumentada del sistema es  0 1 0 0  y su matriz


  0 0 1 0
1 0 0 0
escalonada reducida es:  0 1 0 0 .
0 0 1 0
Interpretación: el ~
 vector
  0sólo
 se puede
 escribir como combinación lineal
1 0 −4/3
de los vectores 0, 1,  0  de una única forma: con todos los
0 0 1
pesos iguales a cero.
62 Capı́tulo 2. Sistemas de Ecuaciones Lineales

1 0 − 34 0
 

(b) En este caso la matriz aumentada del sistema es:  0 1 0 0 . Co-


1 1 − 43 0
mo la tercera ecuación es el resultado de sumar la primera con la segunda,
ocurre lo mismo en las filas y por tanto la última fila en la matriz escalo-
nada será una fila de ceros. La matriz escalonada y la matriz
 escalonada
1 0 − 43 0

reducida son la misma matriz, dada por:  0 1 0 0 . El conjunto


0 0 0 0
4 
3z
solución está conformado por todos los vectores de la forma  0  con
z
z ∈ R, esto es:
 4 
 3 
CS = ~0 + z  0  : z ∈ R .
1
 

Interpretación: existen infinitas 


formas
 deescribir
 vector ~0 como com-
el 
1 0 −4/3
binación lineal de los vectores 0, 1,  0 , ya que los pesos
1 1 −4/3
respectivamente pueden ser λ1 = 4/3z, λ2 = 0 y λ3 = z, con z ∈ R
cualquiera.


Ejemplo 2.3.2 En el ejercicio anterior, tome el sistema no-homogeneo A~x = ~b


para cualquier ~b ∈ R3 en cada caso. Deduzca cuántas soluciones tendrá el
sistema A~x = ~b, en caso de que sea consistente, y determine las condiciones
que tienen que verificar las componentes del vector ~b para que el sistema sea
consistente.

Solución.
(a) Como el sistema homogeneo A~x = ~0 tiene una única solución, entonces,
por la Proposición 2.3.1, en caso de que A~x = ~b sea consistente, también
tendrá una única solución.
  La expresión de este sistema de ecuaciones li-
b1
neales para un ~b = b2  ∈ R3 arbitrario es:
b3

 x − 4/3z = b1
y = b2
z = b3 .

Su matriz escalonada viene dada por:


1 0 − 34
 
b1
 0 1 0 b2  .
0 0 1 b3
2.3. Sistemas homogeneos e independencia lineal de vectores 63

Por tanto, el sistema siempre será consistente, ya que no existe ningún


inconveniente en la matriz escalonada. La matriz escalonada reducida será:
1 0 0 b1 + 43 b3
 
 0 1 0 b2 ,
0 0 1 b3

por lo que la solución al sistema viene dado por un único punto, a saber:
 
 b1 + 43 b3 
CS =  b2  ,
b3
 

para cualquier ~b ∈ R3 . Efectivamente, severifica


  que
~b se puede escribir
  
1 0 −4/3
como combinación lineal de los vectores 0, 1,  0  con pesos
0 0 1
λ1 = b1 + 34 b3 , λ2 = b2 y λ3 = b3 , respectivamente.

(b) Como el sistema homogeneo A~x = ~0 tiene infinitas soluciones, entonces


se puede deducir de la Proposición 2.3.1 que, en caso de que A~x = ~b
sea consistente, también tendrá infinitas soluciones.
  La expresión de este
b1
sistema de ecuaciones lineales para un ~b = b2  ∈ R3 arbitrario es:
b3

 x − 4/3z = b1
y = b2
x + y − 4/3z = b3 .

Su matriz aumentada viene dada por:

1 0 − 34
 
b1
 0 1 0 b2  ,
1 1 − 43 b3

y su matriz escalonada (que coincide con la escalonada reducida) es:

1 0 − 43
 
b1
 0 1 0 b2 .
0 0 0 b3 − b1 − b2

Por tanto, el sistema no siempre será consistente, sólo cuando la última


fila sea una fila de ceros. Para ello es necesario que5 b3 − b1 − b2 = 0, esto
es, b3 = b1 + b2 . Por tanto, el sistema es consistente sólo para los vectores
~b ∈ R3 del tipo:
 
b1
~b =  b2  .
b1 + b2
5 Locual es obvio si se tiene en cuenta que la suma de la primera y segunda ecuación deberı́a
verificar la tercera ecuación si no se desea ninguna inconsistencia.
64 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Para estos casos la matriz escalonada reducida se convierte en:

1 0 − 43 b1
 
 0 1 0 b2  ,
0 0 0 0

y la solución al sistema viene dado por infinitos puntos, a saber:


  4 
 b1 3 
CS = b2  + z  0  : z ∈ R .
0 1
 

   
b1 b1
para ~b =  b2  ∈ R3 . Efectivamente, se verifica que ~b =  b2 
b1 + b2 b +b
 1  2
1 0
se puede escribir como combinación lineal de los vectores 0, 1,
  1 1
−4/3
 0  con pesos λ1 = b1 + 4 z, λ2 = b2 y λ3 = z, respectivamente.
3
1

Ejemplo 2.3.3 Encuentre el conjunto solución en R3 del sistema de ecuaciones


lineales homogeneo: x − 4/3z = 0.

Solución. Este sistema está conformado por  una sola ecuación y la matriz
aumentada del sistema es: 1 0 − 34 0 . Hay una variable pivote (x) y
dos variables libres (y, z), y el conjunto solución viene dado por:
   4 
 0 3 
CS = y 1 + z  0  : y, z ∈ R
0 1
 

blablabla

2.3.3. Independencia lineal de vectores


blablabla

Definición 2.3.2 Se dice que k vectores en Rn , {~v1 , . . . , ~vk }, son linealmente


independientes si la única combinación lineal posible de ~v1 , . . . , ~vk para obtener
~0 es con todos los pesos igual a cero.

{~v1 , . . . , ~vk } son def Si x1~v1 + . . . + xk~vk = 0,


⇐⇒
linealmente independientes entonces x1 = 0, . . . , xk = 0.
2.3. Sistemas homogeneos e independencia lineal de vectores 65

Si en cambio existe algún peso distinto de cero de tal forma que el vector ~0
se puede escribir como combinación lineal de los vectores ~v1 , . . . , ~vk , entonces
se dice que {~v1 , . . . , ~vk } son linealmente dependientes. Esto es:
{~v1 , . . . , ~vk } son def ∃λ1 , . . . , λk ∈ R con algún λi 6= 0
⇐⇒
linealmente dependientes tal que λ1~v1 + · · · + λk~vk = ~0.
Existe una forma equivalente de dar esta definición, usando sistemas de ecua-
ciones lineales:

Proposición 2.3.2 (Caracterización para independencia lineal) Sean


~v1 , . . . , ~vk ∈ Rn y la matriz A = ~v1 ~v2 . . . ~vk n×k . Entonces se verifica
que:
{~v1 , . . . , ~vk } son
A~x = ~0 tiene A~x = ~b, si es consistente,
linealmente ⇐⇒ ⇐⇒
una única solución tiene una única solución
independientes

Prueba. Si se revisa la Sección 2.3.1, el hecho de que el vector ~0 sólo se pueda


escribir como combinación lineal de ciertos vectores con pesos cero es equiva-
lente a que el sistema
 homogeneo A~x = ~0 tenga solución única p~ = ~0, siendo
A = ~v1 . . . ~vk . Por tanto la primera equivalencia es trivial. La segunda se
demostró en la Proposición 2.3.1. 

Es muy importante tener en cuenta que para hablar de dependencia o inde-


pendencia lineal es absoluta y totalmente necesario tener dos o más vectores.
En realidad, aunque para saber si k vectores son linealmente independientes
se usa la definición de que su sistema homogeneo asociado debe tener solución
única, la importancia de la independencia lineal es precisamente que, si A~x = ~b
es consistente, esto es, si ~b es combinación lineal de los vectores columna de A, y
estos son linealmente independientes, entonces sólo existe una forma de escribir
esta combinación, ya que los pesos en este caso serán únicos. Este resultado
será de gran utilidad en la sección 3.2.
    
 1 1 
Ejemplo 2.3.4 Sean los vectores 2 , 0 . Sólo moviéndose en estas
3 0
 
dos direcciones aparentemente no se podrı́a llegar a ~0 con algún peso distinto de
cero y por lo tanto los vectores serı́an linealmente independientes. Pero, ¿cómo
se demuestra esto de forma rigurosa? Necesitamos ver si es posible que el cero
sea una combinación lineal de estos vectores. Para ello, es necesario determinar
los pesos λ1 , λ2 de la siguiente combinación lineal:
     
1 1 0
λ1 2 + λ2 0 = 0
3 0 0
Después de hacer las operaciones oportunas, tenemos que:
   
λ1 + λ2 0
 2λ1  = 0 ,
3λ1 0
66 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Y dos vectores son iguales cuando lo son componente a componente. Por tanto,
es necesario que se verifique que:

λ1 + λ2 = 0

2λ1 = 0

3λ1 = 0

Obviamente, la única forma es que λ1 = 0 = λ2 . En conclusión, es totalmente


imposible que ~0 sea combinación lineal de estos dos vectores con algún peso
distinto de cero (lo acabamos de demostrar), y de esta forma los vectores NO
son linealmente dependientes. Esto es, son linealmente independientes.

1 1 2 3
2
3

Geométricamente,
  para llegar al punto de partida, si una se mueve λ veces
1
en la dirección 2, obligatoriamente tendrá que volver −λ veces, y lo mismo
3
 
1
en la dirección 0.
0
Para entender el concepto de independencia lineal, a veces es mejor entender
el concepto contrario, el de dependencia lineal. Es por eso que en el siguiente
lema se determina cuándo dos vectores son linealmente dependientes, esto es,
se estudia el caso de dependencia lineal para k = 2. En la Proposición 2.3.3
se generalizará este resultado a un valor de k arbitrario, y en las sucesivas
proposiciones se darán condiciones necesarias para que un conjunto de vectores
sea linealmente dependiente.

Lema 2.3.3 Dos vectores ~v1 y ~v2 son linealmente dependientes si y sólo si son
múltiplos. Esto es:

~v1 y v2 son ~v y v2 son


⇐⇒ 1
linealmente dependientes múltiplos

Prueba.
Implicación =⇒.
2.3. Sistemas homogeneos e independencia lineal de vectores 67

Por hipótesis, ~v1 y ~v2 son linealmente dependientes, por lo que existe una
combinación lineal de estos dos vectores con alguno de los pesos distinto de
cero, que proporciona el vector ~0. Sin perdida de generalidad, supongamos que
es el peso correspondiente al vector ~v1 . Entonces:

∃λ1 , λ2 ∈ R con λ1 6= 0 : λ1~v1 + λ2~v2 = ~0.

Por tanto,
λ1~v1 = −λ2~v2 ,

y como λ1 6= 0 se puede dividir para λ1 , de tal forma que:

λ2
~v1 = − ~v2 ,
λ1

esto es, ~v1 es múltiplo de ~v2 .


Implicación ⇐=.
Por hipótesis, ~v1 y ~v2 son múltiplos, por lo que ∃λ : ~v1 = λ~v2 , de tal forma
que ~v1 − λ~v2 = ~0 y el vector ~0 se puede escribir como combinación lineal de los
vectores ~v1 y ~v2 con pesos λ1 = 1 6= 0 y λ2 = λ. Se concluye que ~v1 y ~v2 son
linealmente dependientes. 

Ejercicio 2.3 Determine


 si  los
 siguientes
 vectores son linealmente dependien-
−2 3
 4  −6
 6  , −9.
tes o independientes:    

10 15

   
3 −2
−6 −3  4 
 
Solución. Obsérvese que −9 6= 2  6 . Como no son múltiplos o coli-

15 10
neales, por el Lema 2.3.3, son linealmente independientes. 

Aunque la combinación lineal de vectores (que da como resultado otro vector)


y la independencia lineal de vectores (que es una propiedad de un conjunto de
dos o más vectores) son conceptos separados y a priori sin ninguna relación
entre ellos, mediante el siguiente ejemplo y la consiguiente proposición vamos
a crear un vı́nculo que los relaciona, ya que existe una forma de caracterizar la
dependencia lineal de k vectores usando el concepto de combinación lineal

     
 1 1 2 
Ejemplo 2.3.5 Sea el conjunto de vectores 2 , 0 , 2 .
3 0 3
 
68 Capı́tulo 2. Sistemas de Ecuaciones Lineales

3 3

2 2 2

1 1 1

1 1 2 3 1 1 2 1 1 2 3
2 2 2
3

Obsérvese que      
1 1 2
2 + 0 − 2 = ~0,
3 0 3
esto es, ~0 es una combinación lineal de los vectores dados, con pesos 1, 1, −1,
de forma que se puede construir un camino circular con estos vectores que
empiece y termine en el mismo lugar. Por tanto, estos vectores son linealmente
dependientes.

1 1 2
2

Usando esta combinación, se podrı́a escribir cualquiera de los tres vectores


como combinación lineal de los otros dos, esto es:
     
1 1 2
2 + 0 = 2 ,
3 0 3
     
2 1 1
2 − 0 = 2 , o también
3 0 3
     
2 1 1
2 − 2 = 0 .
3 3 0
Por tanto, el hecho de que tres vectores sean linealmente dependientes crea una
combinación lineal de dos vectores que da como resultado el tercero.
En general, lo que ocurre en el ejemplo anterior se da para cualquier caso, y se
demuestra en la siguiente proposición:
2.3. Sistemas homogeneos e independencia lineal de vectores 69

Proposición 2.3.3 (Caracterización para dependencia lineal)


Sean ~v1 , . . . , ~vk ∈ Rn . Entonces:

Podemos escribir uno de los vectores de


{~v1 , . . . , ~vk } son
⇐⇒ {~v1 , . . . , ~vk } como combinación lineal del res-
linealmente dependientes
to.
Prueba.
Implicación =⇒.
Hipótesis: {~v1 , . . . , ~vk } son linealmente dependientes. Por tanto, se sabe que
el vector ~0 se puede escribir como combinación lineal de estos, con algún peso
distinto de cero. Si se elige el vector ~vi como aquel vector cuyo peso λi es
distinto de cero, entonces:

∃λi 6= 0 : λ1~v1 + . . . + λi−1~vi−1 + λi~vi + λi+1~vi+1 + . . . + λk~vk = ~0.

Se desea demostrar que alguno de estos vectores se puede escribir como com-
binación lineal del resto. Para ello, se toma la fórmula

λ1~v1 + . . . + λi−1~vi−1 + λi~vi + λi+1~vi+1 + . . . + λk~vk = ~0

y se despeja λi~vi :

λi~vi = −λ1~v1 − . . . − λi−1~vi−1 − λi+1~vi+1 − . . . − λk~vk

Como por hipótesis se sabe que λi 6= 0, se puede dividir por este número
ambos lados de la igualdad, obteniendo
λ1 λi−1 λi+1 λk
~vi = − ~v1 − . . . − ~vi−1 − ~vi+1 − . . . − ~vk
λi λi λi λi
La fórmula superior demuestra cómo, si λi es el peso distinto de cero cuya
existencia se concluye de la hipótesis, entonces el vector ~vi es exactamente
el que es combinación lineal del resto de vectores {v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vk }.
Justo lo que se deseaba demostrar.
Implicación ⇐=.
Hipótesis: ∃~vi ∈ {~v1 , . . . , ~vk } que es combinación lineal del resto. Sin pérdida
de generalidad, se supone que es el primer vector ~v1 de la lista (si no lo fuera,
se reordenan los vectores para que ası́ sea). Entonces, si por hipótesis ~v1 es
combinación lineal de {~v2 , . . . , ~vk }, resulta que ∃λ2 , . . . , λr ∈ R pesos tal que

~v1 = λ2~v2 + . . . + λk~vk

Se desea demostrar que los vectores son linealmente dependientes. Para ello,
se toma la fórmula anterior y se reordena para que todos los elementos estén
en el lado izquierdo. Se obtiene entonces que

~v1 − λ2~v2 − . . . − λk~vk = ~0

y ası́, el vector ~0 es combinación lineal de los vectores ~v1 , . . . , ~vk con pesos
1, −λ2 , . . . , −λk . Como el primer peso es distinto de cero, se concluye que los
vectores son linealmente dependientes. 
70 Capı́tulo 2. Sistemas de Ecuaciones Lineales
     
 1 4 2 
Ejemplo 2.3.6 ¿Son 2 , 5 , 1 linealmente independientes? Si no
3 6 0
 
lo fueran, encuentra la relación de dependencia.

Solución. Podemos escribir el vector ~0 como combinación lineal de los vectores


dados con pesos λ1 , λ2 , λ3 , plantear y resolver el sistema de ecuaciones lineales
equivalente, y ver que tiene infinitas soluciones, ası́ como se hizo en el ejemplo
2.3.4 (c), o darnos cuenta de que existe una relación de dependencia lineal entre
los vectores, ya que:      
2 4 1
1 = 5 − 2 2
0 6 3
| {z }
Relación de dependencia

Como uno de los vectores es combinación lineal del resto, entonces por la Pro-
posición 2.3.3 que acabamos de demostrar sabemos que los vectores son lineal-
mente dependientes. Efectivamente, obsérvese que de la fórmula anterior se
deduce que:        
2 4 1 0
1 − 5 + 2 2 = 0
0 6 3 0


Ejercicio 2.4 Determine


 si 
lossiguientes
  vectores son linealmente dependien-
2 0 1
tes o independientes: 3 , 0 , 1.
5 0 8

Solución. Obsérvese que por el simple hecho de estar el vector ~0 en el conjunto


de vectores, es posible crear una combinación lineal con algún peso distinto del
cero, precisamente el peso que acompaña al vector ~0, que dé como resultado6
el vector ~0:        
2 0 1 0
0 · 3 + 1 · 0 + 0 · 1 = 0 .
5 0 8 0
Por tanto, son vectores linealmente dependientes. 

De forma general:

Teorema 2.3.2 Sea un conjunto de k vectores de tal forma que el vector ~0


está contenido en el conjunto, esto es, sea el conjunto

{~v1 , . . . , ~vk } = {v1 , . . . , ~vi−1 , ~0, ~vi+1 , . . . , ~vk }.

Entonces, {~v1 , . . . , ~vk } son linealmente dependientes.


6 Aunque en este caso el peso elegido toma el valor de 1, en realidad se podrı́a poner cualquier
escalar distinto de cero.
2.4. Matrices invertibles 71

Prueba. Si tomamos todos los pesos igual a cero menos el peso λi , que podrı́a
valer por ejemplo, 1, tenemos que:

λ1 = . . . = λi−1 = 0,

λi 6= 0, ,

λi+1 = . . . = λk = 0

y
0 ~v1 + . . . + 0 ~vi−1 + 1 ~0 + . . . + 0 ~vr = ~0.
En conclusión, el vector ~0 es combinación lineal de {~v1 , . . . , ~vk } con algún peso
distinto de cero, exactamente el peso λi (que nosotros hemos hecho que valga
1 pero en realidad puede tomar cualquier valor distinto de cero), y por tanto
{~v1 , . . . , ~vk } son linealmente dependientes. 
Es más, es fácil entender el siguiente resultado, si nos atenemos a la Proposi-
ción 2.3.2 que caracteriza la independencia lineal en términos de sistemas de
ecuaciones lineales:

Teorema 2.3.3 Sean k vectores ~v1 , . . . , ~vk en Rn .


Si k > n, entonces {~v1 , . . . , ~vm } son linealmente dependientes.
Prueba. Sea A = (~v1 , . . . , ~vk )n×k y sea el sistema de ecuaciones lineales
A~x = ~0. Entonces A como máximo va a tener n pivotes y como k el número
de columnnas es mayor a n el número de filas, hay más columnas que pivo-
tes y obligatoriamente habrá variables libres. Ası́ que A~x = ~0 tiene infinitas
soluciones, por lo que {~v1 , . . . , ~vm } son linealmente dependientes. 

Ejercicio 2.5 Determine si los siguientes vectores son linealmente dependien-


tes o independientes.        
1 2 3 4
7 , 0 , 1 , 1 .
6 9 5 8

Solución. Cuatro vectores en R3 , por tanto, por el Teorema 2.3.3, son lineal-
mente dependientes. 

2.4. Matrices invertibles


En esta sección se definen las matrices invertibles, se argumenta que no todas
las matrices son invertibles proporcionando un contraejemplo, se enuncian las
propiedades de las matrices invertibles, se presenta una aplicación del algoritmo
de Gauss para encontrar la inversa de una matriz o justificar en su caso que
no es invertible, y por último se dan algunas caracterizaciones para matrices
invertibles.

Definición 2.4.1 Sea An×n una matriz cuadrada. Entonces, se dice que A es
invertible si existe una única matriz cuadrada Dn×n que verifica que

AD = In = DA
72 Capı́tulo 2. Sistemas de Ecuaciones Lineales

La matriz D se llama la matriz inversa de A y se denota por A−1 . La fórmula


anterior por tanto se reescribe como:
AA−1 = In = A−1 A
Se podrı́a decir que la matriz inversa A−1 de una matriz A es el elemento
inverso del producto de matrices y In el elemento neutro, pero no todas las
matrices tienen elemento inverso. Como contraejemplo, sea la matriz cuadrada
(0). Para cualquier matriz D se tiene que
D(0) = (0)D = (0)
Por tanto, nunca será posible encontrar una matriz que al multiplicarsela a la
matriz cuadrada (0) dé como resultado la matriz In . En conclusión, no existe
ninguna opción D para la inversa de (0), esto es, esta matriz no es invertible.
Además, es importante recalcar que para que una matriz sea invertible, es
necesario primero que sea cuadrada; pero no necesariamente todas las matrices
cuadradas son invertibles. Por ejemplo, como ya hemos argumentado, la matriz
cuadrada (0) no es invertible.
Se enuncian a continuación algunas propiedades para las matrices invertibles:

Proposición 2.4.1 Sean A y B dos matrices cuadradas de la misma dimen-


sión, invertibles7 . Entonces:
−1
a) A−1 es invertible y además (A−1 ) = A.
−1
b) AB es invertible y además (AB) = B −1 A−1 .
−1 T
c) AT es invertible y además (AT ) = (A−1 ) .
Prueba.
a) Se sabe que A es invertible, esto es, ∃A−1 tal que AA−1 = In = A−1 A
(la hipótesis). Se desea demostrar que ∃D tal que A−1 D = In = DA−1 (la
tesis). Esta matriz D será la inversa de A−1 y por tanto se le denotará por
−1
(A−1 ) .
Comparando la hipótesis
AA−1 = In = A−1 A
con la tesis
A−1 D = In = DA−1
−1
es fácil deducir que necesariamente D = A y por tanto (A−1 ) = A.
b) Para demostrar que AB es invertible, es necesario encontrar una matriz
D tal que (AB)D = In = D(AB). Esta matriz D por notación se le de-
notará por (AB)−1 , ya que será por definición la inversa de AB. Se toma
D = B −1 A−1 . Entonces, usando la asociatividad en el producto de matrices:
(AB)D = (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIA−1 = AA−1 = I.
D(AB) = (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 IB = B −1 B = I.
−1
Ası́, D = (AB) = B −1 A−1 .
7 Esto es, ∃A−1 , B −1 .
2.4. Matrices invertibles 73

c) Para demostrar que AT es invertible, es necesario encontrar una matriz D


tal que AT D = I = DAT . A esta matriz D se le denotará por definición
T
como (AT )−1 , ya que será la inversa de AT . Se toma D = (A−1 ) . Entonces:
T T
AT D = AT (A−1 ) = (A−1 A) = I T = I

T T
DAT = (A−1 ) AT = (AA−1 ) = I T = I
−1 T
Por tanto, D = (AT ) = (A−1 ) . 

Una vez revisadas las propiedades más básicas de las matrices invertibles, se
enuncia un resultado que es una generalización de la propiedad (AB)−1 =
B −1 A−1 :

Corolario 2.4.1 Sean A1 , . . . , Ak k matrices cuadradas de la misma dimen-


sión, invertibles. Entonces:

−1
(A1 A2 . . . Ak−1 Ak ) = A−1 −1 −1 −1
k Ak−1 . . . A2 A1 .

Prueba.

(A1 . . . Ak ) A−1 −1
A1 . . . Ak A−1 . . . A−1
 
k . . . A1 = k 1
(A1 . . . Ak−1 ) I A−1 −1

= k−1 . . . A1
= A1 . . . Ak−1 A−1 −1

k−1 . . . A1
(A1 . . . Ak−2 ) I A−1 −1

= k−2 . . . A1
= . . . = A1 A2 A−1
 −1
2 A1 = A1 IA−1 1
= A1 A−1
1 =I


Se enuncian a continuación dos propiedades muy interesantes para matrices
inversas. Se sabe que un sistema de ecuaciones lineales A~x = ~b no necesaria-
mente va a ser siempre consistente para cualquier vector ~b. Por ejemplo, el
sistema de ecuaciones lineales
    
1 0 0 x b1
0 1 0 y  = b2 
1 1 0 z b3

b1
es consistente para cualquier vector del tipo ~b =  b2  pero no lo será por
  b1 + b2
1
ejemplo para ~b = 1, o cualquier otro vector ~b que no verifique que su tercera
0
componente es la suma de las dos primeras. Pero si la matriz A es invertible,
es fácil demostrar que cualquier sistema de ecuaciones lineales asociado a la
matriz A siempre será consistente, y además con solución única:
74 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Proposición 2.4.2 Sea An×n una matriz invertible. Entonces, el sistema de


ecuaciones lineales A~x = ~b es consistente y tiene una única solución, ∀~b ∈ Rn .

Prueba. Por hipótesis, como A es invertible existe su inversa A−1 tal que
AA−1 = I = A−1 A.
Sea ~b ∈ Rn un vector cualquiera. Si multiplicamos la inversa en ambos lados
de A~x = ~b se tiene que:
A~x = ~b

A−1 A~x = A−1~b

I~x = A−1~b

~x = A−1~b.

Como A−1 es única por definición, y ~b una vez fijado, es único, entonces la
solución ~x = A−1~b de A~x = ~b es única también. 
Obsérvese que en esta proposición el resultado es válido para todo vector ~b
de Rn . Esto es, independientemente del vector ~b que se elija en el sistema de
ecuaciones lineales A~x = ~b, si A es invertible este sistema siempre tendrá una
única solución dada por p~ = A−1~b. En particular, si se toma ~b = ~0, entonces
el sistema homogeneo asociado a una matriz invertible tendrá solución única,
~x = ~0. En conclusión, como consecuencia a este resultado se tiene que:

Corolario 2.4.2 Sea An×n una matriz invertible. Entonces los vectores co-
lumna de la matriz A son linealmente independientes.

Prueba. Si A es invertible, por la proposición anterior se tiene que para ~b = ~0 el


sistema homogeneo A~x = ~0 tiene única solución, por lo que por la Proposición
2.3.2 los vectores columna de A son linealmente independientes. 
La negación del corolario anterior proporciona una herramienta muy pode-
rosa para identificar si una matriz es invertible o no:

Corolario 2.4.3 Si los vectores columna de An×n son linealmente dependien-


tes, entonces la matriz A no es invertible.

Prueba. Si la matriz A fuera invertible, sus vectores columnas deberı́an ser li-
nealmente independientes por el Corolario 2.4.2, lo cual es imposible por hipóte-
sis. Por tanto, A no es invertible. 
Hasta ahora sólo se ha trabajado con matrices invertibles de forma teórica.
Aún no se sabe cómo calcular A−1 , en el caso de que exista. En la siguiente
sección y como aplicación al método de eliminación de Gauss se proporciona
una manera de calcular la inversa de una matriz A que permitirá además en
el proceso determinar si esta matriz es, efectivamente, invertible o no. Durante
todo el curso, se volverá una y otra vez a trabajar con matrices invertibles ya
que serán un poderoso instrumento para la solución de problemas en el álgebra
lineal (véase Sección 2.4.2 para ver todas las posibles caracterizaciones que
abarca el hecho de que una matriz sea invertible).
2.4. Matrices invertibles 75

2.4.1. Cálculo de la inversa de una matriz


En este apartado se va a explicar por qué y cómo se calcula la matriz inversa
A−1 de una matriz dada A, usando el algoritmo de Gauss. Una vez se entiende
este proceso, es fácil deducir bajo qué condiciones la matriz A no va a ser
invertible.
Sea A una matriz cuadrada de dimensión n × n. Se desea saber si esta matriz
en invertible o no. Para ello, se debe demostrar que existe otra matriz A−1
con las mismas dimensiones que verifique que AA−1 = I = A−1 A. Además
esta matriz A−1 debe ser única. Por tanto, A−1 es una matriz incógnita, que
se debe determinar.Para determinar una matriz, es suficiente con determinar
los columnas de esta matriz. Ası́, encontrar A−1 será equivalente a encontrar
sus vectores columna ~xi , para i = 1, . . . , n. Esto es, el vector incógnita xi
corresponde a la columna i en A−1 . Entonces:

A−1 = x~1

x~2 ... x~n

Dado que por definición se debe verificar que AA−1 = I = A−1 A, se tiene que:

AA−1 = A x~1

x~2 ... x~n = In×n

Recordando cómo se multiplican matrices (página 31), la ecuación matricial


anterior se puede reescribir como:
 
1 0 0 ... 0
  0 1 0 ... 0 
Ax~1 Ax~2 ... Ax~n =  .
 
.. .. .. .. ..
 . . . . . 
0 0 0 ... 1

Antes de continuar con el desarrollo y para facilitar la redacción, se definen los


vectores más básicos en el álgebra lineal:

Definición 2.4.2 Al vector de la columna i.ésima en la matriz identidad In


se le denota por ~ei . Los vectores columna de In por tanto son ~e1 , . . . , ~en ∈ Rn
y se les conoce como los vectores canonicos de Rn . Esto es:
 
1 0 0 ... 0
 0 1 0 ... 0  
I=  = ~e1 ~e2 ~e3 . . . ~en .
 
.. .. .. .. ..
 . . . . . 
0 0 0 ... 1

Ası́, la ecuación AA−1 = I se puede reescribir de forma más compacta como:


 
Ax~1 Ax~2 ... Ax~n = e~1 e~2 . . . e~n .

Como dos matrices son iguales si lo son componente a componente, o equiva-


lentemente si sus columnas son iguales, igualando columna a columna en la
76 Capı́tulo 2. Sistemas de Ecuaciones Lineales

ecuación anterior se tiene que:




 Ax~1 = ~e1 (S1)

 Ax~ = ~e2 (S2)
 2


Ax~3 = ~e3 (S3)
 .
..





Ax~n = e~n (Sn)

Obsérvese que cada Ax~i = e~i es, en sı́ mismo, un sistema de ecuaciones linea-
les. Por tanto, tenemos n sistemas de n ecuaciones con n incógnitas. Esto es,
tenemos un sistema de sistemas de ecuaciones lineales. La solución del primer
sistema (S1) es la primera columna de A−1 , la solución de (S2) es la segunda
columna de A−1 , etc.
Dado que la inversa de una matriz es única por definición, debe existir una
única solución para cada uno de estos sistemas de ecuaciones, y cada solución
corresponderá a una de las columnas de A−1 . En conclusión, la matriz A será in-
vertible, esto es, existirá su inversa A−1 , sı́ y solo sı́ cada uno de los sistemas
A~xi = ~ei tiene una única solución. Y para que un sistema de ecuaciones lineales
tenga solución única, no pueden haber variables libres en la matriz escalona-
da. En conclusión, la matriz escalonada de A debe tener tantos pivotes como
columnas y por tanto, su matriz escalonada reducida debe ser la identidad.
Según lo argumentado hasta ahora, se deben resolver n sistemas de ecuacio-
nes lineales para encontrar A−1 . La cuestión es: ¿es necesario resolver uno por
uno cada uno de los sistemas de ecuaciones lineales Ax~i = e~i para i = 1, . . . , n,
o acaso hay otra forma más óptima de encontrar los vectores columna de A−1 ,
sin tener que resolver tantos sistemas de ecuaciones lineales uno detrás del otro?
Para responder a esta pregunta, se realizará antes el siguiente ejemplo:
 
1 2 2
Ejemplo 2.4.1 Encuentre la inversa de la matriz A = 3 1 2.
2 3 3

Resolución. Como A es de dimensión 3 × 3, la inversa de A tiene tres


columnas:
A−1 = ~x1 ~x2 ~x3 .


Para encontrar la primera columna de A−1 se debe resolver el sistema de ecua-


ciones lineales A~x1 = ~e1 :
   
1 2 2 1 F 2 =⇒ F 2 − 3F 1 1 2 2 1
 F 3 =⇒ F 3 − 2F 1
A ~e1 =  3 1 2 0  ∼  0 −5 −4 −3 
2 3 3 0 0 −1 −1 −2
   
F 2 =⇒ − 1 F 2
5 1 2 2 1 1 2 2 1
F 3 =⇒ −F 3 F 3=⇒F 3−F 2
∼  0 1 4/5 3/5  ∼  0 1 4/5 3/5 
0 1 1 2 0 0 1/5 7/5
   
1 2 2 1 1 2 2 1
F 2=⇒−4F 3 F 3=⇒5F 3
∼  0 1 0 −5  ∼  0 1 0 −5 
0 0 1/5 7/5 0 0 1 7
2.4. Matrices invertibles 77
   
1 0 2 11 1 0 0 −3
F 1=⇒F 1−2F 2
∼  0 1 0 −5  F 1=⇒F ∼
1−2F 3
 0 1 0 −5 .
0 0  1 7 0 0 1 7
−3
Por tanto, ~x1 = −5 es la primera columna de A−1 . Para encontrar la
7
segunda columna de A−1 se debe resolver el sistema Ax2 = ~e2 :
   
1 2 2 0 F 2 =⇒ F 2 − 3F 1 1 2 2 0
 F 3 =⇒ F 3 − 2F 1
A ~e2 =  3 1 2 1  ∼  0 −5 −4 1 
2 3 3 0 0 −1 −1 0
   
1
F 2 =⇒ − F 2
5 1 2 2 0 1 2 2 0
F 3 =⇒ −F 3
∼  0 1 4/5 −1/5  F 3=⇒F ∼
3−F 2
 0 1 4/5 −1/5 
0 1 1 0 0 0 1/5 1/5
   
1 2 2 0 1 2 2 0
F 2=⇒F 2−4F 3 F 3=⇒5F 3
∼  0 1 0 −1  ∼  0 1 0 −1 
0 0 1/5 1/5 0 0 1 1
   
1 0 2 2 1 0 0 0
F 1=⇒F 1−2F 2
∼  0 1 0 −1  F 1=⇒F ∼
1−2F 3
 0 1 0 −1 
0 0 1 1 0 0 1 1
 
0
La segunda columna de A−1 es ~x2 = −1. Para calcular la tercera columna
1
de A−1 , por último, se debe resolver el sistema A~x3 = ~e3 :
   
1 2 2 0 F 2 =⇒ F 2 − 3F 1 1 2 2 0
 F 3 =⇒ F 3 − 2F 1
A ~e3 =  3 1 2 0  ∼  0 −5 −4 0 
2 3 3 1 0 −1 −1 1
   
F 2 =⇒ − 1 F 2
5 1 2 2 0 1 2 2 0
F 3 =⇒ −F 3 F 3=⇒F 3−F 2
∼  0 1 4/5 0  ∼  0 1 4/5 0 
0 1 1 −1 0 0 1/5 −1
   
1 2 2 0 1 2 2 0
F 2=⇒F 2−4F 3 F 3=⇒5F 3
∼  0 1 0 4  ∼  0 1 0 4 
0 0 1/5 −1 0 0 1 −5
   
1 0 2 −8 1 0 0 2
F 1=⇒F 1−2F 2
∼  0 1 0 4  F 1=⇒F ∼
1−2F 3
 0 1 0 4 
0 0 1 −5   0 1 −5
0  
2 −3 0 2
La tercera fila, por último, es ~x3 =  4  y A−1 =  −5 −1 4 .
−5 7 1 −5
Por completitud, se comprueba que el resultado es correcto:
    
1 2 2 −3 0 2 1 0 0
AA−1 = 3 1 2  −5 −1 4  = 0 1 0 .
2 3 3 7 1 −5 0 0 1


78 Capı́tulo 2. Sistemas de Ecuaciones Lineales

Obsérvese que, en cada uno de los tres casos, a la hora de resolver los siste-
mas A~xi = ~ei para i = 1, . . . , n, las operaciones fila para encontrar la matriz
escalonada son siempre las mismas, sólo cambiarı́a la última columna que co-
rresponde al vector ~b del sistema de ecuaciones lineales equivalente. Esto es
lógico, ya que lo que se desea es llegar a la forma escalonada reducida de la
matriz A. En cada operación fila que se realiza para resolver un sistema A~x = ~b,
si bien se modifica el vector ~b, el proceso y las operaciones fila a realizar son
siempre independientes del vector ~b ya que sólo es importante analizar lo que
ocurre en la parte izquierda de la matriz (A|~b) después de cada operación fila;
las operaciones fila se realizan para identificar los pivotes, hacer ceros debajo
de ellos, etc, y para esto sólo es necesario fijarse en la matriz A, no importa la
forma del vector ~b en el sistema de ecuaciones lineales. Por tanto, el ejemplo
anterior se podrı́a haber hecho de una sola vez de la siguiente forma: se toma
la matriz A en la parte izquierda, y en la parte derecha se alinean los tres vec-
tores ~b de cada uno de los tres sistemas de ecuaciones lineales A~xi = ~ei , para
i = 1, 2, 3:  
 1 2 2 1 0 0
A ~e1 ~e2 ~e3 =  3 1 2 0 1 0 
2 3 3 0 0 1
La matriz superior podrı́a pensarse como la matriz aumentada del sistema de
sistemas de ecuaciones lineales A~xi = ~ei , con i = 1, 2, 3. Después se realizan
las operaciones fila para resolver los tres sistemas de ecuaciones lineales de una
sola vez (compárese este proceso con lo realizado en el ejemplo anterior):
   
1 2 2 1 0 0 F 2 =⇒ F 2 − 3F 1 1 2 2 1 0 0
F 3 =⇒ F 3 − 2F 1
 3 1 2 0 1 0  ∼  0 −5 −4 −3 1 0 
2 3 3 0 0 1 0 −1 −1 −2 0 1
   
F 2 =⇒ − 1 F 2
5 1 2 2 1 0 0 1 2 2 1 0 0
F 3 =⇒ −F 3 F 3=⇒F 3−F 2
∼  0 1 4/5 3/5 −1/50  ∼  0 1 4/5 3/5 −1/5 0 
0 1 1 2 0 −1 0 0 1/5 7/5 1/5 −1
   
F 2 =⇒ − 1 F 2
5 1 2 2 1 0 0 1 2 2 1 0 0
F 3 =⇒ −F 3 F 3=⇒F 3−F 2
∼  0 1 4/5 −5 −1 4  ∼  0 1 4/5 −5 −1 4 
0 1 1 7/5 1/5 −1 0 0 1/5 7 1 −5
   
1 0 2 11 2 −8 1 0 0 −3 0 2
F 1=⇒F 1−2F 2 F 1=⇒F 1−2F 3
∼  0 1 0 −5 −1 4  ∼  0 1 0 −5 −1 4 
0 0 1 7 1 −5 0 0 1 7 1 −5
Este proceso es muy poderoso ya que al resolver los tres sistemas de una sola
vez, si la matriz es invertible el sistema de ecuaciones lineales A~x = ~b siempre
es consistente con solución única (véase Proposición 2.4.2), para todo ~b ∈ R.
Por tanto, en especial para los vectores canónicos ~ei ∈ R, con i = 1, . . . , n.
Además, como el sistema tiene una única solución no hay variables libres y la
matriz escalonada reducida del sistema siempre será la identidad, de tal forma
que en el proceso descrito anteriormente, si la matriz A es invertible, en la parte
izquierda de la matriz aumentada modificada aparecerá la matriz identidad, y
en la parte derecha las soluciones a los sistemas de ecuaciones lineales, en orden.
2.4. Matrices invertibles 79

Como en este caso cada solución representa a cada columna de la matriz inversa
de A, en la derecha se obtiene la matriz inversa.
Ahora ya es posible presentar un algoritmo óptimo para determinar si una
matriz es invertible, y encontrar la inversa de la matriz en el caso positivo.

Algoritmo para encontrar A−1


Primeramente, cada una de los soluciones de los sistemas A~xi = ~ei debe ser
única, para i = 1, . . . , n. Por tanto, si se parte de la matriz aumentada (A|I) y
mediante operaciones fila se obtiene la forma escalonada de A:
si la forma escalonada de A tiene variables libres, existe la posibilidad de
que haya más de una solución o el sistema sea inconsistente, por tanto la
matriz A no es invertible.
si la forma escalonada no tiene variables libres, cada uno de los sistemas
de ecuaciones lineales tiene solución única y se puede continuar con las
operaciones fila hasta obtener la forma escalonada reducida, que en este
caso será la matriz identidad. Una vez hecho esto, en el otro lado de la
matriz aumentada se encontrará la inversa de A:
 operaciones
fila
A−1

A I ∼ I

En conclusión, para que una matriz sea invertible su forma escalonada no


debe tener variables libres. Se realiza a continuación un ejemplo para completar
esta argumentación:
 
0 1 2
Ejemplo 2.4.2 Calcule la inversa de la matriz A = 1 0 3, o justifique
4 −3 6
por qué no existe.
Resolución. Siguiendo el algoritmo para calcular A−1 = ~x1 ~x2 ~x3 , se


escribe la matriz aumentada de los tres sistemas de ecuaciones A~xi = ~ei para
i = 1, 2, 3 en una sola matriz aumentada, y se resuelven los tres sistemas de
una sola vez usando el algoritmo de Gauss:
   
0 1 2 1 0 0 1 0 3 0 1 0
F 1=⇒F 2
 1 0 3 0 1 0  ∼  0 1 2 1 0 0 
4 −3 6 0 0 1 4 −3 6 0 0 1
   
1 0 3 0 1 0 1 0 3 0 1 0
F 3=⇒F 3−4F 1
∼  0 1 2 1 0 0  F 3=⇒F ∼
3−3F 2
 0 1 2 1 0 0 
0 −3 6 0 −4 1 0 0 0 −3 −4 1
Por la última fila se puede concluir que ninguno de los tres sistemas tiene
solución, ya que para que A~x1 = ~e1 tenga solución es necesario que 0 = −3;
para que A~x2 = ~e2 tenga solución es necesario que 0 = −4, y para que A~x3 = ~e3
tenga solución es necesario que 0 = 1. Esto es, al encontrar la matriz escalonada
se consigue que los sistemas son inconsistentes, por lo que no existe A−1 , y A
no es invertible. 
80 Capı́tulo 2. Sistemas de Ecuaciones Lineales

2.4.2. Caracterización de matrices invertibles


La definición de una matriz invertible es la dada en Definición ??. Pero exis-
ten muchas formas equivalentes a esta definición, esto es, existen otras formas
equivalentes de definir el hecho de que una matriz sea invertible, a lo que se le
llamarán caracterizaciones. No sólo por el hecho de ser una matriz invertible
verificará estas condiciones (caracterizaciones), sino que además si una matriz
verifica alguna de estas condiciones, automáticamente será invertible.
Hasta ahora lo que se sabe de una matriz invertible An es que existe su
inversa por definición, y que además el sistema A~x = ~b siempre tiene solución
única, para todo ~b ∈ R. Además, para que sea invertible la matriz aumentada
debe tener tantos pivotes como columnas, para que el sistema A~xi = ~ei tenga
solución única. Por tanto, la matriz escalonada reducida debe ser la identidad.
Pues bien, todas estas propiedades son equivalentes, esto es, el hecho de que
exista la matriz inversa es equivalente con el hecho de que el sistema A~x = ~b
tenga solución única, que a su vez es equivalente con el hecho de que la matriz
escalonada reducida de A sea la identidad.
Todas estas condiciones son caracterizaciones para matrices invertibles, esto
es, formas alternativas y equivalentes de definir la invertibilidad de una matriz:

Caracterización 2.4.1 Sea An una matriz cuadrada. Las siguientes afirma-


ciones son todas equivalentes:
A es invertible
⇐⇒ A~x = ~b tiene solución única, ∀~b ∈ Rn ;
(∃A−1 : AA−1 = I = A−1 A)

⇐⇒ A~x = ~0 tiene una solución única, ~x = ~0;

⇐⇒ A~xi = ~ei tiene solución única, i = 1, . . . , n;

⇐⇒ AT es invertible;

⇐⇒ La matriz escalonada de A tiene n pivotes;

⇐⇒ La matriz escalonada reducida de A es In ;

Los vectores columna de A son linealmente


⇐⇒
independientes.
Prueba.
(a) A invertible ⇐⇒ A~x = ~b tiene solución única, ∀~b ∈ R.
[=⇒] Sabemos que A es invertible. Ya demostramos en la pág. 27 que
entonces A~x = ~b tiene solución única.
[⇐=] HIPÓTESIS: A~x = ~b tiene solución única, ~ n −1
 ∀b ∈ R . ¡∃?A ! Esto

 A~x = ~e1

A~x = ~e2

queremos demostrar. Para eso necesitamos que . o sean siste-

 ..


A~x = ~e3

2.4. Matrices invertibles 81

mas de ecuaciones lineales con solución única. Pero esto ¡ya lo sabemos por
hipótesis! Es un caso particular, tomando ~b = e~i . Por tanto, ∃A−1 .

(b) A invertible ⇐⇒ A~x = ~0 tiene solución única, ~x = ~0.


[=⇒] A es invertible. =⇒ ∃A−1

A~x = ~0 =⇒ A−1 A~x = ~0 =⇒ ~x = ~0

[⇐=] El sistema A~x = ~0 siempre tiene al menos una solución, ya que si


~x = ~0 se verifica que A~x = ~0. Si hay más soluciones, es que en la matriz
escalonada hay variables libres. Por tanto, como por hipótesis A~x = ~0
tiene solución única, eso quiere decir que no hay variables libres, esto es,
hay tantos pivotes como columnas. Pero como A es cuadrada, eso implica
que A~x = e~i también va a tener solución única (y existe la solución). Por
tanto ∃A−1 .

(c) A es invertible ⇔ AT es invertible


[=⇒] Ya lo hicimos en el Capı́tulo 1. Se toma (AT )−1 = (A−1 )T
[⇐=] HIPÓTESIS: AT es invertible ⇔ ∃(AT )−1 : AT (AT )−1 = I =
(AT )−1 AT
A·? = I =? · A

!Ese ? es la inversa de A!

AB = I = BA
T T
(AB)T = B T AT entonces (AT B T )T = B T AT = BA
(B T AT )T = I T = (AT B T )T
Por tanto, si B es la inversa de A, B T es la inversa de AT y B T = (AT )−1 =⇒
B = [(AT )−1 ]T .
Comprobación:

A[(AT )−1 ]T = [(AT )−1 AT ]T = I T = I !Correcto¡

[(AT )−1 ]T A = [AT (AT )−1 ]T = I T = I !Correcto¡

(d) A es invertible ⇔ A tiene n pivotes


C2
[=⇒] A es invertible =⇒ A~x = ~0 tiene una única solución, ~x = ~0 =⇒ A
tiene tantos pivotes como columnas y A es cuadrada n × n =⇒ A tiene n
pivotes.
[⇐=] A tiene n pivotes y A es cuadrada =⇒ A~x = ~b tiene una única
C1
solución, ∀~b ∈ Rn =⇒ A es invertible.

(e) A es invertible ⇔ A es equivalente por filas a la matriz identidad In×n


82 Capı́tulo 2. Sistemas de Ecuaciones Lineales

2.5. Proyecto: Generalización del algoritmo


Hemos resuelto n sistemas de ecuaciones lineales de una sola vez, a saber:
Ax~i = e~i con i = 1, . . . , n. Pero, y si en vez de ~e1 , ~e2 ,. . . , e~n ¿tuvieramos

 A~x = ~b1
A~x = ~b2


n vectores cualesquiera b~1 , b~2 , . . . , b~n ? ¿Cómo resolvemos . de una

 ..

A~x = ~bn


sola vez?

 
b~1 b~2 b~n

A ... ∼ matriz escalonada reducida x~1 x~2 ... x~n

Si A es invertible, entonces:
 
A b~1 b~2 . . . b~n ∼

In×n x~1 x~2 ... x~n

2.6. ejercicios
condiciones para que una matriz 2x2 sea invertible. Sistema de ecuaciones
lineales que se debe verificar.
AB = AC entonces B = C siempre???
A~x = ~b tiene solución siempre??
TABLA RESUMEN CON INDEPENDENCIA LINEAL, SISTEMAS HO-
MOGENEOS Y NO HOMOGENEOS Y CONSISTENCIA/INCONSISTENC
3 Subespacios vectoriales de Rn y
transformaciones lineales
En el Capı́tulo 1 se trabajó con el conjunto de todos los vectores de dimensión
n ∈ N. A este conjunto se le denotó por Rn :
   

 x1 

Rn ≡ ~x =  ...  : xi ∈ R .
 
 
xn
 

Además, se definieron dos operaciones en este conjunto, la suma de vectores


(Definición 1.1.5) y la multiplicación escalar (Definición 1.1.8). Estas dos ope-
raciones se dice que son cerradas porque su resultado es otro vector dentro
del conjunto Rn , esto es, los resultados de estas operaciones no se salen del
conjunto Rn :

(
~v + w~ ∈ Rn , ~ ∈ Rn
∀~v , w
λ~v ∈ Rn , ∀λ ∈ R, ∀~v ∈ Rn
....

Además, estas operaciones verifican ciertas propiedades recolectadas en la Pro-


posición 1.1.2. Estas dos operaciones junto con sus propiedades permiten definir
la siguiente estructura algebraica sobre el conjunto Rn :

Definición 3.0.1 Se define al conjunto Rn junto con las operaciones suma de


vectores + y multiplicación escalar · y sus propiedades como el espacio vectorial
(Rn , +, ·).
En realidad, esta estructura básica sobre el conjunto de los vectores en Rn per-
mite definir una estructura algebraica más general sobre un conjunto conocida
como Espacio Vectorial sobre un cuerpo K. Si es posible definir sobre un con-
junto cualquiera dos operaciones cerradas que verifican las mismas propiedades
que se verifican en la Proposición 1.1.2, entonces se dice que dicho conjunto
junto con esas operaciones también es un espacio vectorial. Por ejemplo, el
conjunto de todos los polinomios de grado menor o igual a n junto con la suma
de polinomios y la multiplicación de un escalar por un polinomio tiene estruc-
tura de espacio vectorial, y en este caso a los polinomios se les llama vectores.
Por tanto, toda la teorı́a que se va a desarrollar a continuación es también posi-
ble generalizarla a cualquier otro conjunto con estructura de espacio vectorial.
Para más información, véase el capı́tulo ??.

83
84 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

En este capı́tulo se van a definir los subespacios vectoriales, esto es, sub-
conjuntos de Rn que heredan la estructura de espacio vectorial de Rn , a los
subconjuntos generados por un número dado de vectores, y se va a demostrar
que ambos son equivalentes. También se van a definir tres subespacios vecto-
riales asociados a una matriz A, a saber, el espacio columna de A, el espacio
fila de A y el espacio nulo de A. Después se definirá el concepto de base pa-
ra un subespacio vectorial y las coordenadas asociadas a una base para un
vector en el mismo subespacio vectorial. Finalmente, se definirán las aplicacio-
nes entre espacios vectoriales, conocidas como transformaciones lineales, y sus
propiedades.

3.1. Subespacios vectoriales y sistemas


generadores
En esta sección se definen los subespacios vectoriales y los conjuntos gene-
rados por k vectores, y se comprueba que son equivalentes. También se dan
algunos ejemplos de estos conjuntos y sus propiedades.

3.1.1. Subespacios vectoriales


Un subespacio vectorial de Rn es un subconjunto de Rn que hereda las pro-
piedades de Rn , esto es, un subconjunto donde la suma de vectores y la multi-
plicación escalar siguen siendo cerradas.

Definición 3.1.1 Sea H ⊆ Rn , esto es, sea H un subconjunto de Rn . Se dice


que H es un subespacio vectorial de Rn , y se denota por H ≤ Rn , si se verifica
que:
(i) Si ~u, ~v ∈ H entonces ~u + ~v ∈ H (la suma es cerrada en H).
(ii) Si λ ∈ R, ~u ∈ H, entonces λ~u ∈ H (la multiplicación escalar es cerrada
en H).
Para tener una idea clara de qué es un subespacio vectorial, se trabaja a conti-
nuación geométricamente con algunos subconjuntos de R2 y R3 , para deducir
si tienen estructura de espacio vectorial o no:

Ejemplo 3.1.1 ¿Son estos subconjuntos de R2 subespacios vectoriales de R2 ?


DIBUJO

Solución. 
En el siguiente lema se compilan dos propiedades fundamentales de un subes-
pacio vectorial:

Lema 3.1.1 Sea H ≤ Rn . Entonces, se verifican las siguientes propiedades:


(a) ~0 ∈ H.
(b) Si ~v ∈ H, la recta que pasa por el origen con dirección ~v también estará con-
tenida en H.
3.1. Subespacios vectoriales y sistemas generadores 85

Prueba. Por la condición (ii) en la Definición 3.1.1 se tiene que si H no es


el subconjunto vacı́o y existe por tanto existe un vector ~v en H, entonces λ~v
también estará en H. En particular, si λ = 0, entonces ~0 ∈ H. Además, el
conjunto de todos los vectores múltiplos a ~v forman la recta que pasa por
el origen con dirección ~v , por lo que cualquier punto sobre la recta también
estará en H. 
Por tanto, una forma de comprobar que un subconjunto no es un subespacio
vectorial de Rn es verificando primeramente si el vector ~0 pertenece o no a él.
Si no pertenece, por el lema anterior, se sabe que no podrá ser un subespacio
vectorial; pero si pertenece, aún no se podrı́a confirmar nada. Pero si es posible
ubicar en H un vector, tal que la recta que pasa por el origen con esa dirección
no está contenida en H, entonces H no sera un subespacio vectorial .

Ejemplo 3.1.2 (a) ¿Es una recta que no pasa por el origen un subespacio
vectorial de R2 ?
(b) ¿Es la esfera centrada en el origen de radio 1 un subespacio vectorial de
R3 ?

Solución. 
En la siguiente proposición se enumeran algunos ejemplos de subespacios
vectoriales :

Proposición 3.1.1 Sea el espacio vectorial Rn . Entonces:


(1) Los ejemplos de subespacios vectoriales triviales son: ∅, Rn ≤ Rn .
(2) El único subespacio vectorial formado por un único vector es: H = {~0}.
(3) Sea Am×n una matriz. Se define el espacio nulo de A, Nul(A) como el
conjunto de Rn formado por todas las soluciones del sistema homogéneo
A~x = ~0 asociado a A, esto es:
n o
Nul(A) = ~v ∈ Rn : A~v = ~0

Obsérvese que ~v ∈ Nul(A) ⇐⇒ A~v = ~0. Entonces, Nul(A) ≤ Rn .


Prueba.
(1) ∅ es subespacio vectorial ya que al no tener elementos, sus elementos ve-
rifican las condiciones de la Definición 3.1.1 trivialmente. Obviamente, Rn
también verifica las condiciones para ser subespacio vectorial .
(2) Se comprueba que H = {~0} verifica las dos condiciones para ser subespacio
vectorial :
~ ∈ H = {~0}. Entonces, ~v = ~0 y w
Sean ~v , w ~ = ~0 ası́ que ~v + w
~ = ~0 ∈ H; se
satisface la primera condición.
Sea ~v ∈ H = {~0}. Entonces, ~v = ~0 y λ~v = ~0 ∈ H, para cualquier λ ∈ R; se
satisface la segunda condición.
Además, si ~v 6= ~0 y H = {~v }, entonces H no es un subespacio vectorial de
Rn porque para que lo fuera deberı́a de contener también la recta que pasa
por el origen con dirección ~v .
86 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

(3) Se comprueba que Nul(A) verifica las dos condiciones para ser subespacio
vectorial :
~ ∈ Nul(A). Entonces, A~v = 0 y Aw
Sean ~v , w ~ = 0 ası́ que A(~v + w) ~ =
A~v + Aw ~ = ~0 + ~0 = ~0 y por tanto ~v + w
~ ∈ Nul(A); se satisface la primera
condición.
Sea ~v ∈ Nul(A). Entonces, A~v = ~0 y A(λ~v ) = λ(A~v ) = λ~0 = ~0, por lo tanto
λ~v ∈ Nul(A); se satisface la segunda condición.

Se finaliza esta sección con un ejercicio muy sencillo:
 
  5
1 −3 −2
Ejercicio 3.1 Sea A = y ~u =  3 . ¿Pertenece ~u a Nul(A)?
−5 9 1
−2

Solución. Recuérdese que ~u ∈ Nul(A) sı́ y sólo sı́ A~u = ~0. Entonces, como
   
5−9+4 0
A~u = =
−25 + 27 − 2 0

se tiene que ~u ∈ Nul(A). 

3.1.2. Subconjuntos de Rn generados por k vectores


En esta sección se definen los subconjuntos generados por k vectores, el
conjunto generador de un subconjunto de este tipo, y se demuestra que los
subespacios vectoriales y estos conjuntos son, en realidad, equivalentes.

Definición 3.1.2 Sean ~v1 , . . . , ~vk ∈ Rn . Se define el subconjunto de Rn forma-


do por todas las combinaciones posibles de los vectores ~v1 , . . . , ~vk y se denota
por < ~v1 , . . . , ~vk > ó gen {~v1 , . . . , ~vk } como:

< ~v1 , . . . , ~vk > = gen {~v1 , . . . , ~vk }


≡ {~v ∈ Rn : ~v es combinación lineal de ~v1 , . . . , ~vk }

Entonces, se dice que {~v1 , . . . , ~vk } es un sistema generador de < ~v1 , . . . , ~vk >
(conjunto de infinitos elementos), y viceversa, < ~v1 , . . . , ~vk > es el conjunto
generado por ~v1 , . . . , ~vk .
Obsérvese que el conjunto {~v1 , . . . , ~vk } tiene k vectores, los vectores ~v1 , . . . , ~vk ,
mientras que < ~v1 , . . . , ~vk > tiene infinitos vectores, tantos como combinaciones
lineales hay de ~v1 , . . . , ~vk . Además:

~v ∈< ~v1 , . . . , ~vk >⇐⇒ ∃λ1 , . . . , λk ∈ Rn : ~v = λ1~v1 + . . . + λk~vk ,



o equivalentemente, si se define la matriz A = ~v1 . . . ~vk , entonces

~v ∈< ~v1 , . . . , ~vk >⇐⇒ A~x = ~v es consistente.

Se analizan a continuación los conjuntos generados por uno, dos vectores o tres
vectores:
3.1. Subespacios vectoriales y sistemas generadores 87

(a) El conjunto generado por un único vector: < ~v >.


Sea ~v ∈ Rn . Entonces, w
~ ∈< ~v > sı́ y sólo sı́ w
~ es múltiplo de ~v , esto es:
< ~v >≡ {λ~v : λ ∈ R} .
Por tanto, los vectores pertenecientes al conjunto < ~v > son todos los
vectores que se pueden conseguir después de dilatar/contraer/cambiar de
dirección al vector ~v . Si identificamos estos vectores con puntos, entonces
el objeto geométrico que representa a < ~v > es exactamente una recta en
Rn que pasa por el origen:

(b) El conjunto generado por dos vectores: < ~v , w ~ >.


~ ∈ Rn . Los elementos de < ~v , w
Sean ~v , w ~ > son todas las combinaciones
lineales posibles de ~v y w.
~ Por tanto:
~ >= {λ~v + µw
< ~v , w ~ : λ, µ ∈ R} .
~ con λ, µ ∈ R son los que se pueden con-
Todos los vectores del tipo λ~v + µw
seguir siguiendo las direcciones de ~v y w.
~ Estos vectores formarán un plano
siempre y cuando ~v y w ~ no sean múltiplos. Ya que si son linealmente depen-
dientes caerán sobre la misma recta y por tanto < ~v , w
~ > formará una recta.

Si son l.d.: forman una recta


Si son l.i.: forman un plano
(c) El conjunto generado por tres vectores: < ~v , w, ~ ~z >.
~ ~z ∈ Rn . Los elementos de < ~v , w,
Sean ~v , w, ~ ~z > son todas las combinaciones
lineales posibles de ~v , w
~ y ~z. Por tanto:
~ ~z >= {λ~v + µw
< ~v , w, ~ + ν~z : λ, µ, ν ∈ R} .
Si estos tres vectores están alineados, esto es, son múltiplos entre sı́, en-
tonces el conjunto formado será una recta. Si en cambio hay dos vectores
linealmente independientes y el tercero es combinación lineal de los dos
anteriores, entonces el conjunto formado será un plano donde están con-
tenidos los tres vectores. Si en cambio los tres vectores son linealmente
independientes, dado que se está hablando de un subconjunto en Rn , este
subconjunto tendrá una forma parecida a R3 sin llegar a ser R3 , ya que
R3 no es un subconjunto de Rn . Por ejemplo, para n = 4 será un conjunto
parecido1 a R3 dentro de un ambiente con una dimensión más.
1 Ası́como las rectas en Rn se parecen a R pero no lo son, o los planos se parecen a R2 pero
no son R2 , ya que ni R ni R2 son subconjuntos de Rn .
88 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

En general, dado que los elementos de < ~v1 , . . . , ~vk > son todas las combina-
ciones lineales posibles de ~v1 , . . . , ~vk , se tiene que:

< ~v1 , . . . , ~vk >= {λ1 v~1 + · · · + λk v~k : λi ∈ R, i = 1, . . . , k}

     
1 0 1
Ejercicio 3.2 Sean los vectores ~v = 1 , w~ = 1 , b~1 =  0  , b~2 =
  0 1 −1
1
~ > y diga si b~1 , b~2 pertenecen o no a
1. Describa geométricamente < ~v , w
1
< v~1 , v~2 >.

Solución. Como ~v y w~ no son múltiplos, sabemos que son linealmente inde-


pendientes y por tanto el conjunto < ~v , w
~ > forma un plano que pasa por el
origen en R3 .

Para resolver la segunda pregunta, se puede o bien resolver el sistema de ecua-


ciones lineales A~x = ~bi para i = 1, 2, o bien dibujar el plano generado por ~v y
~ y comprobando si ~b1 y ~b2 están contenidos en él o no.
w,
Se deja al lector que realice la comprobación algebraica resolviendo los dos
sistemas de ecuaciones lineales. La comprobación geométrica se realiza dibu-
jando el plano generado por < v~1 , v~2 > y los vectores ~b1 y ~b2 . Se tiene que:
3.1. Subespacios vectoriales y sistemas generadores 89

~b1 está sobre el plano < ~v1 , ~v2 >:

~b1 ∈< ~v1 , ~v2 >

~b2 NO está sobre el plano:

~b2 ∈<
/ ~v1 , ~v2 >

 A continuación se enuncian algunas de las propiedades del subconjunto


< ~v1 , . . . , ~vk >:

Proposición 3.1.2 Sea < ~v1 , . . . , ~vk >. Entonces, se verifica que:

(a) < ~0 >= {~0}.

(b) ~0 ∈< ~v1 , . . . , ~vk > .

(c) ~vi ∈< ~v1 , . . . , ~vk >, ∀i = 1, . . . , k.

Prueba.

(a) < ~0 >= {λ~0 : λ ∈ R} = {~0}.

(b) En la combinación lineal λ1~v1 +. . .+λk~vk , si se toman todos los pesos cero,
entonces, 0~v1 + · · · + 0~vk = ~0 y ~0 es combinación lineal de v~1 , . . . , v~k . En
conclusión, ~0 ∈< v~1 , . . . , v~k >.

(c) Sea i = 1, . . . , k cualquiera. En la combinación lineal λ1~v1 +. . .+λi−1~vi−1 +


λi~vi + λi+1~vi+1 + . . . + λk~vk , si se toman todos los pesos cero salvo λi = 1,
entonces, 0~v1 + · · · + 0~vi−1 + 1~vi + 0~vi+1 + . . . + 0~vk = ~vi y ~vi es combinación
lineal de v~1 , . . . , v~k . En conclusión, ~vi ∈< v~1 , . . . , v~k >, para todo i =
1, . . . , k.


Es más, en realidad, los subespacios vectoriales y los conjuntos generados
por k vectores son equivalentes, esto es, el subconjunto < ~v1 , . . . , ~vk > es un
subespacio vectorial de Rn , y para todo H ≤ Rn siempre se puede encontrar
un conjunto generador de k vectores tal que H =< ~v1 , . . . , ~vk >:

Teorema 3.1.1

H ≤ Rn ⇐⇒ ∃~v1 , . . . , ~vk : H =< ~v1 , . . . , ~vk >

Prueba.

90 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Es importante recalcar que un subespacio vectorial podrı́a tener más de un


sistema generador. Si se conoce un conjunto generador para H entonces al
añadir cualquier combinación lineal de los vectores que lo generan al conjun-
to original, este último también
 será un
 sistema generador. Por ejemplo, sea
*1 2+ 2 1

H = 0 , 0 . Como 0 = 2 0 , H es una recta en R3 . Distintos


0 0 0 0
conjuntos generadores para H podrı́an ser:
        
 1 2   1   2 
0 , 0 ; o bien 0 ; o bien 0
0 0 0 0
     

Se definen algunos ejemplos de subespacios vectoriales asociados a matrices:

Definición 3.1.3 Sea Am×n una matriz. Entonces si A = (~a1 , . . . , ~an) con
~a01
~ai ∈ Rm , ∀i = 1, . . . , n definida con sus vectores columna, ó A =  ...  con
 

~a0m
~a0i n
∈ R , ∀i = 1, . . . , m definida con sus vectores fila, se definen:
(a) El espacio columna de A, Col(A), como el subespacio vectorial de Rm
generado por los vectores columna de A:
Col(A) = h~a1 , . . . , ~an i ≤ Rm

(b) El espacio fila de A, Fil(A), como el subespacio vectorial de Rn generado


por los vectores fila de A:
D E
Fil(A) = a~0 1 , . . . , a~0 m ≤ Rn

Por tanto, si se desea comprobar que un subconjunto H ⊂ Rn es subespacio


vectorial de Rn , primero se deberı́a comprobar que ~0 pertenece al subconjunto,
ya que si no pertenece, entonces no será subespacio vectorial . Si pertenece aún
es imposible determinar si será subespacio vectorial o no. Pero si es posible
comprobar que, habiendo un vector en H la recta que contiene a dicho vector
no está en H, entonces tampoco será subespacio vectorial . Pero si nada de
esto ocurre, entonces se podrı́a demostrar que efectivamente es un subespacio
vectorial de Rn bien encontrando un sistema generador para H, o bien demos-
trando que H no es más que el espacio columna, el espacio fila o el espacio nulo
de una matriz A que tendrá que ser definida. De esta manera, se evita tener
que comprobar las dos condiciones dadas en la Definición 3.1.1, lo cual puede
llegar a ser muy tedioso.
   
3 1 −3 −4
Ejemplos 3.1.1 (a) Sea ~b =  3  y A = −4 6 −2 . ¿ ~b ∈ Col(A)?
−4 −3 7 6
 
  5
1 −3 −2
(b) Sea A = y ~u =  3 . ¿~u ∈ Col(A)?
−5 9 1
−2
3.1. Subespacios vectoriales y sistemas generadores 91

(c) Sea H el conjunto de los vectores en R4 cuyas coordenadas a, b, c, d satis-


facen que a − 2b + 5c = d y c − a = d. ¿Es H un subespacio vectorial de
R4 ?
(d) Determine un conjunto generador del espacio nulo, del espacio columna y
del espacio fila de la siguiente matriz:
 
−3 6 −1 1 −7
A =  1 −2 2 3 −1
2 −4 5 8 −4
  
 6a − b 
(e) Encuentre una matriz A tal que W = Col(A), donde W =  a + b  : a, b ∈ R .
−7a
 

Resolución.
(a)

    
1 −3 −4
~b ∈ Col(A) ⇐⇒ ~b es combinación lineal de −4 ,  6  , −2
−3 7 6
 
1 −3 −4
⇐⇒ A~x = ~b tiene solución, con A = −4 6 −2
−3 7 6
Se resuelve el sistema de ecuaciones lineales:
   
1 −3 −4 3 F2 ⇒ F2 + 4F1 1 −3 −4 3 F3 ⇒F3 − 13 F2
F ⇒ F + 3F1
 −4 6 −2 3  3 ∼3  0 −6 −18 15  ∼
−3 7 6 −4 0 −2 −6 5
 
1 −3 −4 3
 0 −6 −18 15  .
0 0 0 0
Por la forma escalonada de la matriz se puede deducir que el sistema
tendrá infinitas soluciones, por lo que ~b ∈ Col(A).
  Es  más,
 como
  la so-
1 −3 −4
lución no es única se sabe que los vectores −4 ,  6  , −2 son
−3 7 6
linealmente dependientes, y la matriz A no es invertible.
(b) El espacio columna de A es un subespacio vectorial de R2 , esto es, Col(A) ≤
R2 . Pero ~u ∈ R3 por lo que es imposible que ~u pertenezca a Col(A): ~u ∈ /
Col(A).
 
a
b 4
(c) Dado que H está formado por aquellos vectores ~v =   c  ∈ R tal que

d
a − 2b + 5c = d y c − a = d, H es el subconjunto de R4 :
92 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

  

 a 

b
  
  4
H =   ∈ R : a − 2b + 5c = d y c − a = d ⊂ R4 .

 c 

d
 
(
a − 2b + 5c = d
Obsérvese que es un sistema de ecuaciones lineales
b=c−a
(
a − 2b + 5c − d = 0
que se puede reescribir como . Por lo tanto, esas
b−c+a=0
ecuaciones corresponden al sistema lineal homogeneo A~x = ~0 dado por:
 
  a
1 −2 5 −1  b  = ~0.

1 1 −1 0  c
d

Por lo tanto:
   
a a
b b
 c  ∈ H ⇐⇒ ~v =  c  ∈ Nul(A).
~v =    

d d
 
1 −2 5 −1
En conclusión, H = Nul(A) para A = . Se deja al
1 1 −1 0
lectorque compruebe
 que H también es el espacio columna de la matriz
1 0
−1 1
B=  , esto es, H = Col(B).
0 1
3 3

(d) El espacio columna de A está definido como el conjunto generado por sus
vectores columna. Por tanto,
 todos
 los vectores
   columna
  deA son
 un sis-
 −3 6 −1 1 −7 
tema generador para A:  1  , −2 ,  2  , 3 , −1 .
2 −4 5 8 −4
 

Análogamente para el espacio


 filade A,
 un
 conjunto
 generador serı́a todos

 −3 1 2 



 6  −2 −4 
     
los vectores fila de A:  −1 , 2 , 5  .
     


  1   3   8  
 
−7 −1 −4
 

Encontrar un conjunto generadornpara el espacioo nulo de A no es tan sen-


~
cillo. Recuérdese que Nul(A) = ~x : A~x = 0 es el conjunto solución del
sistema homogéneo A~x = ~0. Para conseguir el conjunto generador, se re-
suelve el sistema y se expresan las soluciones en su forma paramétrica. Una
3.1. Subespacios vectoriales y sistemas generadores 93

vez realizadas las debidas operaciones se tiene que la matriz escalonada re-
ducida y el sistema equivalente asociado al original es:
 
 Operaciones fila 1 −2 0 −1 3 0
requeridas
A 0 ∼  0 0 1 2 −2 0 
0 0 0 0 0 0

Una solución ~x verifica que



x1 − 2x2 − x4 + 3x5 = 0

x3 + 2x4 − 2x5 = 0

x2 , x4 , x5 ∈ R,

esto es,
         
x1 2x2 + x4 − 3x5 2 1 −3
x2   x 2
 1 0 0
         
x3  =  −2x4 + 2x5  = x2 0 + x4 −2 + x5  2 
~x =          
x4   x4  0 1 0
x5 x5 0 0 1

y por tanto el conjunto solución, que no es más que el espacio nulo de A,


viene dado por:
       

 2 1 −3 

1 0 0

 
   

   


Nul(A) = CS = x2 0 + x4 −2 + x5  2  : x2 , x4 , x5 ∈ R.
     


 0 1 0 


 
0 0 1
 

Todos los elementos de Nul(A) son combinaciones lineales de tres vectores.


Por tanto, se tiene que:
     
2 1 −3
1 0
    0
*      +
Nul(A) = 0 , −2 ,  2 
    
0  1   0 
0 0 1

(e) Obsérvese que un vector ~b cualquiera en W debe ser de la forma:


     
6a − b 6 −1
~b =  a + b  = a  1  + b  1  .
−7a −7 0

Por tanto,
  
6 −1
~b ∈ W ⇐⇒ ~b es combinación lineal de  1  y  1  .
−7 0
94 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
 
6 −1
Por tanto, si tomamos A =  1 1  se tiene que
−7 0
* 6  −1+
H = Col(A) =  1  ,  1 
−7 0

Ejercicios para casa: Pág. 202 - 203 Lay, ejercicios 5, 6 y 7.

3.1.3. Conjuntos generadores para Rn


¡Pensemos! Necesitamos saber cuándo Rn =< ~v1 , . . . , ~vk >. Para eso, nece-
sitamos que todos los vectores de Rn sean combinación lineal de los vectores
~v1 , . . . , ~vk . En términos de ecuaciones lineales ¿c+omo serı́a?
Hagamos equivalencias:
Proposición

(
todos los vectores de Rn (∀~b ∈ Rn ) son combinación lineal de ~v1 , . . . , ~vk .
Rn =< ~v1 , . . . , ~vk >⇐⇒
A~x = ~b tiene solución, ∀~b ∈ Rn

Ejemplo 3.1.3 1.    
2 ? 1 0
R = ,
0 1
 
x
Para eso, necesitamos que todos los vectores de R2 sean combinación
y
   
1 0
lineal de y .
0 1
Obsérvese que:
     
x 1 0
=x +y
y 0 1
     
x 1 0
Por tanto, es combinación lineal de y , con pesos x y y.
y   0 1
x
Y esto para cualquier vector .
y
   
1 0
2. ¿Qué ocurre si a , le aumentamos algún vector? La matriz A
 0 1
x
del sistema A~x = tendrá dos pivotes y las demás columnas serán va-
y
riables libres. Infinitas soluciones ⇒ siempre hay solución. Seguirá siendo
un conjunto generador de R2 , pero habrá más de una forma de conseguir
la combinación lineal para cada vector en R2 .
3.1. Subespacios vectoriales y sistemas generadores 95

3.    
1 ? 1
R2 = ,
0 1
   
x x
Sea ∈ Rn cualquiera. Entonces ¿A~x = tiene solución?
y y
MATRIZ AUMENTADA:
   
1 1 x 1 0 x−y

0 1 y 0 1 y
 
x−y
Solución ≡ pesos ~x =
y
 
x
Entonces para cualquier vector ∈ R2 tenemos que:
y
         
x 1 1 2 1 1
= (x − y) + y ⇐⇒ R = ,
y | {z } 0 |{z} 1 0 1
peso peso

         
x 7 7 1 1
Sea = , entonces = (7 − 3) +3
y 3 3 0 1
         
x −1 −1 1 1
Sea = , entonces = (−1 − 1) +1
y 1 1 0 1
etc, etc, etc...
4.
*1 0+
?
R3 = 0 , 1
0 0
    *   +
0 0 1 0
¡No! Contraejemplo: ~v 0 ∈ R3 pero 0 ∈ / 0 , 1 . Por
2 2 0 0
tanto, no pueden ser iguales.
96 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

5. * 1   3   4 +
3 ?
R = −4 ,  2  , −6
−3 −2 −7
 
b1
Sea ~b = b2  cualquier vector de R3 . Entonces, R3 está generado por
   b3      
1 3 4 1 3 4 x1
−4 ,  2  y −6 si y sólo si el sistema de ecuaciones −4 2 −6 x2  =
−3 −2 −7 −3 −2 −7 x3
b1
b2  siempre tiene solución, ∀~b ∈ R3 .
b3
En términos de pivotes, ¿qué debe ocurrir? Que la matriz tenga 3 pivo-
tes. ¿Por qué? Porque si en la matriz escalonada, la última fila es una
fila de ceros, para algunos ~b tendrá solución pero para otros no. Veamos
qué ocurre:
Matriz aumentada del sistema

   
1 3 4 b1 1 3 4 b1
 −4 2 −6 b2  ∼  0 14 10 b2 + 4b1 
−3 −2 −7 b3 0 0 0 b3 + 3b1 − 21 (b2 + 4b1 )

No siempre tendrá solución.


 Sólosi 3b1 − 12 (b
b3 + 2 + 4b1 ) = 0.
+ *   +
1 3 4 1 3
*
Por tanto, R3 6= −4 ,  2  , −6 = −4 ,  2  .
−3 −2 −7 −3 −2
3
Es un plano
  en R .    
4 1 3
Es más, −6 = 13 7
−4 + 5  2 .
7
−7 −3 −2

Conclusión 3.1.1 Para que Rn = h~v1 , . . . , ~vk i, necesitamos evitar que aparez-
ca una fila de ceros en la matriz escalonada de la matriz An×k = (~v1 , . . . , ~vk ).

Rn = h~v1 , . . . , ~vk i ⇐⇒ A~x = ~b siempre tiene solución, ∀~b ∈ Rn


Rn = h~v1 , . . . , ~vk i ⇐⇒ An×k tiene tantos pivotes como filas.
A no necesariamente es cuadrada. Si tiene más columnas que filas, entonces
habrá variables libres. No importa. Pero lo es fundamental es que no haya filas
sin pivotes.

Conclusión 3.1.2 Si Rn está generado por ~v1 , . . . , ~vk , entonces k ≥ n. Esto


es, necesitamos por lo menos n vectores (o más) para generar Rn . Pero aunque
tengamos n vectores o más, no necesariamente van a generar Rn , sólo lo harán
si entre ellos hay n vectores linealmente independientes. Es una implicación en
un sólo sentido.
3.2. Bases, dimensiones y coordenadas de un subespacio. Teorema de la base.
97

Contraejemplo (Ejemplo 5 página anterior) tenemos tres vectores que no


generan a R3 .

3.2. Bases, dimensiones y coordenadas de un


subespacio. Teorema de la base.
Para que la idea quede clara, antes de definir el concepto de base para un
subespacio vectorial se tomará un ejemplo de un subespacio vectorial H con-
creto y se encontrarán varios conjuntos generadores para H. Se sabe por el
Teorema ?? que si H ≤ Rn entonces existe un conjunto generador {v1 , . . . , vk }
para él, esto es, H =< ~v1 , . . . , ~vk >. Sea por ejemplo el subespacio vectorial:
*1 1 2 3+
H = h~v1 , ~v2 , ~v3 , ~v4 i = 2 , 0 , 2 , 2 .
3 0 3 3

Dado que ~v3 = ~v1 + ~v2 , ~v4 = ~v1 + 2~v2 y ~v1 , ~v2 no son múltiplos, al dibujar estos
4 vectores en R3 se pueden comprobar que todos caen sobre un mismo plano.
DIBUJO
Por tanto, todas las combinaciones lineales posibles de estos cuatro vectores
también son todas las combinaciones lineales posibles de, por ejemplo, ~v1 , ~v2 .
Si se hace una lista de otros posibles conjuntos generadores de H se tiene que:

{~v1 , ~v2 } es un conjunto generador de vectores linealmente independientes:


H = h~v1 , ~v2 i .

{~0, ~v1D, ~v2 } es un


E conjunto generador de vectores linealmente dependientes:
H = ~0, ~v1 , ~v2 .

{v1 , ~v2 , ~v3 } es un conjunto generador de vectores linealmente dependien-


tes: H = h~v1 , ~v2 , ~v3 i .

{v1 , ~v3 } es un conjunto generador de vectores linealmente independientes:


H = h~v1 , ~v3 i .

También {~v1 , ~v4 }, {~v2 , ~v3 } ó {~v3 , ~v4 } son conjuntos generadores de vectores
linealmente independientes de H, y cualquier conjunto compuesto por estos
vectores y alguna combinación lineal de ellos será un conjunto generador, pero
de vectores linealmente dependientes. Pero no se puede encontrar un conjunto
generador de un sólo vector para H, ya que en ese caso H serı́a una recta, pero
se ha argumentado anteriormente que es un plano (véase Figura ??). Tampoco
se podrı́a encontrar un conjunto generador para H compuesto de tres vectores
linealmente independientes, ya que en este caso H serı́a todo R3 . En conclusión,
para encontrar un conjunto generador de H son necesarios al menos dos vecto-
res de H pero que además sean linealmente independientes, o un conjunto de
vectores en H donde sólo dos de ellos sean linealmente independientes, y el resto
combinación lineal de los linealmente independientes. Toda esta argumentación
motiva la siguiente definición:
98 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Definición 3.2.1 Sea H ≤ Rn . Se dice que el conjunto de vectores β =


{~v1 , . . . , ~vr } es una base de H si se verifican las siguientes dos condiciones:
(i) {~v1 , . . . , ~vr } es un sistema generador de H, esto es,

H = h~v1 , . . . , ~vr i .

(ii) {~v1 , . . . , ~vr } es un conjunto de vectores linealmente


 independientes, esto
es, si se define la matriz An×r = ~v1 . . . ~vr , entonces

A~x = ~0 =⇒ ~x = ~0.

Se define además la dimensión de H , denotada por dim(H), como el número de


vectores en una base, esto es, si β = {~v1 , . . . , ~vr } es una base para H, entonces
dim(H) = r.
Por ejemplo, en el ejemplo anterior dado que todas las bases de H que se han
encontrado tenı́an dos vectores se tiene que dim(H) = 2. Es más, este valor es
siempre el mismo independientemente de la base que se tome para H:

Teorema 3.2.1 Sea H ≤ Rn . Entonces, la dimensión de H no depende de la


base escogida.
Prueba.


Ejemplos 3.2.1 (a) Sea el subespacio vectorial de R4 :


   
* 1 −2 +
0  0  4
H1 =  1, −2 ≤ R .
  

0 0
| {z } | {z }
~
v1 ~
v2

En general, como H1 tiene un sistema generador de 2 vectores, entonces


H1 puede ser o bien una recta o bien un plano, dependiendo de cuántos
vectores linealmente independientes hayan en ese sistema generador. Dado
que ~v2 = −2~v1 , tanto β1 = {~v1 } como β2 = {~v2 } son bases de H1 , por lo
que H1 es una recta en R4 y dim(H1 ) = 1.
(b) Sea ahora el subespacio vectorial de R4 :
       
* 1 0 1 2 +
0 1 1 3
H2 =  0, 0, 0, 0 .
      

0 0 0 0
| {z } | {z } | {z } | {z }
~
v1 ~
v2 ~
v3 ~
v4

Dado que su sistema generador está compuesto por 4 vectores, H2 podrı́a


ser todo R4 , un subespacio vectorial de dimensión 3 en R4 o un plano en R4 ,
pero nunca serı́a una recta ya que los cuatro vectores que lo generan no son
3.2. Bases, dimensiones y coordenadas de un subespacio. Teorema de la base.
99

múltiplos, ası́ que por lo menos hay dos vectores linealmente independientes
en el conjunto generador {~v1 , ~v2 , ~v3 , ~v4 } de H2 . Como ~v3 = ~v1 + ~v2 , ~v4 =
~v1 + 2~v2 y ~v1 , ~v2 son linealmente independientes, se tiene que β1 = {~v1 , ~v2 }
es una base de H2 . Pero no es la única base, ya que por un argumento
similar se tiene que otras posibles bases son:
        
 1
 1    1
 2 

 0 1   1 3
β2 =  , 
0 0 ó β 3 = 0 0 .
  ,  

  
 
0 0 0 0
   

Por tanto, dim(H2 ) = 2 y H2 es un plano en R4 .

(c) Una base para Rn debe estar compuesta por n vectores linealmente inde-
pendientes de Rn . Por ejemplo, la base más simple es la conocida como
base canónica βc y viene dada por los vectores canónicos:

βc = {e~1 , e~2 , . . . , e~n }

En conclusión, dim(Rn ) = n.

En general, una posible base para una recta que pasa por el origen con dirección
~v es: β = {~v }. Ası́ que la dimensión de una recta es 1. Para generar un plano en
Rn en cambio se necesitan sólo dos vectores linealmente independientes sobre
el plano, por lo que la dimensión de un plano en Rn es 2. Para generar un
subespacio vectorial de dimensión r en Rn son necesarias r direcciones o vecto-
res linealmente independientes sobre el subespacio vectorial, que conformarı́an
una base, y cualquier otro vector añadido tendrı́a que ser combinación lineal
de estos vectores.
Ahora se va a definir el concepto de coordenadas de un vector sobre un
subespacio vectorial asociadas a una base dada. Por tanto, cuando se habla de
coordenadas de un vector, siempre será necesario que ese vector esté dentro de
un subespacio vectorial H y que a ese subespacio vectorial se le asigne una base
fija β.
Obsérvese que por ser β = {~v1 , . . . , ~vr } una base de H ≤ Rn entonces es un
sistema generador H = h~v1 , . . . , ~vr i y además {~v1 , . . . , ~vr } son linealmente in-
dependientes. Entonces, si se tiene un subespacio vectorial H ≤ Rn y un vector
~b ∈ Rn , pueden ocurrir dos cosas: o bien el sistema A~x = ~b es inconsistente,
donde A es la matriz definida en la Definición 3.2.2 para una base cualquiera
de H, y por tanto se tiene que ~b ∈ / H, o bien ~b ∈ H y por tanto A~x = ~b no sólo
es consistente, sino que tiene única solución (véase Proposición ??). Es ası́ que

~b ∈ H ⇐⇒ ∃!λ1 , . . . , λr ∈ R : λ1~v1 + . . . + λr ~vr = ~b,


 
λ1
 .. 
esto es,  .  es la única solución del sistema A~x = ~b. A esta única solución
λr
se le van a llamar las coordenadas de ~b ∈ H en la base β de H:
100 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Definición 3.2.2 Sea H ≤ Rn , β = {~v1 , . . . , ~vr } una base de H, la matriz A


definida como A = ~v1 . . . ~vr y ~b ∈ H.


Como ~b ∈ H =< ~v1 , . . . , ~vr >, entonces A~x = ~b es consistente. Pero además
como {~v1 , . . . , ~vr } son linealmente independientes, la solución es única. A los
pesos ~x del sistema de ecuaciones lineales A~x = ~b en su forma vectorial se le
conoce como las coordenadas de ~b ∈ H en la base β = {~v1 , . . . , ~vr }, y se denota
por:  
x1
~b =  .. 
. .

xr β

Es muy importante entender que el vector ~b ∈ H ≤ Rn , por ser un vector en


Rn , tiene n componentes:  
b1
~b =  . 
 ..  .
bn
Pero por ser un vector dentro de un subespacio vectorial de dimensión r, como
vector en H, tiene r coordenadas para una base β dada:
 
x1
~b =  .
 ..  .
xr β

Las coordenadas dependen de la base escogida, pero una vez fijada la base son
únicas:

Proposición 3.2.1 Sea H ≤ Rn , β = {~v1 , . . . , ~vr } una base de H y ~b ∈ H.


Entonces, las coordenadas de ~b con respecto a la base ~b son únicas.
Prueba.
Como ~b ∈ H = h~v1 , . . . , ~vr i, se sabe que el sistema de ecuaciones A~x = ~b con
A = (~v1 , . . . , ~vr ) tiene solución, y la solución es por definición las coordenadas
de ~b en la base β. Por reducción al absurdo, se supone que el sistema tiene dos
soluciones ~x1 y ~x2 , con componentes:
   
λ1 µ1
λ2  µ2 
x~1 =  .  y x~2 =  . 
   
 ..   .. 
λr µr

Por tanto, A~x1 = ~b y A~x2 = ~b2 implican que:


~b = λ1~v1 + ...+ λr ~vr
~b = µ1~v1 + ...+ µr ~vr
Si se restan estas dos ecuaciones y se reordenan los elementos de la derecha, se
tiene que:
~0 = (λ1 − µ1 ) ~v1 + . . . + (λr − µr ) ~vr
3.2. Bases, dimensiones y coordenadas de un subespacio. Teorema de la base.
101

Obsérvese que esta combinación lineal corresponde en su forma matricial al


sistema homogéneo dado por
 
λ1 − µ1
A ..  ~
 = 0.

.
λr − µr
Como los vectores columna de A forman una base de H, estos son linealmente
independientes y por tanto el sistema homogéneo tiene una única solución,
ası́ que:    
λ1 − µ1 0
..   .. 
 = . ,

 .
λr − µr 0
de donde se deduce que ~x1 = ~x2 , lo cual demuestra que la solución de A~x = ~b
es única. 

Ejemplo 3.2.1 (a) Bases para R2 : para encontrar una base en R2 es sufi-
ciente con dar un conjunto de dos vectores que no sean múltiplos. Sean por
tanto las siguientes bases para R2 :
           
1 0 1 1 1 2
β1 = , ; β2 = , ; β3 = , .
0 1 0 1 1 1
 
~ 2 ~ b
Sea ahora un vector b cualquier en R : b = 1 . Rápidamente sin hacer
b2
ningún cálculo se puede ver que:
         
~b = b1 = b1 1 + b2 0 = (b1 − b2 ) 1 + b2 1 ,
b2 0 1 0 1

por lo que se deducen las coordenadas de ~b en las dos bases β1 y β2 :


     
~b = b1 = b1 b − b2
= 1 .
b2 b2 β b2 β
1 2

Encontrar las coordenadas de un vector ~b ∈ R2 en la base β3 no es tan


fácil, ya que encontrar los pesos λ1 , λ2 en la combinación lineal
     
~b = b1 = λ1 1 + λ2 2
b2 1 1
ahora ya no es trivial. Por eso es que se va a resolver el sistema de ecuaciones
lineales A~x = ~b equivalente:
     
1 2 x1 b
= 1
1 1 x2 b2
| {z }
coordenadas

La matriz aumentada del sistema es:


   
1 2 b1 F2 →F2 −F1 1 2 b1 F2 →(−1)F2
∼ ∼
1 1 b2 0 −1 b2 − b1
102 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

   
1 2 b1 F1 →F1 −2F2 1 0 2b2 − b1

0 1 −b2 + b1 0 1 −b2 + b1
Por tanto, la solución al sistema son los pesos de la combinación lineal, que
al ser únicos se vuelven las coordenadas del vector ~b en la base β3 :
   
~b = b1 = 2b2 − b1
b2 −b2 + b1 β
3

Por completitud, se comprueba que los pesos están bien calculados:


       
 1  2 2b − b1 − 2b
2 + 2b1 b
2b2 − b1 + −b2 + b1 = 2 = 1 .
1 1 2b2 − b1 − b2 + b1 b2
 
2
Sea ahora ~b = . Como b1 = 2 y b2 = 1, se tiene que las coordenadas
1
de este vector en las tres bases dadas son:
       
~b = 2 2 1 0
= = =
1 1 β 1 β 1 β
1 2 3

*   +    
1 1 1 1
(b) Sea ahora H = 1 , 2 ≤ R3 . Como 1 y 2 no son múltiplos,
 1  1 1 1
 1 1 
entonces β1 = 1 , 2 es base de H. Por tanto dim(H) = 2, y H
1 1
 
     
0 1 1
es un plano en R3 . Pero como 1 = 2 − 1, se tiene que β2 =
      0  1 1
 1 0   0 1 
1 , 1 y β3 = 1 , 2 también son bases de H.
1 0 0 1
   

*1 1 0+


Ejercicio 3.3 Sea el subespacio vectorial H = 1 , 2 , 1 .
1 1 0

(a) ¿Qué condición tienen que verificar las componentes de ~b ∈ R3 para que
~b ∈ H? Encuentre un vector en H y otro que no esté contenido en H.

(b) Encuentre tres bases β1 , β2 , β3 para H.


3.2. Bases, dimensiones y coordenadas de un subespacio. Teorema de la base.
103
 
2
(c) Encuentre las coordenadas para 4 en cada una de las bases, e interprete
2
el resultado.
(d) Encontre las coordenadas para ~b ∈ H un vector cualquiera en cada una de
las bases β1 , β2 y β3 .
Solución.
(a)
(b)
(c)
(d)

En las siguientes secciones se va a explicar cómo se pueden encontrar bases
para los subespacios vectoriales Nul(A), Col(A) y Fil(A) asociados a una matriz
A y definidos en las Definiciones ?? y ??.

3.2.1. Base y dimensión para Nul(A).


En el ejercicio ?? se encontró un sistema generador para el espacio nulo
Nul(A) de una matriz A dada. En general, para encontrar un sistema generador
para Nul(A) el proceso es el siguiente: se debe resolver el sistema A~x = ~0 y
escribir la o las soluciones del sistema ~x en forma paramétrica, de tal forma
que se consigue describir a las soluciones de A~x = ~0 como una combinación
lineal de vectores. Por tanto, ~x ∈ Nul(A) si y sólo si es solución de A~x = ~0 que
a su vez es equivalente a que ~x sea una combinación lineal de los vectores que
aparecen en la forma paramétrica de la solución. Ası́, esos vectores serán un
conjunto generador para Nul(A).
Además, de forma automática este sistema generador siempre va a ser base.
Esto es debido a que en cada posición correspondiente a la variable libre que
está saliendo como peso en la combinación lineal, o bien hay un cero o bien hay
un uno. Entonces, al resolver el sistema homogeneo asociado a estos vectores
que forman el conjunto generador para Nul(A) la solución siempre va a ser
única, y por tanto es un conjunto generador de vectores linealmente indepen-
dientes, esto es, una base. Por ejemplo, en el Ejemplo ?? se comprobó que
      

 2 1 −3  
1
     0 
0

      


{~v1 , ~v2 , ~v3 } =  0 , −2 ,  2 
     
0  1   0 

 

 
0 0 1
 

era un conjunto generador de Nul(A), para


 
−3 6 −1 1 −7
A =  1 −2 2 3 −1 .
2 −4 5 8 4
104 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Esto es:      
2 1 −3
    0
1 0
*      +

0 , −2 ,  2  ,
Nul(A) =< ~v1 , ~v2 , ~v3 >=      
0  1   0 
0 0 1

o equivalentemente,
     
2 1 −3
1 0 0
     
0 + λ2 −2 + λ3  2 
~x ∈ Nul(A) ⇐⇒ ~x = λ1~v1 + λ2~v2 + λ3~v3 = λ1      
0 1 0
0 0 1

Para comprobar que {~v1 , ~v2 , ~v3 } son linealmente independientes se debe re-
solver el sistema homogéneo B~x = ~0 asociado a estos vectores, esto es, si
B = (~v1 ~v2 ~v3 ), se toma ~x = ~0 en la expresión anterior y se encuentran los
pesos λ1 , λ2 , λ3 en la combinación lineal. Los vectores {~v1 , ~v2 , ~v3 } serán lineal-
mente independientes si se demuestra que los pesos valen cero:
 
2 1 −3    
1 0
0 0 x1 0
B~x = ~0 ⇐⇒ 

0 −2 2 x2 = 0 .
   
0 1 0  x3
0
0 0 1

Obsérvese la segunda fila en esta matriz B corresponde a la primera variable


libre λ1 al resolver el sistema homogéneo original A~x = ~0: como esta variable
sólo aparece en el primer vector, esta fila es (1 0 0) lo que equivale a la
ecuación x1 = 0. Si se hace la misma comprobación en la cuarta fila, que
equivale a la segunda variable libre al resolver el sistema A~x = ~0, se tiene que
x2 = 0, y lo mismo para la quinta fila, donde se tiene que ~x3 = 0. Por tanto,
los vectores {~v1 , ~v2 , ~v3 } son linealmente independientes y forman una base para
Nul(A).
Esto no sólo ocurre en este caso en concreto, sino que en general para cual-
quier matriz A, al resolver el sistema homogéneo A~x = ~0 para encontrar un
sistema generador para Nul(A) y escribir las soluciones como una combinación
lineal donde los pesos son las variables libres, la fila correspondiente a cada
variable libre en los vectores que forman la combinación lineal siempre va a ser
del tipo (0 . . . 0 1 0 . . . 0) y por tanto, al igualar esta combinación a
~0, va a obligar a que cada variable libre (que corresponden a los pesos en la
combinación lineal) valga cero, por tanto el sistema generador siempre va a ser
automáticamente linealmente independiente, y por tanto base.
En conclusión, una base para Nul(A) tiene tantos vectores como variables
libres tiene la matriz A, y por tanto la dimensión de Nul(A) es el número de
variables libres de A:

dim(Nul(A)) = número de variables libres en A.


3.2. Bases, dimensiones y coordenadas de un subespacio. Teorema de la base.
105

3.2.2. Base y dimensión para Col(A).


En esta sección se toman dos ejemplos para explicar cómo se consigue la base
del espacio columna de una matriz:
 
1 2 1
(a) Sea A = 1 3 2. Entonces, el subespacio vectorial llamado el espacio
1 3 2
columna de A está generado por los vectores columna de A:
*     +
1 2 1
Col(A) =< ~v1 , ~v2 , ~v3 >= 1 , 3 , 2
1 3 2
Es fácil comprobar que ~v2 −~v1 = ~v3 y ~v1 , ~v2 son linealmente independientes,
por lo que β = {~v1 , ~v2 } es una base de H. Pero existe otra forma de
encontrar una base para Col(A), en caso de que el sistema generador sea
muy grande, o no sea tan fácil encontrar los vectores que son linealmente
independientes, y los que se pueden escribir como combinación lineal de
estos. Si se calcula la matriz escalonada reducida de A se tiene que es
 
1 0 −1
0 1 1  .
0 0 0
Obsérvese que las dos primeras columnas corresponden a las variable pi-
vote, y que además, al ser vectores canónicos, son trivialmente linealmente
independientes, mientras que la tercera columna, que corresponde a la va-
riable libre, se puede escribir como combinación lineal de las dos primeras
columnas de la siguiente forma:
     
−1 1 0
 1  = −1 0 + 1 1 .
0 0 0
Esta información proporcionada por la matriz escalonada reducida también
ocurre en la matriz original. Esto es, si en la matriz escalonada reducida las
columnas pivote son linealmente independientes, entonces también lo serán
las columnas en la matriz original A. Y si en la matriz escalonada reducida
se verifica que la tercera columna es -1 vez la primera más la segunda,
también se verificará en la matriz original, de tal forma que ~v3 = −~v1 + ~v2 ,
como ya se habı́a comprobado antes. Esto ocurre siempre. En el siguiente
ejemplo se toma una matriz mayor, y se comprueba cómo lo argumentado
es cierto también para esta matriz.
 
−3 6 −1 1 −7
(b) Sea ahora A =  1 −2 2 3 −1. El espacio columna de A está ge-
2 −4 5 8 −4
nerado por todos los vectores columna de A, esto es:
*−3  6  −1 1 −7+
Col(A) =< ~v1 , ~v2 , ~v3 , ~v4 , ~v5 >=  1  , −2 ,  2  , 3 , −1 .
2 −4 5 8 −4
106 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Obviamente, este sistema generador no es una base, ya que al ser 5 vectores


en R3 estos son linealmente dependientes. Para encontrar los vectores que
son linealmente independientes, siguiendo el argumento del ejemplo ante-
rior, se deben tomar los vectores columna de la matriz A que corresponden a
las variables pivote. El resto se van a poder escribir como combinación lineal
de estos vectores, y la relación de dependencia lineal la proporcionará la
matriz escalonada reducida. Si se calcula la matriz escalonada reducida, se
tiene que es  
1 −2 0 −1 3
 0
 0 1 2 −2 .
 0 0 0 0 0 
|{z} |{z} |{z} |{z} |{z}
~
v1 ~
v2 ~
v3 ~
v4 ~
v5

Como la primera y la tercera columna corresponden a las variables pivote,


entonces β = {~v1 , ~v3 } es una base de Col(A), y por tanto dim(Col(A)) = 2
y es un plano en R3 . Además, como la segunda columna en la matriz
escalonada reducida es -2 veces la primera, entonces:
   
6 −3
~v2 = −2~v1 =⇒ −2 = −2  1  ;
−4 2

como la cuarta columna en la forma escalonada reducida es -1 veces la


primera más 2 veces la tercera, entonces:
     
1 −3 −1
~v4 = (−1)~v1 + 2~v3 =⇒ 3 = −1  1  + 2  2  ;
8 2 5

por último, como la quinta columna es 3 veces la primera menos dos veces
la segunda, entonces
     
−7 −3 −1
~v5 = 3~v1 − 2~v3 =⇒ −1 = 3  1  − 2  2  .
−4 2 5

Esto ocurre siempre, se tome la matriz A que se tome. Las columnas corres-
pondientes a las variables pivote formarán una base de Col(A), mientras que
las columnas correspondientes a las variables libres (siempre en la matriz origi-
nal) serán combinaciones lineales de las columnas pivote. Estas combinaciones
lineales se pueden encontrar analizando la matriz escalonada reducida de A,
como se ha hecho en el ejemplo.
En conclusión, la dimensión de Col(A) el espacio columna de A es el número
de elementos de una base, por tanto, es el número de variables pivote de la
matriz:
dim(Col(A)) = número de variables pivote en A.

3.2.3. Base y dimensión para Fil(A).


Dada una matriz A, el subespacio vectorial llamado el espacio fila de A se de-
fine como el subespacio vectorial generado por los vectores fila de A. Obsérvese
3.2. Bases, dimensiones y coordenadas de un subespacio. Teorema de la base.
107

que al encontrar la matriz escalonada de A (sin intercambio de filas) se hacen


operaciones fila, esto es, se cambian vectores fila por combinaciones lineales de
estos vectores fila, por lo que el espacio vectorial Fil(A) no cambia. Esto es,
el sistema generador de Fil(A), al hacer las operaciones fila excluyendo inter-
cambio de filas, para encontrar la matriz escalonada, sigue siendo un sistema
generador de Fil(A), por lo que
Fil(A) = Fil(U ) donde U es su matriz escalonada
En conclusión, dado que son el mismo subespacio vectorial, para encontrar una
base de Fil(A) sólo es necesario encontrar una base de Fil(U ). Y ésta se en-

cuentra tomando todos los vectores fila de U salvo los vectores fila 0 . . . 0 .
En este caso también, la dimensión de Fil(A) corresponde al número de pivotes
que tiene la matriz A:
dim(Fil(A)) = número de variables pivote en A.
 
1 2 1
Por ejemplo, sea la matriz A = 1 3 2. Ası́,
1 3 2

  
F il(A) = 1 2 1 , 1 3 2 , 1 3 2 .
 
1 2 1
Su forma escalonada es U = 0 1 1, por lo que una base para Fil(A) es:
0 0 0
  
β= 1 2 1 , 0 1 1
Obsérvese por último que si dos matrices son equivalentes por filas, esto es, si
se puede pasar de una a otra mediante operaciones fila, entonces su espacio fila
es el mismo, pero su espacio columna no. Para finalizar esta sección se propone
un ejercicio:
 
0 1 4
Ejercicio 3.4 Sea A = 1 2 −1. Describa geométricamente Col(A).
5 8 0
*     +
      
0 1 4  0 1 4 
Resolución. Col(A) = 1 , 2 , −1 . Por tanto, 1 , 2 , −1
5 8 0 5 8 0
 
es un sistema generador de Col(A). Para que sea una base, además, es necesario
que sean linealmente independientes. Si se calcula la forma escalonada de esta
matriz se tiene que es
 
1 2 −1
0 1 4  son l.i. por lo que forman una base
0 0 13
Como hay tres pivotes, Col(A) es un subespacio vectorial de R3 de dimensión
3, esto es, Col(A) = R3 . Los tres vectores columna de A forman una base para
R3 y además A~x = ~b será consistente y con solución única, para todo ~b ∈ R3 .

108 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

3.3. Teorema de la Base y del Conjunto


generador, Teorema del Rango, y
Caracterizaciones para matrices invertibles
3.3.1. Teorema de la base y del conjunto generador
Teorema 3.3.1 (Teorema del conjunto generador) Sea H ≤ Rn y S =
{~v1 , . . . , ~vp } un conjunto generador de H.
Entonces:

(a) si ~v1 es c.l. del resto, entonces S − {~vi } también es un sistema generador.
(b) algún subconjunto S 0 ⊆ S es base de H.

Prueba.


Teorema 3.3.2 (Teorema de la base) Sea H ≤ Rn y dimH = p


Entonces:

(a) si {~v1 , . . . , ~vp } es un sistema generador de H, entonces es una base de H.


(b) si {~v1 , . . . , ~vp } es un sistema l.i., entonces es una base de H.

Prueba.


Corolario 3.3.1 Si H ≤ Rn , entonces dimH ≤ n.


Prueba.


Corolario 3.3.2 Todo sistema de vectores l.i. se puede expandir a una base de
H.
Prueba.


Corolario 3.3.3 Si H ≤ Rn y dimH = p, entonces cualquier conjunto de más


de p vectores de H es linealmente dependiente.
Prueba.


Corolario 3.3.4 Si H = h~v1 , . . . , ~vk i ≤ Rn , entonces dimH ≤ r.


Prueba.


Teorema 3.3.3 Sea H ≤ Rn . Entonces, cualquier base de H se puede expandir


a una base de Rn .
3.3. Teorema de la Base y del Conjunto generador, Teorema del Rango, y
Caracterizaciones para matrices invertibles 109
Prueba. Para conseguir una base de Rn necesitamos n vectores l.i.
Sea β = {~v1 , . . . , ~vk } una base de H. Ya tenemos r vectores l.i. en Rn . Faltan
n − r.
Tomamos un vector cualquiera ~vr+1 en Rn − H. Entonces, ~vr+1 no es c.l. de
{~v1 , . . . , ~vk }, ası́ que {~v1 , . . . , ~vr+1 } son l.i. Ahora tomamos un vector cualquiera
~vr+2 en Rn − h~v1 , ~v2 , . . . , ~vr , ~vr+1 i
Como ~vr+2 no es c.l. de {~v1 , . . . , ~vr+1 }, entonces {~v1 , . . . , ~vr+2 } son l.i.
Continuamos el proceso hasta conseguir n vectores l.i.


3.3.2. Teorema del rango


Definición 3.3.1 Se define el rango de una matriz Am×n como la dimensión
de su espacio columna:
rg(A) = dim (Col(A)) .
Obsérvese que, dado que el espacio columna es el espacio vectorial generado por
los vectores columna de A, la dimensión deCol(A) es el número de vectores en
una base de A, que corresponde al número de pivotes que tiene A, o a cuántos
vectores columna linealmente independientes hay en la matriz A. Esto es:

rg(A) = # de variables pivotes de A


= # de vectores columna linealmente
independientes de A.

Además, el número máximo de pivotes que puede tener una matriz no puede
superar el número de filas si es que hay más columnas que filas, y no puede
superar el número de columnas en caso contrario. Si el valor c = mı́n{a, b}
corresponde al valor más pequeño o mı́nimo entre a y b, entonces se verifica
que:
rg(A) ≤ mı́n {n, m}.
La demostración del siguiente teorema es trivial. Si se toma dim(Col(A)) y se
le suma dim(Nul(A)), se estará sumando el número de pivotes con el número
de variables libres, por lo que el resultado es el número de columnas:

Teorema 3.3.4 (Teorema del Rango) Sea Am×n una matriz. Entonces,

rg(A) + dim (Nul(A)) = n.

Este teorema se aplica de la siguiente manera, en problemas con matrices de


dimensiones dadas: Ejemplos

1. Sea A una matriz de 7 × 9 y supongamos que dim (Nul(A)) = 2. ¿Cuál


es el rango de la matriz?
Respuesta. Obsérvese que rg(A) ≤ 7. Por el teorema del rango, se tiene
que:
rg(A) + 2 = 9;
por lo tanto rg(A) = 7. Bajo esta premisa se puede deducir que A7×9 no
es invertible pero A~x = ~b siempre tiene solución (es más, tiene infinitas
110 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

soluciones) para cualquier ~b ∈ R7 , los vectores columna de A son un


sistema generador pero no una base de R7 , y Col(A) = R7 .

2. ¿Puede una matriz A de dimensión 6 × 9 tener un espacio nulo de dimen-


sión 2?
Respuesta. Obsérvese que rg(A) ≤ 6. Por el teorema de rango

rg(A) + 2 = 9;

Por tanto, rg(A) = 7. Pero A máximo puede tener 6 pivotes, no 7, por lo


que es imposible que Nul(A) = 2. Deberı́a verificar Nul(A) ≥ 3.

3.3.3. Más caracterizaciones de matrices invertibles


Sea Am×n una matriz cuadrada. La definición formal que se adoptó para que
una matriz cuadrada sea invertible fue el que existiera una matriz D = A−1 , a
la que se le llamarı́a la inversa de A, tal que AA−1 = I = A−1 A (véase sección
??). Pero en la Sección ?? se vieron otras formas alternativas y equivalentes
a esta definición. Una de ellas fue que A era invertible si y sólo si todos sus
vectores columna eran linealmente independientes.
En esta sección se van a enunciar y demostrar formas alternativas de definir
una matriz invertible, usando bases, conjuntos generadores, Nul(A) y Col(A):

Teorema 3.3.5 Sea An×n una matriz cuadrada. Entonces, todos estos enun-
ciados son equivalentes:

(a) A es invertible;

(b) los vectores columna de A generan a todo Rn ;

(c) los vectores columna de A forman una base de Rn ;

(d) dim (Col(A)) = n;

(e) dim (Nul(A)) = 0;

(f ) rg(A) = n;
n o
(g) Nul(A) = ~0 ;

(h) Col(A) = Rn .

Prueba.

Es más, obsérvese que si A es invertible se sabe que A~x = ~b siempre tendrá so-
lución única para cualquier vector ~b ∈ Rm , por lo que la solución única corres-
ponderán exactamente a las coordenadas del vector ~b de Rn asociadas a la base
de Rn formada por los vectores columna de la matriz invertible A.
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 111
3.4. Interpretación geométrica de un sistema de
ecuaciones lineales y de su conjunto solución
Muchas veces se estudia la resolución de sistemas de ecuaciones lineales y
se obvia la fuerte interpretación geométrica que estas soluciones involucran. Es
por ello que en esta sección se intentará esclarecer qué objeto geométrico se
esconde detrás de la solución de un sistema de ecuaciones lineales. Para ello, se
comenzará con ejemplos concretospara generalizar más tarde a un sistema de
ecuaciones lineales A~x = ~b con m ecuaciones y n incógnitas.

3.4.1. Interpretación geométrica de las soluciones de A~x = ~0


y A~x = ~b
Para poder dar una interpretación general de las soluciones de un sistema de
ecuaciones lineales de forma general, primero se van a resolver algunos sistemas
de ecuaciones lineales y se va a analizar lo que ocurre.

Ejemplo 3.4.1 Encuentre el conjunto solución de los siguientes sistemas de


ecuaciones lineales:

 x
 −4/3z = 0,
1. y = 0, . La solución es obviamente la solución trivial:

z = 0.

~x = ~0, por lo que el conjunto solución es:

CS = {~0}.

 x
 −4/3z = 1,
2. y = 1, . La solución es un punto, y es fácil ver que es

z = 1.

7
3
el punto p =  1 , por lo que el conjunto solución es:
1
 7 
 3 
CS =  1  .
1
 

Obsérvese que la matriz de coeficientes A para estos dos ejemplos es la misma:


 
1 0 −4/3
A 0 1 0 .
0 0 1

Además, la forma escalonada reducida de esta matriz es la identidad, por lo


n
que A es una matriz invertible y sus vectores columna forman una base de R .
1
Por tanto, en este caso no sólo para el vector ~b = 1 el sistema A~x = ~b tiene
1
112 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

solución única, sino que A~x = ~b tendrá solución para cualquier ~b ∈ Rn . Esto
es, Col(A) = R3 .

Ejemplo 3.4.2 Encuentre el conjunto solución de los siguientes sistemas de


ecuaciones lineales:

 x
 −4/3z = 0,
1. y = 0, . Como la tercera ecuación es la suma de las

x +y −4/3z = 0.

dos primeras, se deduce que el sistema va a tener una variable libre, z.
Una vez realizados los cálculos, el conjunto solución viene dado por:
 4  * 4 +
 3  3
CS = x3  0  : x3 ∈ R =  0  .
1 1
 

Como se está resolviendo un sistema homogéneo, el conjunto solución


coincide, por definición, con el espacio nulo de A, Nul(A), por lo que:
* 4  +
3
Nul(A) = 0 .
1
4
3
Si se dibujan todos los vectores que son múltiplos del vector  0  se
1
4
3
obtiene la recta que pasa por el origen con dirección  0 . Por tanto,
1
Nul(A), esto es, el conjunto solución del sistema, es una recta que pasa
por el origen en R3 .

 x
 −4/3z = 2,
2. y = 1, . De nuevo, la tercera ecuación es la suma

x +y −4/3z = 3.

de las dos primeras por lo que va a haber una variable libre. Es más, el
conjunto solución de este sistema no homégeneo es:
  4    * 4 +
 2 3  2 3
CS = 1 + x3  0  : x3 ∈ R = 1 +  0  .
0 1 0 1
 

En este caso, si se dibujan los puntos que corresponden a los vectores del
conjunto solución (en la dualidad punto/vector explicada
  en la página
2
??), se obtiene la recta que pasa por el punto 1 con dirección el
0
4
3
vector  0 . Por tanto, el conjunto solución de este sistema es la recta
1
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 113
 
2
Nul(A) trasladada al punto 1, por lo que deja de ser un subespacio
0
vectorial, ya que ya no pasa por el origen:
 
2
CS = 1 + Nul(A).
0

 x
 −4/3z = 2,
3. y = 1, . Dado que la información de la tercera ecua-

x +y −4/3z = 1.

ción no coincide con la dada en las dos primeras ecuaciones, resulta que
el sistema es inconsistente.
De nuevo la matriz de coeficientes A para estos tres ejemplos es la misma:
 
1 0 −4/3
A 0 1 0 .
1 1 1
Al calcular la forma escalonada de la matriz se obtiene una última fila de
ceros y dos pivotes, por lo que Col(A) es un plano en R3 . El sistema A~x =
~0 siempre tiene solución y en este caso tiene infinitas soluciones porque los
vectores columna de A son linealmente dependientes. Es por eso que si A~x = ~b
es inconsistente como en el tercer caso, es porque ~b ∈
/ Col(A). Pero si A~x = ~b
es consistente para un ~b ∈ R es porque ~b ∈ Col(A) como en el segundo caso.
3

Obsérvese que, en este último caso, la solución siempre será un punto –que
dependerá del vector ~b ∈ Col(A)– más Nul(A).

Ejemplo 3.4.3 Encuentre el conjunto solución de los siguientes sistemas de


ecuaciones lineales:
1. x − 4/3z = 0. Éste es un sistema homogéneo de una única ecuación lineal.
Por lo que existen dos variables libres, y, z, y el conjunto solución viene
dado por:
   4  *   4 +
 0 3  0 3
CS = y 1 + z  0  : y, z ∈ R = 1 ,  0  .
0 1 0 1
 

En este caso, el conjunto solución es el espacio nulo de la matriz A =


1 0 −4/3 , esto es,
*0  4 +
3
Nul(A) = 1 ,  0  .
0 1
El conjunto solución, que al ser un sistema homogéneo, coincide con el
3
espacio nulo 
de A, es
 4un plano en R que pasa por el origen generado por
0 3
los vectores 1 ,  0 .
0 1
114 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

2. x − 4/3z = 7. Éste es un sistema no-homogéneo en R3 constituido por


una única ecuación lineal, y el conjunto solución es:

    4    *   4 +
 7 0 3  7 0 3
CS = 0 + y 1 + z  0  : y, z ∈ R = 0 + 1 ,  0  .
0 0 1 0 0 1
 

Obsérvese que por el caso anterior, el conjunto solución de este sistema


se puede reescribir como:

 
7
CS = 0 + Nul(A).
0

De nuevo en este caso, el conjunto solución del sistema no 


homogeneo es
4
  
0 3
el plano Nul(A) en R3 generado por lo vectores 1 ,  0 , desplazado
0 1
 
7
desde el origen al punto 0.
0

Gracias a los ejemplos presentados anteriormente se va a poder entender mejor


el resultado que se quiere exponer a continuación. A continuación se generaliza
la interpretación geométrica del conjunto solución de un sistema no-homogéneo:

Generalización de la interpretación geométrica de las soluciones de A~x = ~0


y A~x = ~b, para una matriz A Sea Am×n y el sistema homogéneo asociado
A~x = ~0. El conjunto solución de este sistema se conoce como el espacio nulo
de A, se sabe que es un subespacio vectorial de Rn de dimensión el número de
las variables libres de A (véase Secciones ?? y ??). Sea ahora el sistema no-
homogéneo A~x = ~b para un ~b ∈ Rm tal que A~x = ~b es consistente. Entonces, el
conjunto solución del sistema A~x = ~b viene dado por un punto p~ ∈ Rn más el
espacio nulo de la matriz A:

CS = p~ + Nul(A).

Esto es, es el subespacio vectorial Nul(A) desplazado desde el origen al punto


p~. EL punto p~ es una solución particular del sistema A~x = ~b, y para conseguir
el resto de soluciones sólo es necesario sumarle a la solución particular p~ las
soluciones del sistema homogéneo asociado a A.
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 115

Obsérvese que, si A~x = ~0 tiene una única solución –los vectores columna de A
son linealmente independientes– entonces, o bien A~x = ~b es inconsistente y por
tanto ~b ∈
/ Col(A), o bien A~x = ~b es consistente, con una única solución, y esa
solución son las coordenadas de ~b en la base de Col(A) dada por los vectores co-
lumna de A. Además, el conjunto solución no es un subespacio vectorial porque
el origen no está contenido en las soluciones de un sistema no-homogéneo.

3.4.2. Interpretación geométrica de un sistema de


ecuaciones lineales
Se desea saber qué representa geométricamente una ecuación lineal a1 x1 +
. . . + an xn = b con n incógnitas. Obsérvese que, para n = 2, una ecuación lineal
en R2 viene dada por ax + by = c. Los valores a, b, c ∈ R son fijos2 , mientras
que x, y varı́an. En realidad, si uno calculara los puntos (x, y) en R2 (o posibles
valores para las incógnitas x, y) tal que satisfacen la ecuación lineal ax + by = c
y los dibujara en el plano R2 , descubrirı́a que estos puntos forman una recta
en R2 . Por lo que dicha ecuación representa la ecuación de una recta en el
plano.
Una ecuación lineal en R3 viene dada por ax + by + cz = d. De nuevo, los
valores a, b, c, d ∈ R son fijos, mientras que x, y, z varı́an. Además, los puntos
(x, y, z) ∈ R3 que satisfacen la ecuación lineal ax + by + cz = d forman un plano
en R3 . Por lo que dicha ecuación representa la ecuación de un plano en el
espacio.

Ejercicio 3.5 Dibuje la recta x + y = 2 en R2 y el plano x + y = 2 en R3 .

Solución. La recta x + y = 2 en R2 es la recta y = −x + 2, por lo tanto es la


recta con pendiente m = −1 que pasa por el punto (0, 2). El plano x+y = 2, en
cambio, son aquellos puntos (x, y, z) en R3 que satisfacen la ecuación x + y = 2.
2 Conocidos, dados, esto es, son datos.
116 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Obsérvese que en este caso z puede tener cualquier valor, mientras que las va-
riables x, y satisfacen obligatoriamente la ecuación y = −x + 2. Por lo tanto, el
plano x + y = 2 es aquel que se consigue trasladando la recta x + y = 2 situada
sobre el plano z = 0 a lo largo del eje z. 

Ateniendose uno a lo argumentado anteriormente, al menos para n = 2 y


n = 3 una ecuación lineal es una ecuación que representa a rectas o planos,
esto es, a objetos geométricos que no están doblados ni tienen picos. De ahı́ la
palabra lineal, ya que son tan rectos como las lı́neas. Por ejemplo, se podrı́a
pensar en un plano como una alineación de infinitas rectas paralelas.
En general:

Definición 3.4.1 Se dice que los puntos P = (p1 , . . . , pn ) ∈ Rn que verifican


la ecuación lineal a1 x1 + . . . + an xn = b forman un hiperplano en Rn .
Dicho de otra manera, los puntos que satisfacen la ecuación a1 x1 +. . .+an xn = b
representan una figura geométrica plana (sin curvatura, ni dobleces, ni picos)
en Rn , con una dirección menos que Rn .
Una vez que está claro qué es una ecuación lineal en Rn y su interpretación
geométrica, se puede dar paso a la interpretación geométrica de un sistema de
ecuaciones lineales y su conjunto solución.

3.4.3. Cómo representar una recta en R3


Por lo argumentado anteriormente una ecuación lineal en R3 representa un
plano, en cuanto que los puntos que los puntos que verifican la ecuación alge-
braica están sobre un plano en R3 (véase el ejemplo ??). Pero para representar
una recta en R3 no se puede usar una única ecuación lineal. La pregunta es:
¿cómo se podrı́a representar una recta en el espacio?
Para responder a esta pregunta, se estudia la posición relativa de dos pla-
nos. Supóngase que se tienen dos planos en R3 . Entonces, existen tres posibles
posiciones relativas para estos dos planos: o bien son paralelos, o bien son el
mismo plano, o ninguna de las dos anteriores.

Dos planos que intersecan Dos planos paralelos Si los dos planos son el
en una recta mismo plano

Figura 3.1: Posición relativa de dos planos en el espacio.

Por tanto, al menos geométricamente una recta en el plano se podrı́a re-


presentar como los puntos en la intersección de dos planos. Esto es, una recta
estarı́a constituida por los puntos que están contenidos simultaneamente en dos
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 117
planos, siempre y cuando estos dos planos estén en la primera posición relativa
de la figura 3.1. En conclusión, si un punto está sobre una recta en R3 , enton-
ces bajo las premisas anteriores este mismo punto deberı́a estar a la misma vez
sobre los dos planos que al intersecar dan la recta inicial.
Esto se representa con un sistema de ecuaciones lineales de la siguiente ma-
nera: si (x, y, z) está sobre la recta deseada, y esa recta está sobre los dos planos
que intersecan en la recta dada, entonces el punto (x, y, z) de la recta debe ne-
cesariamente verificar las dos ecuaciones de los planos simultaneamente. Esto
es, la solución al sistema de ecuaciones lineales
(
a1 x + a2 y + a3 z = c1 ,
b1 x + b2 y + b3 z = c2

representarı́a una recta en R3 , en caso de que la posición relativa de los dos


planos dados sea la correcta.
Si en cambio los dos planos son un mismo plano, entonces el sistema de ecua-
ciones anterior representarı́a a todo el plano, mientras que si fueran dos planos
paralelos no existirı́an puntos en común y por tanto el sistema de ecuaciones
anterior no tendrı́a solución.

3.4.4. Caso general


Si un punto P = (p1 , p2 , . . . , pn ) ∈ Rn está sobre el hiperplano a1 x1 + . . . +
an xn = b, eso quiere decir que satisface la ecuación del hiperplano obligatoria-
mente, ası́ que
a1 p1 + a2 p2 + . . . + an pn = b.
Si un punto P = (p1 , p2 , . . . , pn ) ∈ Rn está sobre dos hiperplanos, entonces
satisface la ecuación de los dos hiperplanos. Ası́ que P es solución del sistema:
(
a11 x1 + . . . + a1n xn = b1 ,
a21 x1 + . . . + a2n xn = b2 .

En general, si P ∈ Rn es solución del sistema



a x + . . . + a1n xn = b1 ,
 11 1


..
 .

a x + . . . + a x = b .
m1 1 mn n n

entonces P está sobre todos los hiperplanos definidos por cada ecuación del
sistema de ecuaciones lineales. O dicho de otra manera, P está en la intersección
de todos los hiperplanos.

Conclusión 3.4.1 (1) Si el sistema es inconsistente, es porque no hay un pun-


to en común para todos los hiperplanos del sistema de ecuaciones lineales.
(2) Si el sistema es consistente y la solución es un único punto, es porque hay
un único punto en común para todos los hiperplanos. Los hiperplanos del
sistema de ecuaciones lineales intersecan en un único punto.
118 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

(3) Si hay más de una solución para el sistema, es porque la intersección entre
los hiperplanos es un objeto geométrico con más de un punto. Es más,
este objeto geométrico ya se ha estudiado en la sección ??, y vendrá dado
por un punto o solución particular p~ más Nul(A), siendo A la matriz de
coeficientes del sistema.

Ejemplo 3.4.4 1. Supongamos que tenemos un sistema de dos ecuaciones


lineales y dos incógnitas. La solución es la intersección de dos rectas en
el plano. Como dos rectas en R2 sólo puede ser o paralelas, o la misma
recta, o dos rectas con distinta pendiente, entonces la solución de este
sistema podrı́a ser, respectivamente: no hay solución (si son paralelas),
hay infinitas soluciones (si son la misma recta) o hay una única solución
(si son rectas con distintas pendientes).

Figura 3.2: Posición relativa de dos rectas en el plano.

2. De la misma forma, la posición relativa entre dos planos en R3 sólo puede


ser: o paralelos, o el mismo plano, o dos planos con distintas normales.

Figura 3.3: Posición relativa de dos planos en el espacio.

Por tanto, un sistema de dos ecuaciones con tres incógnitas o no tiene


solución o tiene infinitas soluciones (una recta o el mismo plano), pero
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 119
nunca tendrá una única solución.

3. Supongamos que tenemos tres ecuaciones lineales con tres incógnitas. La


solución de ese sistema de ecuaciones lineales supone la intersección de
tres planos en el espacio. Si el sistema es inconsistente, las posibles posi-
ciones relativas de esos tres planos en R3 sólo pueden ser las siguientes:

Figura 3.4: Sistema inconsistente de tres ecuaciones y tres incógnitas

4. Para tener un sistema consistente con una única solución en R3 , obligato-


riamente necesitamos tres planos que tengan los tres distintas normales,
por lo que necesitarı́amos tres ecuaciones lineales con tres incógnitas y
que además la posición relativa de los planos asociados a cada ecuación
se la siguiente:

Figura 3.5: Sistema consistente de tres ecuaciones y tres incógnitas, con una
única solución.

Interpretación geométrica de la solución del ejemplo de la página 47:


120 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

 2x + y + z = 5

Los tres planos 4x − 6y = −2 cortan en un único

−2x + 7y + 2z = 9

 
1
punto, P = 1. Por tanto, la posición relativa de estos tres planos es:
2

Ejercicio 3.6 ¿Para qué valores de h y k es consistente el siguiente sistema


de ecuaciones lineales?:

2x1 − x2 = h
−6x1 + 3x2 = k

Solución. Cada ecuación representa una recta en R2 . Como se pide que el


sistema de ecuaciones lineales tenga solución, es necesario que estas dos rectas
no sean paralelas. Obsérvese que −6x1 + 3x2 = −3(2x1 − x2 ). Por tanto:

si k = −3h son la misma recta,

 son la misma recta y por tanto, la solución


2x1 − x2 = h
es esa misma recta.
−6x1 + 3x2 = −3h
| {z }
sistema consistente

Si k 6= −3h son rectas paralelas, con misma pendiente. Sistema inconsis-


tente.

En este caso, al tener las dos rectas la misma pendiente, es imposible que la
solución sea única. O bien la solución es la misma recta (si k = −3h), o bien
son dos rectas paralelas y el sistema es inconsistente (si k 6= −3h). Las posibles
posiciones relativas son:
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 121
son paralelas ó son la misma recta

     
1 0 1
~ = 1 , b~1 =  0  , b~2 =
Ejercicio 3.7 Sean los vectores ~v = 1 , w
  0 1 −1
1
1.¿b~1 , b~2 ∈< v~1 , v~2 >?
1

Solución. Por ejemplo, para este último caso, las ecuaciones a resolver para
que ~b1 ∈< ~v , w
~ > son:

x = 1

x+y =0

y = −1

Si dibujamos estas tres rectas en R2 se tiene que:

y como intersecan en el punto (x0 , y0 ) = (1, −1), existe solución y es única.


Ası́, ~b1 es c.l. de ~v , w
~ y ~b1 ∈< ~v1 , ~v2 >.
En cambio, para que ~b2 ∈< ~v , w ~ > las ecuaciones a resolver son:

x = 1

x+y =1

y=1

y si dibujamos la tres rectas en R2 se comprueba que no hay puntos en común


en las tres,

por lo que el sistema es inconsistente y ~b2 no es c.l. de ~v , w.


~ En conclusión,
~b2 ∈<
/ ~v1 , ~v2 >. 
122 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

3.5. Transformaciones lineales y matriciales


Sea A una matriz de m × n : A~x = ~b

A~x la imagen de ~x mediante A.


A transforma vectores de Rn en vectores de Rm : veamos esto en términos de
una aplicación ≡ función.

A~0 = ~0 toda matriz manda el cero al cero.


A (~v + w)
~ = A~v + Aw ~ ∈ Rn es la suma de las imágenes de
~ La imagen de ~v + w
n
~v ∈ R y w~ ∈ Rn
A (λ~v ) = λA(~v ) La imagen de λ~v mediante A es λ veces la imagen de ~v
mediante A.

Definición 3.5.1 Se define una transformación lineal como aquella aplicación


que verifica que:

(i) T (~0) = ~0
(ii) T (~v + w)
~ = T (~v ) + T (w)
~ Preserva la suma
(iii) T (λ~v ) = λT (~v ) Preserva el producto escalar

Definición 3.5.2 Se define una transformación matricial asociada a Am×n a


aquella aplicación
T : Rn −→ Rm
~x A~x
Conclusión: Toda transformación matricial es lineal.
Demostración
T (~x) = A~x verifica las 3 propiedades de transformación lineal.
Ejemplo
1. T (x1 , x2 , x3 ) = (x1 –5x2 + 4x3 , x2 − 6x3 )
 
x1 − 5x2 + 4x3
T (~x) =
x2 − 6x3
3.5. Transformaciones lineales y matriciales 123

T : R3 −→ R2
(x1 , x2 , x3 ) (x1 –5x2 + 4x3 , x2 − 6x3 )
¿Es lineal? ¿Es matricial?
T (0, 0, 0) = 0
   
x1 y1
~x = x2  ; ~y = y2 
x3 y3
 
x1 + y1
~x + ~y = x2 + y2 
x3 + y3
 
x1 + y1 − 5x2 − 5y2 + 4x3 + 4y3
T (~x + ~y ) =
 x2 + y2 − 6x3 − 6y3 
(x1 + −5x2 + 4x3 ) + (y1 − 5y2 + 4y3 )
=
 (x2 − 6x3 ) +
 (y2− 6y3 )
(x1 + −5x2 + 4x3 ) ...
= +
(x2 − 6x3 ) ...
= T (~x) + T (~y )
 
(λx1 + −5λx2 + 4λx3 )
T (λ~x) =
 (λx2 − 6λx3 ) 
λ(x1 + −5x2 + 4x3 )
=
 λ(x  2 − 6x3 )
...
= λ
...
= λT (~x)
Es lineal
∃?A : T (~x) = A~x
        
1 −5 4 1 −5 4 x1
T (~x) = x1 + x2 + x3 =
0 1 −6 0 1 −6 x2
Es matricial

¿Son todas las transformaciones lineales matriciales?


124 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Ejercicios
1. Una transformación lineal debe resultar en un vector cero: T (~0) = ~0.
Demuestra esto desde T (~v + w)
~ = T (~v ) + T (w)
~ escogiendo w
~ = ............
(y termina la demostración). Muestra que también desde T (c~v ) = cT (~v )
escogiendo c = ............ .
2. ¿Cuáles de estas transformaciones no son lineales? La entrada es ~v =
(v1 , v2 ):

(a) T (~v ) = (v2 , v1 )


(b) T (~v ) = (v1 , v1 )

(c) T (~v ) = (0, v1 )


(d) T (~v ) = (0, 1)

(e) T (~v ) = v1 − v2
(f) T (~v ) = v1 v2

3. Supón T (~v ) = ~v excepto por T (0, v2 ) = (0, 0). Muestra que esta transfor-
mación satisface T (c~v ) = c~v pero no T (~v + w)
~ = T (~v ) + T (w).
~
4. ¿Cuál de estas transformaciones satisface T (~v + w)
~ = T (~v ) + T (w)
~ y cuál
satisface T (c~v ) = cT (~v )?

(a) T (~v ) = ~v /k~v k)

(b) T (~v ) = v1 + v2 + v3
(c) T (~v ) = (v1 , 2v2 , 3v3 )
(d) T (~v ) = el componente más largo de ~v

5. Para estas transformaciones desde V = R2 a W = R2 , encuentra T (T (~v )).


¿Es esta transformación T 2 lineal?

(a) T (~v ) = −~v


(b) T (~v ) = ~v + (1, 1)
(c) T (~v ) = 90o de rotación = (−v2 , v1 )

(d) T (~v ) = proyección = ( v1 +v


2 ,
2 v1 +v2
2 ).

6. Encuentra el rango y el núcleo de T (como el espacio columna y el espacio


nulo).

(a) T (v1 , v2 ) = (v1 − v2 , 0)

(b) T (v1 , v2 , v3 ) = (v1 , v2 )


(c) T (v1 , v2 ) = (0, 0)
(d) T (v1 , v2 ) = (v1 , v1 ).
3.6. Matriz de una transformación lineal 125

7. La transformación cı́clica T es definida por T (v1 , v2 , v3 ) = (v2 , v3 , v1 ).


¿Qué es T (T (~v ))? ¿Qué es T 3 (~v )? ¿Qué es T 100 (~v )? Aplica T cien veces
para ~v .

8. Una transformación lineal de V a W tiene una forma inversa de W a


V cuando el rango es todo W y el núcleo contiene sólo ~v = ~0. Luego
T (~v ) = w
~ tiene una solución ~v para cada w
~ en W . ¿Por qué estas T ’s no
son invertibles?
(a) T (v1 , v2 ) = (v2 , v2 )
W = R2
(b) T (v1 , v2 ) = (v1 , v2 , v1 + v2 ) W = R3
W = R1
(c) T (v1 , v2 ) = v1

9. Si T (~v ) = A~v y A es m × n, entonces T es la ”multiplicación por A”.


(a) ¿Cuáles son los espacios V y W de entrada y salida?
(b) ¿Cuál es el rango de T = espacio columna de A?
(c) ¿Por qué el nucleo de T = espacio nulo de A?

10. Supón una transformación lineal T que va de (1, 1) a (2, 2) y de (2, 0) a


(0, 0). Encuentra T (~v ).

(a) ~v = (2, 2)

(b) ~v = (3, 1)
(c) ~v = (−1, 1)

(d) ~v = (a, b).

3.6. Matriz de una transformación lineal


Si encontramos una matriz A : T (~x) = A~x para cualquier transformación
lineal, entonces es matricial.
Las transformaciones lineales se originan geométricamente o por descripción
de palabras.
Ejemplo: T : R2 −→ R2 de tal forma que manda el vector (x, y) en su
reflexión mediante el eje x.

Reflexión en el eje y:
126 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Rotación de un ángulo, estiramiento de λ unidades, . . .


¿Cómo encontrar la matriz asociada?
     
x 1 0
=x +y
y 0 1

1
       
x x 1 0
T = =x + (−y)
1
y −y 0 1
1
   
1 0
=x +y
-1
0 −1
       
1 1 0 0
T = ;T =
0 0 1 −1

Proposición
Sea T una transformación lineal T : Rn −→ Rm y ~v1 , . . . , ~vn ∈ Rn una base
de Rn . Entonces, ∀~b ∈ Rn ; ~b = λ1 v1 + . . . + λs vn y:
T (λ1 v1 + . . . + λs vs ) = λ1 T (v1 ) + . . . + λs T (vs )
Demostración
T (λ1 v1 + . . . + λs vs ) |{z}
= T (λ1 v1 ) + T (λ2 v2 + . . . + λs vs )
T lineal
= T (λ1 v1 ) + . . . + T (λs vs ) |{z}
= λ1 T (v1 ) + . . . +
T lineal
λs T (vs )
¿Para qué sirve esta proposición?
Basta con saber cómo actúa T sobre una base para saber cómo actúa sobre
cualquier vector:
Tomamos la base canónica: ~e1 , . . . , ~en
T : Rn −→ Rm
~
T (b) = λ1 T (~e1 ) + . . . + λn T (~en)
λ1
~b = λ1~e1 + . . . + λn~en
= T (~e1 ), . . . , T (~en )  ... 
 

λn
Conclusión
Toda transformación
  lineal es matricial:  
x1 x1
 ..   . 
T (~x) = T  .  = T (~e1 ), . . . , T (~en )  .. 
xn xn
3.6. Matriz de una transformación lineal 127

Ejemplos

T : R2 −→ R3  
 
5x1 − 3x2
1. T (~x) = −7x1 + 8x2   x1
T (~x) = T (~e1 ) T (~e2 )
2x1 x2
   
5 −3
T (~e1 ) = −7 ; T (~e2 ) =  8 
2 0
   
5 −3   5x1 − 3x2
x
−7 8  1 = −7x1 + 8x2 
x2
2 0 2x1
 
3 0 0
2. Sea la matriz A = 0 3 0
0 0 3
 
3x1
T es la transformación lineal
T (~x) = A~x = 3x2  = 3~x;
que triplica ∀ vector de R3
3x3
     
3 0 0
T (~e1 ) = 0 ; T (~e2 ) = 3 ; T (~e3 ) = 0
0 0 3
128 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Ejercicios
1. Con bases ~v1 , ~v2 , ~v3 y w
~ 1, w
~ 2, w
~ 3 , supón que T (~v1 ) = w
~ 2 y T (~v2 ) =
T (~v3 ) = w
~1 + w
~ 3 . T es una transformación
 lineal. Encuentra la matriz A
y multiplı́cala por el vector 1 1 1 . ¿Cuál es la salida desde T cuando
la entrada es ~v1 + ~v2 + ~v3 ?

2. Supón T (~v1 ) = w
~1 + w
~2 + w
~ 3 y T (~v2 ) = w
~2 + w
~ 3 y T (~v3 ) = w
~ 3 . Encuentra
la matriz A para T usando esos vectores base. ¿Qué vector de entrada ~v
da T (~v ) = w
~ 1?

3. Invierte la matriz A del problema anterior. También invierte la transfor-


mación T . ¿Cuáles son T −1 (w
~ 1 ) , T −1 (w
~ 2 ) y T −1 (w
~ 3 )?

4. (a) ¿Qué matriz transforma (1, 0) a (2, 5) y transforma (0, 1) a (1, 3)?
(b) ¿Qué matriz transforma (2, 5) a (1, 0) y (1, 3) a (0, 1)?
(c) ¿Por qué ninguna matriz transforma (2, 6) a (1, 0) y (1, 3) a (0, 1)?

5. (a) ¿Qué matriz M transforma (1, 0) y (0, 1) a (r, t) y (s, u)?


(b) ¿Qué matriz N transforma (a, c) y (b, d) a (1, 0) y (0, 1)?
(c) ¿Qué condición en a, b, c, d harı́a imposible al literal (b)?

6. ¿Qué matriz transforma (2, 5) a (1, 1) y (1, 3) a (0, 2)?

7. (a) ¿Cuál es la matriz que transforma (1, 0) y (0, 1) a (1, 4) y (1, 5)?
(b) La combinación a(1, 4) + b(1, 5) = (1, 0) tiene (a, b) = ( , ).

8. Utilizando ~v1 = w
~ 1 y ~v2 = w
~ 2 , encuentra la matriz estándar para estas
T ’s:
(a) T (~v1 ) = ~0 y T (~v2 ) = 3~v1
(b) T (~v1 ) = ~v1 y T (~v1 + ~v2 ) = ~v1

9. Supón que T es la reflexión respecto al eje x y S es la reflexión respecto


al eje y. El dominio V es el plano xy. Si ~v = (x, y), cuál es S(T (~v ))?
Encuentra una descripción más simple del producto ST .

10. Supón que T es una reflexión a través de la recta y = x (lı́nea a 45o ), y


S es la reflexión respecto al eje y. Si ~v = (2, 1), entonces T (~v ) = (1, 2).
Encuentra S(T (~v )) y T (S(~v )). Esto demuestra que generalmente ST 6=
T S.

11. Escribe si es verdadero o falso. Si conoces que T (~v ) para n diferentes


vectores distintos de cero en Rn , entonces conoces T (~v ) para cada vector
en Rn .
3.7. Algunos ejemplos de transformaciones lineales 129

3.7. Algunos ejemplos de transformaciones


lineales
TRANSFORMACIONES LINEALES GEOMÉTRICAS en R2

Reflexión respecto al eje x:

      
 1 0 1 0 x x
A = T (~e1 ) T (~e2 ) = T (~x) = =
0 −1 0 −1 y −y

Reflexión respecto al eje y:

      
−1 0 −1 0 x −x
A= T (~x) = =
0 1 0 1 y y

Rotación de 90◦ :

      
0 −1 0 −1 x −y
A= T (~x) = =
1 0 1 0 y x

Proyección en el eje x:
130 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

      
1 0 1 0 x x
A= T (~x) = =
0 0 0 0 y 0
Rotación de θ grados:

30°

   
 cos(θ) −sin(θ) x1 cos(θ) −x2 sin(θ)
A = T (~e1 ) T (~e2 ) = T (~x) =
sin(θ) cos(θ) x1 sin(θ) x2 cos(θ)
Reflexión a través de la recta y = x:

 
0 1
A= T (x, y) = (y, x)
1 0
Reflexión a través de la recta y = -x:
3.8. Rango y núcleo de una transformación uno a uno y sobreyectiva 131
 
0 −1
A= T (x, y) = (−y, −x)
−1 0
   
2 4
3. ¿Qué transformación lineal manda ~e1 y ~e2 a 3 y 6?
4 8
T : R2 −→ R3
(x, y) T (x, y)

       
2 4   2x + 4y 2 4
x
T (x, y) = 3 6 = 3x + 6y  = x 3 + y 6
y
4 8 4x + 8y 4 8

3.8. Rango y núcleo de una transformación uno a


uno y sobreyectiva
En el ejemplo anterior: ¿se pueden conseguir todos los vectores de R3 con
T (x, y)?
*   +
2 4
No, sólo los que están en el plano 3 , 6
4 8

Definición 3.8.1 Sea T : Rn −→ Rm


DOMINIO: Rn
CODOMINIO: Rm
RANGO: Rango T = {~vn∈ Rm : ∃~x ∈ Rn , To(~x) = ~v }
n ~
NÚCLEO: Núcleo T = ~x ∈ R : T (~x) = 0

Rango de T: todos los vectores en el codominio que se pueden asociar a


un vector en dominio, mediante ~v = A~x
EL CONJUNTO de TODAS LAS IMÁGENES de TODOS los VECTO-
RES de Rn
132 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

Núcleo de T: todos los vectores en el dominio Rn cuya imagen mediante


T es cero
EL CONJUNTO DE TODAS LAS PREIMÁGENES del CERO
Ejemplo anterior:
   
2x + 4y 2 4  
x
T (x, y) = 3x + 6y  = 3 6
y
4x + 8y 4 8
T (x, y) ∈ R3 ¿Rango de T?Laimagen de todos
 los vectores de R
n

x x
~v = T (x, y) ⇐⇒ ∃(x, y) : A = ~v ⇐⇒ A = ~v tiene solución.
y y
Los vectores en el rango de T son todos los vectores que son combinación
lineal de los vectores columna de A:

Rango(T ) = Col(A) Rango(T ) ≤ Rn


N ucleo(T ) = N ul(A) N ucleo(T ) ≤ Rm
~x ∈ Rn , A~x = 0 son los vectores del espacio nulo de A.

Definición 3.8.2 Sea T : Rn −→ Rm una transformación lineal.


Entonces:
se dice que es sobreyectiva si todo vector en Rm es al menos una imagen
de un vector en Rn .
se dice que es uno a uno, si cada ~b ∈ Rn es la imagen de a lo sumo /
como mucho una ~x ∈ Rn .

¿Es sobre? No. Porque ~b no tiene preimagen, ~v1 tiene dos.


Proposición

∀~b ∈ Rm
T : Rn −→ Rm es sobre
MAPEA Rn SOBRE Rn
⇐⇒ A~x = ~b siempre
tiene solución
⇐⇒ Rango(T ) = Rm
3.8. Rango y núcleo de una transformación uno a uno y sobreyectiva 133

No es uno a uno.
v1 tiene más de una preimagen.
Las proyecciones sobre un eje no son uno a uno.
Proposición
T : Rn −→ Rm es uno a uno ⇐⇒ ∀~b ∈ Rm A~x = ~b es inconsistente
o tiene solución única.
Ejemplos

1. T (x1 , x2 ) = (3x1 + x2 , 5x1 + 7x2 , x1 + 3x2 ) ¿Es sobre? ¿Es uno a uno?

T : R2 −→ R
3
    
  3x1 + x2 3 1
x1 5x1 + 7x2  = x1 5 + x2 7
x2
x1 +3x2  1 3
3 1  
x1
= 5 7
x2
1 3 2×3
   
3 1
T (~e1 ) = 5 ; T (~e2 ) = 7
1 3
Sobre ⇐⇒ ∀b ∈ R3 ∃~x : A~x = ~b
⇐⇒ ~
A~x = b siempre tiene solución
⇐⇒ col(A) = R3 IMPOSIBLE No es sobre
Uno a uno ⇐⇒ si A~x = ~b es consistente, entonces tiene una única solución
⇐⇒ A tiene tantos pivotes como columnas
⇐⇒ A tiene dos pivotes
⇐⇒ T (~e1 ), T (~e2 ) con l.i.

Es uno a uno

2. T transformación lineal con matriz asociada


 
1 −4 8 1
¿T es sobre?
A = 0 2 −1 3
¿T es uno a uno?
0 0 0 5 3×4

T : R4 −→ R3
~x A~x
T MAPEA R4 sobre R3 si todos los vectores de R4 caen sobre todos los
vectores de R3 .

Si ∀b ∈ R3 A~x = ~b es consistente.

Siempre: tres pivotes, una v. libre.

¡Es sobre!
134 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

T es uno a uno si A~x = ~b tiene una solución o ninguna NO


Conclusiones
n m
( transformación lineal, A matriz asociada, T : R −→ R
T
m
T es sobre ⇐⇒ las columnas de A general a R
T es uno a uno ⇐⇒ las columnas de A son l.i.
Demostración: Lay, pág. 77, Teorema 12
Conclusión
T es uno a uno ⇐⇒ A~x = ~0 tiene solución única.
Demostración: Lay, pág. 76, Teorema 11

3.9. Composición de transformaciones y


transformaciones invertibles

Definición 3.9.1 Sean T : Rn −→ Rm y S : Rm −→ Rs transformaciones


lineales. Entonces, se define la composición S ◦ T : Rn −→ Rs como S ◦ T (~x) =
S(T (~x)), ∀x ∈ Rn .

Propiedades
S ◦ T es una transformación lineal.
Demostración
Sólo basta con demostrar que es matricial para ver que es lineal.

T transformación lineal −→ ∃A : T (~x) = A~x


S transformación lineal −→ ∃B : S(~x) = B~x
Entonces
S ◦ T (~x) = S(T (~x)) = S(A~x) = B(A~x) = (BA)(~x)
B · A es la matriz asociada a S ◦ T
Ejemplo:
2
T : R  −→ R2 
x 2x + 3y
y x − 5y
3 2
S: R  −→ R
x  
y  4x + 3y + 6z
x − 2y + 3z
z

S ◦ T : NO SE PUEDE
T ◦ S : R3 −→ R2
3.9. Composición de transformaciones y transformaciones invertibles 135

¿Quién es T ◦ S?
      
2 3 2 3 x
T (~x) = x +y =
1 −5 1 −5 y
 
        x
4 3 6 4 3 6  
S(~x) = x +y +z = y
1 −2 3 1 −2 3
z
Por tanto,
 T S 
 
x
z }| { z
 }| {
 2 3 4 3 6 
T ◦ S(~x)  1 −5 · 1
=  y 
−2 3 
z
 
  x
2·4+3 2 · 3 + 3(−2) 2·6+3·3  
= y
1·4−5·1 1 · 3 + (−5)(−2) 1 · 6 + (−5)3
  z
  x
11 0 21  
= y
−1 13 −2
 z
11x + 21z
=
−x + 13y − 2z

Definición 3.9.2 T : Rn −→ Rn es invertible si existe una función S : Rn −→


Rn(tal que:
T ◦ S(~x) = ~x
S ◦ T (~x) = ~x

¿Matriz de Q?
T (~x) = A~x
T ◦ Q(~x) = (AB)~x = ~x si B = A−1
Q(~x) = B~x
Si T (~x) = A~x y Q es la inversa de T, entonces Q(~x) = A−1 ~x
Proposición
Si T es invertible, entonces T es uno a uno y sobre.
Demostración

T invertible −→ ∃A−1 −→ los vectores columna de A son l.i. −→ T es uno a uno


−→ los v.c. de A generan a Rn −→ T es uno a uno

Corolario T : Rn −→ Rn invertible
136 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales

T es uno a uno ⇐⇒ T es sobre

Corolario T : Rn −→ Rn invertible. Entonces,

∀b ∈ Rn ∃!x ∈ Rn : A~x = ~b

3.10. Más caracterizaciones de A, matriz


invertible

A invertible ⇐⇒ T (~x) = A~x es invertible


⇐⇒ T (~x) es uno a uno y sobre
⇐⇒ T (~x) es uno a uno
⇐⇒ T (~x) es sobre: T mapea Rn sobre Rn
⇐⇒ T (~x) tiene una única solución para cada A~x = ~b, ~b ∈ Rn
4 Ortogonalidad y Mı́nimos
Cuadrados
Este capı́tulo se trabajará con el espacio vectorial (Rn , +, ·) que junto con el
producto punto forman el conocido como Espacio Euclideo. blablabla

4.1. El complemento ortogonal H ⊥ de un


subespacio vectorial H ≤ Rn
Gracias al producto punto es posible determinar cuándo dos vectores están
en una posición perpendicular, en cuanto que el ángulo formado por ellos es de
π/2. A esto se le ha llamado ortogonalidad entre vectores. Si ahora se toma un
subespacio vectorial en Rn , para que un vector ~z sea ortogonal a este subespacio
vectorial, es fácil deducir que tendrá que ser ortogonal con todos los vectores
en H.
DIBUJO
Esto motiva la siguiente definición:

Definición 4.1.1 Sea ~z ∈ Rn y H ≤ Rn . Entonces, se dice que ~z es ortogonal


con H, y se denota por ~z ⊥ H, si ~z es ortogonal a todos los vectores contenidos
en H:
~z ⊥ H ⇐⇒ ~z ⊥ ~h, ∀~h ∈ H

Por tanto, para comprobar que un vector ~z es ortogonal con H, se deberı́a


de comprobar que lo es con todos los vectores contenidos en H. Si se tiene un
conjunto generador de H, o mejor aún, una base de H, entonces habrı́a que
comprobar que ~z es ortogonal con cualquier combinación lineal de los vectores
que conforman este conjunto. Gracias a la linealidad que verifica un subespacio
vectorial, existe una forma más rápida de comprobar que ~z es ortogonal con
H, como se demuestra en el siguiente teorema. Demostrar que ~z es ortogonal
con cualquier vector de H será equivalente a demostrar que es ortogonal con
todos los elementos de un sistema generador de H, y por tanto de una base:

Teorema 4.1.1 Sea ~z ∈ Rn , H ≤ Rn un subespacio vectorial de Rn , tal que


H =< ~h1 , . . . , ~hr >. Entonces:

~z ⊥ H ⇐⇒ ~z es ortogonal a todos los elementos


del conjunto generador {~h1 , . . . , ~hr } de H.

Antes de demostrar este teorema, se enuncia una consecuencia obvia del mismo:

137
138 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
n n
n Sea ~z ∈oR , H ≤ R un subespacio vectorial de dimensión k
Corolario 4.1.1
en Rn , y β = ~h1 , . . . , ~hk una base de H. Entonces:

~z ⊥ H ⇐⇒ ~z es ortogonal a todos los elementos ~hi


para i = 1, . . . , k de la base ~b de H.

Prueba. Se deduce fácilmente del teorema anterior, dado que una base es
un caso especial de conjunto generador de H. Efectivamente, es un conjunto
generador de vectores linealmente independientes. 
Se demuestra a continuación el teorema:
Prueba del Teorema 4.1.1. Se deben demostrar las dos implicaciones.
Primera implicación =⇒: la hipótesis es que ~z ⊥ H, esto es, ~z es ortogonal
con cualquier vector en H. Obsérvese que dado que {~h1 , . . . , ~hr } es un conjunto
generador de H, se verifica en particular que ~hi ∈ H =< ~h1 , . . . , ~hr >, para
i = 1, . . . , r. Por tanto, si ~z es ortogonal con cualquier vector en H, en particular
lo será con los vectores ~hi ∈ H, de donde se deduce la tesis.
Segunda implicación ⇐=: la hipótesis es que ~z es ortogonal con los vectores
del conjunto generador de H, esto es, z ⊥ ~hi , ∀i = 1, . . . , r, o equivalentemente
z · ~hi = 0.
Se desea demostrar que ~z es ortogonal con cualquier vector en H. Sea por
tanto ~h ∈ H un vector cualquiera en H =< ~h1 , . . . , ~hr >. Se sabe que ~h es com-
binación lineal de los vectores ~h1 , . . . , ~hr por definición de conjunto generador,
por lo que

∃λ1 , . . . , λr (no necesariamente únicos) : ~h = λ1~h1 + . . . + λr~hr .

Entonces:

~z · ~h = ~z · (λ1~h1 + . . . + λr~hr ) = ~z · (λ1~h1 ) + . . . + ~z · (λr~hr )


= λ1 (~z · ~h1 ) + . . . + λr (~z · ~hr ).

Pero recuérdese que por hipótesis ~z ⊥ ~hi , ∀i = 1, . . . , r, por lo que:

  0   0
~z · ~h = λ1 ~z 1 
· ~h
* r 
· ~h
+ . . . + λr ~z
*
 
= λ1 · 0 + . . . + λr · 0 = 0.

Ası́, ~z ⊥ ~h, ∀~h ∈ H y por tanto ~z ⊥ H, tal como se querı́a demostrar.  Ahora,
se toma el conjunto de todos los vectores que son ortogonales a un subespacio
vectorial dado H, para definir el complemento ortogonal H ⊥ de H. Es más, se
demostrará que este conjunto tiene estructura de subespacio vectorial.

Definición 4.1.2 Sea H ≤ Rn un subespacio vectorial de Rn . Se define el


complemento ortogonal de H, y se denota por H ⊥ , como el conjunto de todos
los vectores ortogonales a H:

H ⊥ ≡ {~z ∈ Rn : ~z ⊥ H} ⊆ Rn
4.1. El complemento ortogonal H ⊥ de un subespacio vectorial H ≤ Rn 139

Obsérvese que si z ∈ H ⊥ , por definición ~z ⊥ H, por lo que ~z es ortogonal con


cualquier vector en H. Además, todos los vectores ortogonales a H ⊥ están en H
⊥
por lo que es fácil deducir que H ⊥ = H. Más adelante en la Proposición ??
se comprobará que H ⊥ tiene estructura de subespacio vectorial demostrando
que es exactamente el espacio nulo de una matriz muy concreta. Pero hasta
llegar a ese resultado, se demostrará a continuación que tiene estructura de
subespacio vectorial, demostrando que verifica las dos propiedades dadas en la
Definición ??:

Proposición 4.1.1 Sea H ≤ Rn subespacio vectorial de Rn . Entonces, el com-


plemento ortogonal H ⊥ de H es también un subespacio vectorial de Rn .

Prueba. Para ver que H ⊥ es subespacio vectorial, se demuestra que verifica


las dos propiedades de la Definición ??, esto es,

(i) si ~z1 , ~z2 ∈ H ⊥ entonces ~z1 + ~z2 ∈ H ⊥ , y

(ii) si λ ∈ R y ~z ∈ H ⊥ entonces λ~z ∈ H ⊥ .

Sean ~z1 , ~z2 ∈ H ⊥ . Entonces, se verifica que ~z1 ⊥ H y ~z2 ⊥ H, esto es,

~z1 · ~h = 0 y ~z2 · ~h = 0, ∀~h ∈ H.

Sea ahora ~z1 + ~z2 y sea ~h ∈ H cualquiera. Se tiene que:

(~z1 + ~z2 ) · ~h = ~z1 · ~h + ~z2 · ~h = 0 + 0 = 0,

por lo que (~z1 + ~z2 ) ⊥ Hy ası́ ~z1 + ~z2 ∈ H ⊥ , de donde se demuestra (I). Sea
ahora λ ∈ R y ~z ∈ H ⊥ . Entonces, ~z · ~h = 0, ∀~h ∈ H. Si ~h ∈ H es un vector en
H cualquiera, entonces:

(λ~z) · ~h = λ(~z · ~h) = λ · 0 = 0,

por lo que λ~z ⊥ ~h, ∀~h ∈ H, y por tanto λ~z ∈ H ⊥ , de donde se demuestra (II).


Cálculo de H ⊥ y de (Col(A))⊥

Sea H ≤ Rn un subespacio vectorial de Rn . Si H =< ~h1 , . . . , ~hr >, por la


definición del espacio columna
 de una
 matriz A, es fácil ver que si se define
~
la matriz A como A = h1 . . . hr ~ , entonces H = Col(A). Por tanto,
n×r
calcular ⊥ ~ ~ ⊥
 H para H  =< h1 , . . . , hr > es equivalente a calcular (Col(A)) para
A = ~h1 . . . ~hr .
n×r
En el siguiente teorema se expone la forma correcta para encontrar (ColA)⊥ .

Teorema 4.1.2 Sea An×r una matriz. Entonces:



(Col(A)) = Nul(AT ).
140 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados

Prueba. 
Si A = ~v1 . . . ~vr n×r , entonces Col(A) =< ~v1 , . . . , ~vr > y {~v1 , . . . , ~vr }
es un sistema generador de Col(A). Obsérvese que para determinar (Col(A))⊥
se desean encontrar todos los vectores ~z que verifican que ~z ⊥ Col(A). Por el
Teorema ??, ~z ∈ (Col(A))⊥ si y sólo si ~z es ortogonal con ~vi para i =, . . . , r.
Esto es: 
~v1 · ~z = 0,


~v2 · ~z = 0,


~z ∈ (Col(A)) ⇐⇒ ..


 .

~vk · ~z = 0.

Siendo ~z una iincógnita, se ha conseguido un sistema de ecuaciones lineales


homogéneo, cuya forma matricial es:
   
~v1 0
~v2  0
 ..  · ~z =  .. 
   
. .
~vk 0

o equivalentemente
AT ~z = ~0.
Por tanto, se acaba de deducir que:

~z ∈ (Col(A))⊥ ⇐⇒ ~z es solución de AT · ~z = ~0
⇐⇒ ~z ∈ N ul(AT ).

En conclusión:

(Col(A)) = N ul(AT ),
como se querı́a demostrar. 
Obsérvese que al demostrar que (Col(A))⊥ = Nul(AT ), se está demostrando
que H ⊥ es un subespacio vectorial de Rn , ya que el espacio nulo de una matriz
es un subespacio vectorial. Obsérvese también que si A tiene dimensiones n × r
entonces AT tiene dimensiones r × n y por tanto Nul(AT ) ≤ Rn . E conclusión,
H ⊥ ≤ Rn .

Ejercicio 4.1 Deduzca usando el teorema anterior quién es el complemento


ortogonal de Nul(A) para una matriz A cualquiera.

Por último, se exponen algunas propiedades importantes de H y su comple-


mento ortogonal H ⊥ , que se irán propundizando en las secciones siguientes:

Corolario 4.1.2 Sea H ≤ Rn y H ⊥ su complemento ortogonal. Entonces, se


verifica que:

(i) el único elemento en común en H y H ⊥ es ~0: H ∩ H ⊥ = {~0}.

(ii) Si dim(H) = k, entonces dim(H ⊥ ) = n − k.


4.2. Conjuntos y bases ortogonales 141

(iii) Si ~b es base de H y ~b0 es base de H ⊥ , entonces la unión de estas dos


bases es a su vez una base en Rn .

(iv) Para cualquier vector ~b ∈ Rn , el vector ~b se puede descomponer de forma


única como suma de un vector ~h ∈ H y otro vector ~e ∈ H ⊥ .

Prueba.


4.2. Conjuntos y bases ortogonales


Hasta aquı́ se ha definido cuándo dos vectores son ortogonales entre sı́, cuándo
un vector es ortogonal a un subespacio vectorial H, y eso ha permitido definir el
complemento ortogonal de H. En esta sección se va a definir cúando un conjunto
de vectores es ortogonal, se verá una propiedad muy interesante que cumplen
los conjuntos ortogonales, siempre y cuando el vector ~0 no esté incluido, y por
último se presentará el concepto de base ortogonal.
Un conjunto ortogonal codifica el hecho de que los vectores del conjunto son
ortogonales entre ellos. Esto es, todos los vectores tienen un ángulo de 90◦
entre ellos, tomados dos a dos. Por ejemplo, las bases canónicas {~e1 , ~e2 } en R2
y {~e1 , ~e2 , ~e3 } forman un conjunto ortogonal de vectores unitarios.

Definición 4.2.1 Sean ~v1 , . . . , ~vk ∈ Rn . Entonces, se dice que {~v1 , . . . , ~vk } es
un conjunto ortogonal de k vectores si los vectores son ortogonales tomados
dos a dos, esto es,
def
{~u1 , . . . , ~uk } conjunto ortogonal ⇐⇒ ~ui ·~uj = 0, ∀i, j ∈ {1, . . . , k} con i 6= j.

Si además los vectores ~v1 , . . . , ~vk son unitarios, se dice que {~v1 , . . . , ~vk } es un
conjunto ortonormal de k vectores.

Ejemplo 4.2.1 (a) La base canónica {~e1 , ~e2 , . . . , ~en } de Rn es un conjunto


ortogonal.

(b) Cualquiersubconjunto
    de  {~
e e2 , . . . , ~en } es un conjunto ortogonal. Por
1, ~

 1 0 0 
      
0 0 0
 

ejemplo, 0 , 1 , 0 es un conjunto ortogonal de R5 .
     


 0 0 0 

 
0 0 1
 

     
1 −1  −1
(c) , es un conjunto ortogonal de R2 , ya que 1 1 · = 0.
1 1 1
   
a −b 
(d) , es un conjunto ortogonal de R2 ,, ∀a, b ∈ R, ya que a b ·
b a
 
−b
= 0.
a
142 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
      
 1 1 0 
(e) {~v1 , ~v2 , ~v3 } = 1 , −1 , 0 es un conjunto ortogonal de R3 , ya
0 0 1
 
que ~v1 · ~v2 = 0, ~v1 · ~v3 = 0 y ~v2 · ~v3 = 0.
Se sabe que si el vector ~0 pertenece a un conjunto de vectores, entonces los
vectores de este conjunto son linealmente dependientes. En el siguiente teorema
se demuestra que si el vector ~0 no está en un conjunto ortogonal de vectores,
entonces los vectores son linealmente independientes:

Teorema 4.2.1 Sean ~v1 , . . . , ~vk ∈ Rn − {~0}. Esto es, sean k vectores en Rn
todos distintos de ~0. Entonces, si {~v1 , . . . , ~vk } es un conjunto ortogonal, los
vectores ~v1 , . . . , ~vk son linealmente independientes.
Prueba.
En este teorema existen dos hipótesis. Por un lado, ~vi 6= ~0, ∀i = 1, . . . , k y
por otro, por ser un conjunto ortogonal se tiene que ~vi ·~vj = 0, ∀i, j ∈ {1, . . . , k}
tal que i 6= j. Para comprobar que ~v1 , . . . , ~vk son linealmente independientes, se
debe verificar que la única forma de escribir el vector ~0 como combinación lineal
de vectores es con pesos iguales a 0, esto es, si se escribe ~0 = λ1~v1 + λ2~v2 + . . . +
λk~vk para λ1 , . . . , λk ∈ R, es necesario comprobar que entonces necesariamente
λ1 = 0, . . . , λk = 0. Dicho de otra manera, se desea demostrar que la única
solución del sistema de ecuaciones lineales homogéneo (~v1 , . . . , ~vk ) · ~x = ~0 es
~x = ~0.
Se comienza con ~0 = λ1~v1 + λ2~v2 + . . . + λk~vk . Se toma ~vi para cualquier
valor de i = 1, . . . , k fijo. Si se multiplica por ~vi en ambos lados de la igualdad,
se tiene que
~0 · ~vi = (λ1~v1 + λ2~v2 + . . . + λk~vk ) · ~vi ,
o equivalentemente usando las propiedades del producto punto

0 = λ1 (~v1 · ~vi )+. . .+λi−1 (~vi−1 · ~vi )+λi (~vi · ~vi )+λi+1 (~vi+1 · ~vi )+. . .+λk (~vk · ~vi )

Recuérdese que por hipótesis los vectores ~v1 , . . . , ~vk son ortogonales dos a dos,
ası́ que

(~v1·  · 
~vi )+λi (~vi · ~vi )+λi+1 · ~vi )+. . .+λk
(~vk· 
 
0 = λ1 ~v
i )+. . .+λi−1
(~vi−1 (~vi+1  ~v
i)

y se obtiene que 0 = λi (~vi · ~vi ). Como ~vi · ~vi ∈ R, la multiplicación de dos


escalares es igual a cero si alguno de ellos es igual a cero. En cualquier caso,
por hipótesis ~vi 6= ~0 ası́ que ~vi · ~vi 6= 0, por tanto la única posibilidad es que
λi = 0.
Se ha demostrado que λi = 0 para cualquier valor de i en {1, . . . , n}, por lo
que la tesis queda demostrada.  A continuación
se introduce la definición de base ortogonal de un subespacio vectorial H de
dimensión k. Dado que al exigir que un conjunto de vectores ~v1 , . . . , ~vk sea una
base de H se asume que el vector ~0 no estará contenido en la base (ya que en
ese caso dejarı́a de ser base), es fácil entender esta definición:

Definición 4.2.2 Se dice que ~v1 , . . . , ~vk es una base ortogonal de un subespa-
cio vectorial H de Rn si el conjunto {~v1 , . . . , ~vk } verifica que:
4.2. Conjuntos y bases ortogonales 143

(a) es una base de H;


(b) es un conjunto ortogonal de vectores.
Si además los vectores son unitarios, entonces el conjunto {~v1 , . . . , ~vk } se dice
que es una base ortonormal de H.

Ejemplos 4.2.1 (a) {~e1 , . . . , ~en } es base ortonormal de Rn .


      
 1 −1 0 
(b) Dado que los vectores 1 ,  1  , 0 forman un conjunto or-
0 0 1
 
togonal ~
   yelvector
  0no está contenido, se tiene por el Teorema ?? que
 1 −1 0 
1 ,  1  , 0 es una base ortogonal de R3 . Al normalizar los
0 0 1
 
      
 1 −1 0 
vectores, se obtiene una base ortonormal de R3 : √12 1 , √12  1  , 0 .
0 0 1
 
Al dibujar estos tres vectores lo que se obtiene es una rotación rı́gida de la
base canónica de R3 .
Como conclusión lógica de la definición se tiene que:

Lema 4.2.1 Sea {~v1 , . . . , ~vk } un conjunto ortogonal tal que ~vi 6= ~0, ∀i = 1, . . . , k.
Entonces β = {~v1 , . . . , ~vk } es base ortogonal de S = h~v1 , . . . , ~vk i.
Prueba. Trivial. 
     
 3 −1 −1/2 
Ejercicio 4.2 Sea {~v1 , ~v2 , ~v3 } = 1 ,  2  ,  −2  . Demuestre que
1 1 7/2
 
es un conjunto ortogonal de vectores y encuentre una base para el subespacio
vectorial S = h~v1 , ~v2 , ~v3 i. Deduzca quién es S.
Resolución Es un conjunto ortogonal ya que
 
 −1
~v1 · ~v2 = 3 1 1  2  = −3 + 2 + 1 = 0
1 
 −1/2
~v1 · ~v3 = 3 1 1  −2  = −3/2 − 2 + 7/2 = 0
7/2 
 −1/2
~v2 · ~v3 = −1 2 1  −2  = 1/2 − 4 + 7/2 = 0
7/2

Base para S: {~v1 , ~v2 , ~v3 } es por definición un conjunto generador de S, y como es
un conjunto ortogonal y el vector ~0 no está contenido, se tiene que sus vectores
son linealmente independientes, por lo que {~v1 , ~v2 , ~v3 } base (ortogonal) de S.
Por último, dado que S es un subespacio vectorial de dimensión 3 en R3 , se
deduce que S = R3 .  En el siguiente teorema de enuncia cómo calcular las
144 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados

coordenadas de un vector ~h ∈ H en una base ortogonal sin tener que resolver


ningún sistema de ecuaciones lineales:

n o
Teorema 4.2.2 Sean H ≤ Rn , β = ~h1 , . . . , ~hk base ortogonal de H y ~h ∈ H
un vector cualquiera. Entonces, las coordenadas del vector ~h en la base ortogonal
β son:
 
~h · ~h1
~ ~ 
 h1 · h1 
~h =  ..  ,
 
 . 
~ ~ 
 h · hk 
~hk · ~hk β

esto es,
~ ~ ~ ~ k ~ ~
~h = h · h1 ~h1 + . . . + h · hk ~hk = h · hi ~
X
hi
~h1 · ~h1 ~hk · ~hk ~hi · ~hi |{z}
i=1 | {z } vector
escalar

n o
Prueba. Sea H ≤ Rn , β = ~h1 , . . . , ~hk una base ortogonal de H y un vector
~h en H. Entonces, ∃!λ1 , . . . , λk ∈ R : ~h = λ1~h1 + . . . + λk~hk (al ser los vectores
de la base linealmente independientes, los pesos son únicos y se conocen como
coordenadas). Se desea encontrar λi para i = 1, . . . , k y demostrar que λi =
~b·w~i
w ~ i . Dado que
~ i ·w

~h = λ1~h1 + . . . + λi−1~hi−1 + λi~hi + λi+1~hi+1 + . . . + λk~hk ,


n o
al multiplicar por ~hi en ambos lados de la igualdad y dado que β = ~h1 , . . . , ~hk
es una base ortogonal de H, se tiene que

  0
*
  : 0 ~ ~ 
   0
*

~h · ~hi = λ1 ~h1 ·~h
i + . . . + λ ~
i−1hi−1
 ·
 ~
h

i

+ λ i hi · hi + . . . + λ ~
k hk ·
 ~
h

i .
 
 
Por tanto, ~h · ~hi = λi ~hi · ~hi . Como ~hi 6= ~0 (dado que pertenece a una base),
~hi · ~hi 6= 0 y es posible despejar el valor de λi , obteniendo

~b · w
~i
λi = ∀i = 1, . . . , k,
~i · w
w ~i

con lo que el teorema queda demostrado. 

Ejemplo ~
  4.2.2 En el ejercicio anterior, encuentre las coordenadas de b =
6
 1  ∈ S en la base ortogonal dada.
−8
4.2. Conjuntos y bases ortogonales 145
     
 3 −1 −1/2 
Resolución. β = 1 ,  2  ,  −2  es una base ortogonal de S.
1 1 7/2
 
Usando el teorema ?? se tiene por tanto que:
~ ~ ~
~b = b · ~v1 ~v1 + b · ~v2 ~v2 + b · ~v3 ~v3 .
~v1 · ~v1 ~v2 · ~v2 ~v3 · ~v3
Como:
 
3
6 1 −8 · 1
~b · ~v1 1
~v1 =   = 1;
~v1 · ~v1  3
3 1 1 · 1
1

 
−1

6 1 −8 ·  2 
~b · ~v2 1
~v2 =   = −2;
~v2 · ~v2  −1
−1 2 1 ·  2 
1

 
−1/2

6 1 −8 ·  −2 
~b · ~v3 7/2
~v3 =   = −2,
~v3 · ~v3  −1/2
−1/2 −2 7/2 ·  −2 
7/2
entonces
         
6 3 −1 −1/2 1
 1  = 1 1 − 2  2  − 2  −2  y ~b = −2 .
−8 1 1 7/2 −2 β


Es muy importante observar que el teorema anterior sólo es válido cuando
se tiene una base ortogonal. Si no, es imposible poder aplicar este resultado.
Como consecuencia se tiene que
n o
Corolario 4.2.1 Sean H ≤ Rn , β = ~h1 , . . . , ~hk base ortonormal de H y
~h ∈ H un vector cualquiera. Entonces, las coordenadas del vector ~h en la base
ortonormal β son:
~h · ~h1
 

~h =  . 
 .. 
~h · ~hk
β
146 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados

Prueba. Dado que la base es ortonormal los vectores ~hi son unitarios, ∀i =
1, . . . , n, se tiene que ~hi ·~hi = 1. Aplicando el Teorema ?? se obtiene el resultado.


4.3. Proyecciones ortogonales y el proceso de


Gram-Schmidt
En este sección se va a explicar una de tantas formas de proyectar un vec-
tor sobre un subespacio vectorial, y se va a intentar argumentar por qué la
proyección ortogonal es la más óptima. Después, se va a dar un método para
encontrar a partir de una base cualquier de un subespacio vectorial H, una base
ortogonal de H. Este método es conocido como el método de Gram-Schmidt.

4.3.1. Proyección ortogonal de ~b ∈ Rn sobre H ≤ Rn


Sea H ≤ Rn y ~b ∈ / H. Aunque es imposible dibujar un subespacio vectorial
de Rn sobre este papel, se idealiza H como un plano en R3 . Entonces, el hecho
de que ~b ∈ / H viene a representarse de la siguiente manera:
DIBUJO
Se puede pensar en la proyección del vector ~b sobre H como la sombra que
tendrı́a el vector ~b sobre el subespacio vectorial si un foco lo alumbrara. Esta
proyección depende de hacia donde esté dirigida la luz que sale del foco:
DIBUJO
La sombra será la proyección de ~b sobre H, y existe más de una posible
proyección. En cualquier caso, esta sombra siempre corresponderá a un vector
perteneciente a H, esto es, la proyección de ~b sobre H es un vector en H, y
se puede conseguir que sea cualquier vector que se desee, siempre y cuando se
sitúe el foco de manera conveniente. Se define el error de la proyección como la
distancia entre el vector ~b y el vector proyección.
DIBUJO
Si se analiza cuál serı́a la proyección que tiene el error más pequeño, se llega
a la conclusión de que el error más pequeño es cuando el foco está justo encima
del subespacio vectorial de tal modo que los rayos de luz caen en perpendicular
sobre H. A esta proyección se le conoce como proyección ortogonal. Se  deno-

tará a la proyección ortogonal de b sobre H indistintamente como proyH ~b o
~
bb.
DIBUJO
En base a esta definición intuitiva, se pueden deducir algunas propiedades
de la proyección ortogonal de ~b ∈ Rn sobre un subespacio vectorial H ≤ Rn .
Por ejemplo, para conseguir ~b basta sumar la proyección del vector ~b sobre H y
un vector ortogonal a H al que se le llamará el vector error ~e. Obviamente, la
longirud de ~e es el error en la proyección ortogonal, y es el error más pequeño
que se puede conseguir al proyectar ~b sobre H.
DIBUJO
Esto es:
4.3. Proyecciones ortogonales y el proceso de Gram-Schmidt 147
 
Proposición 4.3.1 Si ~b ∈ Rn , H ≤ Rn y proyH ~b ∈ H es la proyec-
ción ortogonal
  de ~b sobre H, entonces existe un único vector ~e ∈ H ⊥ tal que
proy ~b + ~e = ~b.
H
 
Recuérdese que por definición proyH ~b ∈ H. Es más, el vector ~b puede ser
un vector cualquier en Rn , por tanto pueden pasar tres cosas: o bien ~b ∈ H, o
bien ~b ∈
/ H pero ~b ∈ H ⊥ , o bien ~b ∈
/ H y ~b ∈
/ H. En los dos primeros casos, se
puede deducir que:
 
(a) Si ~b ∈ H, entonces proyH ~b = ~b y ~e = ~0. El vector en H que está más
cerca de ~b ∈ H es el mismo ~b, y la distancia entre estos dos vectores es
cero.
dibujo
 
(b) Si ~b ⊥ H esto es, si ~b ∈ H ⊥ , entonces proyH ~b = ~0 y ~e = ~b. Si los rayos
de luz caen en vertical, un vector ortogonal a H no tendrı́a sombra, o su
sombra caerı́a sobre el vector ~0.
dibujo
Obsérvese de nuevo que bajo esta elección de proyección ortogonal, se está eli-
giendo el vector en H que está a menor distancia de ~b, obteniendo ası́ el menor
error posible en la proyección. Dicho de otra
  manera, el punto más cercano al
vector b situado en H es el punto proyH ~b , y la distancia más corta entre ~b
~
y H es ||~e||.
A continuación se formaliza todo lo dicho anteriormente:

Definición 4.3.1 Sea ~b ∈ Rn y H ≤ n


 R . Se define la proyección ortogonal de
~b sobre H y se denota por proy ~b o bb, como aquel vector en H que verifica
H
que existe un único vector ~e en H ⊥ tal que
 
~b = proy ~b + ~e.
H

El vector ~e ∈ H ⊥ se conoce como el vector error y ||~e|| como el error en la


proyección.
 
Ejercicio 4.3 Demuestre que proyH ~b ·~h = ~b·~h, para cualquier vector ~h ∈ H.

 
Cálculo de proyH ~b
 
En esta parte se va a presentar una forma de calcular proyH ~b la proyección
ortogonal de un vector ~b sobre un subespacio vectorial H de forma algebrai-
ca. Para ello, se hará de forma inductiva, primera calculando la proyección
sobre una recta, luego sobre un plano y finalmente generalizando a cualquier
subespacio vectorial H.
148 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados

Supóngase que H es una recta.Entonces,


 existe un vector ~v ∈ H tal que
~
H =< ~v >. Para encontrar proyH b , obsérvese el siguiente dibujo:
dibujo    
Está claro que proyH ~b debe ser múltiplo de ~v 6= ~0, por lo que proyH ~b =
 
λ~v para algún λ ∈ R. Para encontrar este valor, dado que ~b = proyH ~b + ~e,
se tiene que ~b = λ~v + ~e donde además ~e ⊥ H, por lo que, en especial, ~e · ~v = 0.
Entonces:
0
~b = λ~v + ~e =⇒ ~b · v = (λ~v + ~e) · ~v =⇒ ~b · ~v = λ~v · ~v + 
~e ·
~v
*


Ası́ que
~b · ~v = λ~v · ~v ,

y como ~v · ~v 6= 0, despejando λ se tiene que


  ~b · ~v
proy<~v> ~b = ~v .
~v · ~v
~ ∈ H que forman
Supóongase ahora que H es un plano. Entonces, existen ~v , w
una base de H, esto es, que son linealmente independientes y que además
H =< ~v , 
w
~ >. Para mayor comodidad se tomará una base ortogonal. Dado  que

proyH ~b ∈ H, por el Teorema ?? se sabe que las coordenadas de proyH ~b
proyH (~b)·~
v proyH (~b)·w
~
en la base ortogonal {~v , w}
~ son α = v ·~
~ v yβ = w·
~ w~ de tal forma
que:  
proy<~v,w> ~b = α~v + β w.
~
~
 
El problema es que al desconocer el valor de proyH ~b , es imposible calcular α
 
y β de esta manera. Pero en el ejercicio ?? se ha demostrado que proyH ~b ·~h =
~b · ~h para cualquier vector ~h en H. En particular para ~v , w
~ ∈ H se satisface esta
~b·~v ~b·w
~
igualdad y por tanto α = ~ v,
v ·~ β= w·
~ w
~ y
     
proy<~v,w> ~b = ph~vi b̂ + phwi
~ b̂
~
| {z } | {z }
proyección de b̂ proyección de b̂
sobre la recta h~v i sobre la recta hwi
~

DIBUJO
En general, usando el producto punto, si se tiene una base ortogonal {~h1 , . . . , ~hk }
de un subespacio vectorial H, usando el Teorema ?? se pueden encontrar   fácil-
mente las coordenadas de un vector en H cualquiera. Como proyH ~b ∈ H, si
se tuviera una base ortogonal se tendrı́a que:
   
  proyH ~b · ~h1 proyH ~b · ~hk
proyH ~b = ~h1 + . . . + ~hk .
~h1 · ~h1 ~hk · ~hk
4.3. Proyecciones ortogonales y el proceso de Gram-Schmidt 149
 
El problema de este razonamiento es que lo que se desea es calcular proyH ~b ,
el cual es desconocido. Lo que sı́ es conocido es el vector ~b ∈ Rn
y la base
ortogonal de H. Pero gracias al Ejercicio ?? se sabe que proy ~
b · ~h = ~b · ~h
H

para cualquier vector ~h en H. Por tanto, en


 particular para los vectores de la
base hi ∈ H se verifica también proyH b · ~hi = ~b · ~hi para i = 1, . . . , k, de
~ ~
donde se deduce el siguiente teorema:
n o
Teorema 4.3.1 Sean ~b ∈ Rn y H ≤ Rn . Si ~h1 , . . . , ~hk es una base ortogonal
de H, entonces

~b · ~h1 ~ ~
~h1 + . . . + b · hk ~hk
 
proyH ~b =
~h1 · ~h1 ~hk · ~hk
   
= ph~h1 i b̂ + . . . + ph~hk i b̂
| {z } | {z }
proyección de b̂ proyección de b̂
D E D E
sobre la recta
~h1 sobre la recta
~hk

   
2 −2
Ejemplo 4.3.1 1. Si ~v1 =  5  y ~v2 =  1 
−1 1
(i) Demuestre que {~v1 , ~v2 } es base ortogonal de H = h~v1 , ~v2 i.
 
1
(ii) Encuentre bb y ~e para ~b = 2.
3

4.3.2. El proceso de Gram-Schmidt


Para poder usar el teorema anterior para ası́ encontrar la proyección orto-
gonal de un vector ~b sobre un subespacio vectorial H, es necesario primero
tener una base ortogonal de H. Encontrar una base siempre es fácil, siempre y
cuando se tenga antes un sistema generador de H. Pero no necesariamente esta
base será ortogonal Con el siguiente método será posible encontrar una base
ortogonal, a partir de una base cualquiera de un subespacio vectorial H.
A continuación se presenta el proceso de Gram-Schmidt para conseguir una
base ortogonal a partir de una base no ortogonal.

Proceso de Gram-Schmidt
n o
Sea β = ~h1 , . . . , ~hk base (no ortogonal) de H ≤ Rn . La base ortogonal
β⊥ = {~u1 , . . . , ~uk } se consigue de la siguiente manera:

~u1 = ~h1 . El primer vector de la base ortogonal es el mismo que el de la


base original β. Por tanto, ~u1 ∈ H.
150 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados

~u2 = ~h2 − proy<~u1 >~h2 . El segundo vector de la base ortogonal β⊥ es el


vector error en la proyección de ~h2 sobre la recta < ~u1 >.
DIBUJO
En conclusión:
~ 2 · ~u1
w
~u2 = ~h2 − ~u1
~2 · w
w ~2
Obsérvese que ~u2 sigue perteneciendo a H, ya que es una combinación
lineal de ~u1 , ~h2 ∈ H.

~u3 = ~h3 −proy<~u1 ,~u2 >~h3 . El tercer vector de la base ortogonal es el vector
error en la proyección de ~h3 sobre el plano < ~u1 , ~u2 >. DIBUJO
En conclusión:
w~ 3 · ~u1 w~ 3 · ~u2
~u3 = ~h3 − ~u1 − ~u2
~u1 · ~u2 ~u2 · ~u2
Obsérvese que ~u3 sigue perteneciendo a H, ya que es una combinación
lineal de ~u1 , ~u2 , ~h3 ∈ H.

...

Por tanto, ~uk = ~hk − proy<~u1 ,...,~uk−1 >~hk , esto es,

~hi · ~u1 ~hk · ~uk−1


~uk = ~hk − ~u1 − . . . − ~uk−1 .
~u1 · ~u1 ~uk−1 · ~uk−1

En general, para conseguir el vector ~ui de la base ortogonal β⊥ = {~u1 , ~u2 , . . . , ~ui , . . . , ~uk }
son necesarios el vector ~hi de la base β y los (i−1) vectores anteriores ~u1 , . . . , ~ui−1
de la base ortogonal β⊥ , y la fórmula es:

w~ i · ~u1 ~ i · ~ui−1
w
~ui = ~hi − · ~u1 − . . . − · ~ui−1 , ∀i = 2, . . . , k
~u1 · ~u1 ~ui−1 · ~ui−1

Una vez que se tiene una base ortogonal, es fácil encontrar una base orto-
normal. normalizando los vectores de la base ortogonal.
      

 1 0 0 
      
1 ,   , 0 .
1

Ejemplo 4.3.2 Sea W = h~v1 , ~v2 , ~v3 i tal que {~v1 , ~v2 , ~v3 } = 
 1
   1 1

1 1 1
 
Encuentre una base ortogonal y otra ortonormal de W .

Solución.
Primeramente se encuentra una base de vectores para W . El conjunto de
vectores {~v1 , ~v2 , ~v3 } es un sistema generador de W por definición. Además, se
comprueba a continuación que Nul(A) = {~0} para A = ~v1 ~v2 ~v3 , por lo


que son linealmente independientes:


4.3. Proyecciones ortogonales y el proceso de Gram-Schmidt 151

       
1 0 0 0

1 1 0 0 x = 0
 x=0
x   + y   + z   =   ⇐⇒ x + y = 0
        ⇐⇒ y = 0.
1 1 1 0
z=0

x+y+z =0

1 1 1 0

Por tanto, β = {~v1 , ~v2 , ~v3 } es una base de W . No es una base ortogonal
porque, por ejemplo, ~v1 · ~v2 6= 0. Para encontrar una base ortogonal de W
se procede a aplicar el método de Gram-Schmidt. Los elementos de la base
ortogonal β⊥ = {~u1 , ~u2 , ~u3 } son:

 
1
1
1 = ~v1 .
~u1 =  

 
1
 1
  0 1 1 1  
1 1
0
~v2 · ~u1 1 1 1
~u2 = ~v2 − ~u1 =  −   =
~u1 · ~u1 1  1 1
1  1 1
1 1 1 1 ·1

      1
0 1 −3/4
1 3 1  1/4 
=1 − 4 1 =  1/4 .
    

1 1 1/4

       
0 1 3 0
~v3 · ~u1 ~v3 · ~u2 0 1 1 1 −1 −2/3
~u3 = ~v3 − ~u1 − 1 − 2 1 + 6 −1 =  1/3 ,
~u2 =        
~u1 · ~u1 ~u2 · ~u2
1 1 −1 1/3
ya que
 
1
 1
0 0 1 1 · 
1 1    
1 1/2
~v3 · ~u1 1  1 2 1 1/2
~u1 =   =  = 
~u1 · ~u1 1 1 4 1 1/2
 1 1 1 1/2
1 1 1 1 · 
1
1
y
152 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
 
−3/4
  1/4 
0 0 1 1 ·  1/4 
  
−3/4
~v3 · ~u2 1/4  1/4 
~u2 =   ·
 1/4  =

~u2 · ~u2 −3/4
  1/4  1/4
−3/4 1/4 1/4 1/4   1/4 

     1/4
−3/4 −3/4 −1/2
2/4  1/4  2  1/4   1/6 
=  =  = .
12/16  1/4  3  1/4   1/6 
1/4 1/4 1/6

Comprobación. β⊥ = {~u1 , ~u2 , ~u3 } es una base ortogonal de W :

~u1 · ~u2 = −3/4 + 1/4 + 1/4 = 0

~u1 · ~u3 = −2/3 + 1/3 + 1/3 = 0


 
0
 −2/3
~u2 · ~u3 = −3/4 1/4 1/4  1/3  = −1/6 + 1/12 + 1/12 = 0
1/4 ·  

1/3

Para encontrar una base ortonormal, es suficiente


n con normalizaar o los vec-
tores de la base ortogonal. Por tanto, β = k~~uu11 k , k~~uu22 k , k~~uu33 k es una base
ortonormal de W , esto es,
      

 1 −3/4 √ 0 

1   2  3
1 1/4  −2/3

β=  , √   , √   .

 2 1 3  1/4  2  1/3  
1 1/4 1/3
 

4.4. El problema de mı́nimos cuadrados


Sea A = (~v1 , . . . , ~vn )m×n una matriz cualquiera y ~b ∈ Rm . El hecho de
que el sistema de ecuaciones lineales A~x = ~b sea consistente tiene muchas
implicaciones. Por ejemplo, significa que ~b ∈ Col(A) ≤ Rm , y si además es
solución única, los vectores columna de A son linealmente independientes por
lo que forman una base de Col(A), y además la solución ~x del sistema son las
coordenadas del vector ~b en la base dada. Si la solución no es única, en cambio,
significa que los vectores columna de A fornam un sistema generador pero no
una base de Col(A), y la solución ~x da las infinitas posibilidades que hay de
que ~b se escriba como combinación lineal de estos vectores.
Si el sistema es inconsistente, lo único que se puede decir es que ~b ∈
/ Col(A),
por lo que es imposible que ~b se pueda escribir como combinación lineal de A, y
4.4. El problema de mı́nimos cuadrados 153

no existe ningún punto que verifique todas las ecuaciones del sistema de ecua-
ciones lineales a la misma vez. Un ejemplo de un sistema de ecuaciones lineales
inconsistente aparece reiteradamente en poblemas estadı́sticos. EXPLICAR.
Aunque este problema claramente no tiene solución posible, se podrı́a encon-
trar una solución aproximada con el error más pequeño posible. Para ello. si
A~x = ~b no tiene solución se plantea el problema A~x = proyCol(A) (~b) como el
problema que sı́ tiene solución (dado que proyCol(A) (~b) ∈ Col(A) por defini-
ción) y que devuelve la solución más cercana para A~x = ~b, dado que el vector
proyCol(A) (~b) es el vector en Col(A) con la distancia más pequeña a ~b.

Definición 4.4.1 Sea A~x = ~b un sistema inconsistente. El problema Ab x =


proyCol(A) (~b) se conoce como el problema de mı́nimos cuadrados asociado a
A~x = ~b. La solución x b se conoce como la solución de mı́nimos cuadrados, y
e = ||~b − proyCol(A) (~b)|| es el error de la solución.
DIBUJO
A partir de ahora se va a usar bb para denotar a proyCol(A) (~b), esto es,

bb ≡ proy ~
Col(A) (b),

de tal forma que el problema de mı́nimos cuadrados asociado a un sistema


inconsistente A~x = ~b se escribirá como Ab x = bb. Para encontrar la solución
de mı́nimos cuadrados usando la teorı́a que se conoce hasta ahora, se requiere
un proceso muy largo ya que, dado un sistema inconsistente A~x = ~b, se debe
primero encontrar una base de Col(A), ortogonalizarla usando el proceso de
Gram-Schmidt para poder encontrar bb = proyCol(A) (~b) usando el teorema ??,
y después resolver el problema de mı́nimos cuadrados Ab x = bb. Pero existe
otra forma más rápida, sin tener que calcular b para encontrar x
b b, encontrando
un sistema equivalente a Ab x = bb. Obsérvese que bb + ~e = ~b y además ~e ∈
(Col(A))⊥ = Nul(AT ):
DIBUJO
Por tanto, AT ~e = 0 y ası́, de bb + ~e = ~b multiplicando en ambos lados por AT
se tiene que
AT bb = AT ~b.
Como Ab x = bb, sustituyendo esto en la ecuación anterior se tiene que:
x = AT ~b.
AT Ab
En conclusión, x b es la solución de mı́nimos cuadrados también es solución del
sistema de ecuaciones lineales, y para encontrar x b será suficiente con resolver
el sistema AT Ab x = AT ~b. Dado que A~x = ~b es conocido, es posible calcular AT ,
AT A y AT ~b, y plantear el problema para ası́ encontrar x b. Una vez encontrado
x
b, es fácil encontrar bb, ~e y el error del problema e con las fórmulas:
Ab
x = bb; ~e = ~b − bb; e = ||~e||.

Ejemplo 4.4.1 En cada uno de los casos, encuentre la solución de A~x = ~b, y
si es inconsistente, encuentre la solución para mı́nimos cuadrados. Calcule el
vector error y el error de mı́nimos cuadrados.
154 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
   
4 0 2
(a) A = 0 2 ; ~b = 0 .
1 1 1
   
1 1 0 0 −3
1 1 0 0 −1
   
1 0 1 0 0
(b) A =  ; ~
b=  2 .
 
1 0 1 0
   
1 0 0 1 5
1 0 0 1 1

Solución.

(a) El sistema de ecuaciones a resolver en su forma matricial es:


    
4 0 x1 2
0 2 x2  = 0 .
1 1 x3 1

Obsérvese que las ecuaciones son:



4x1 = 2,

2x2 = 0

x1 + x2 = 11,

las cuales producen un sistema inconsistente, dado que la primera ecuación


exige que x1 = 1/2, la segunda x2 = 0, pero entonces no se cumple la
tercera ecuación.
   
4 0
Si denotamos las columnas de la matriz A por ~v1 = 0 y ~v2 = 2
1 1
se tiene que no existe ningún λ ∈ R tal que ~v1 = λ~v2 , por lo que {~v1 , ~v2 }
son linealmente independientes y forman una base para Col(A). Pero como
A3×2 , al no ser cuadrada no es invertible. Más bien, Col(A) es un subespacio
vectorial de dimensión 2 en R3 , por lo que es un plano en R3 , y el vector ~b
no pertenece al plano.
Se calcula AT A y AT ~b para plantear el problema de mı́nimos cuadrados.
Dado que:
   
4 0 1 17 1
AT = ; AT A =
0 2 1 1 5
 
9
AT ~b = ,
1
el problema de mı́nimos cuadrados es
 
 x
17 1  1 
  
9
x2 = ,
1 5 1
x3
4.4. El problema de mı́nimos cuadrados 155

y al resolver por el método de Gauss se tiene que la solución es única, y es


 
1
x̂ = .
2
Al ser la solución única, se sabe que AT A es invertible y además, la pro-
yección ortogonal del vector ~b sobre Col(A) es el vector:
   
4 0   4
1
b̂ = Ax̂ = 0 2 = 4 ∈ Col(A).
2
1 1 3
El vector error y el error de la solución aproximada para el sistema incon-
sistente A~x = ~b es:
 
−2 √
~e = ~b − b̂ = −4 ∈ (Col(A))⊥ ; k~ek = 84
8

dibujo
(b) En este caso, si denotamos por ~v1 , ~v2 , ~v3 , ~v4 a los vectores de la matriz A6×4
asociada al sistema de ecuaciones A~x = ~b, se tiene que ~v1 = ~v2 +~v3 +~v4 por
lo que los vectores columna de A son linealmente dependientes y forman
un sistema generador pero no una base parra Col(A). Se puede comprobar
que {~v1 , ~v2 , ~v3 } sı́ son linealmente independientes y forman una base de
Col(A) (por ejemplo, resolviendo el sistema homogeneo asociado), por lo
que Col(A) es un subespacio vectorial de dimensión 3 en R6 .
El sistema es claramente inconsistente, dado que las dos primeras ecuacio-
nes del sistema son x + y = −3 y x + y = −1. Se calcula AT A y AT ~b para
plantear el problema de mı́nimos cuadrados. Dado que:
   
1 1 1 1 1 1 6 2 2 2
1 1 0 0 0 0 2 2 0 0
AT =  0 0 1 1 0 0 ;
 AT A = 2 0 2 0

0 0 0 0 1 1 2 0 0 2
 
4
−4
AT ~b = 
 
 2 ,

6
el problema de mı́nimos cuadrados es
    
6 2 2 2 x1 4
2 2 0 0 x2  −4
   =  .
2 0 2 0 x3   2 
2 0 0 2 x4 6
Al resolver usando el método de Gauss se tiene que la solución no es única,
y viene dada por:    
3 −1
−5 1
x̂ =   + x4  
   .
−2 1
0 1
156 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
 
−1
1
 1  que
Esto es, el conjunto solución es la recta generada por el vector  

1
 
3
−5
pasa por el punto −2, esto es,

0
   
3 * −1 +
−5 1
CS =  −2 +  1  .
  

0 1

Por tanto, hay más de un punto que verifica el sistema de ecuaciones li-
neales AT Abx = AT ~b y también el problema de mı́nimos cuadrados Ab x = bb.
T
Es más, los vectores columna de A A (y de A) no son linealmente inde-
pendientes, por lo que existen infinitas formas de escribir AT ~b (y bb) como
combinación lineal de estos.
Para encontrar bb una vez se obtiene x b, basta con calcular Ab x. Se puede
hacer esta cuenta usando la expresión general de x b obtenida más arriba, o
dando un valor a la variable libre x4 . En cualquier caso, el resultado será el
mismo. Para la solución particular del sistema cuando x4 = 0 se tiene que:
     
1 1 0 0   3−5 −2
1 1 0 0 3 3 − 5 −2
     
1 0 1 0 −5 3 − 2  1 
1 0 1 0 −2 = 3 − 2 =  1  ∈ Col(A).
b̂ = Ax̂ =       
     
1 0 0 1 0 3 − 0  3 
1 0 0 1 3−0 3

El vector error y el error son en este problema de mı́nimos cuadrados:


     
−3 −2 −1
−1 −2  1 
     
 0   1  −1
~e = ~b − b̂ = 
 2  −  1  =  1  ∈ (Col(A))
     ⊥
     
5 3 2
1 3 −2
√ √
k~ek = 1+1+1+1+4+4= 12

DIBUJO

Obsérvese que dadas las dimensiones de AT A, esta matriz siempre será cua-
drada. Por lo que el sistema de mı́nimos cuadrados tendrá solución única cuan-
do la matriz cuadrada AT A sea invertible. Una pregunta interesante es saber
cuándo ocurrirá esto, y si se puede determinar sólo con la matriz A, aunque
ésta no sea cuadrada. Para ello, se tiene el siguiente resultado:
4.4. El problema de mı́nimos cuadrados 157

Proposición 4.4.1 Sea Am×n una matriz cualquiera. Entonces, se tiene que
AT A es invertible si y sólo si los vectores columna de A son linealmente inde-
pendientes.
Para poder demostrar esta proposición, es necesario antes demostrar el si-
guiente resultado menor:

Lema 4.4.1 Sea A una matriz cuadrada. Entonces, A es invertible si y sólo


sı́ AT A es invertible.
Prueba. −→ A invertible −→ AT invertible
 −→ A · ATinvertible
←− A · A invertible −→ ∃B : AA B = I = B AAT
T T

Tomamos A−1 = AT· B


A · A−1 = A AT · B = I
A−1 · A = AT · B =?
A−1 · A = AT · B · A −→ A · A−1 · A = |A · A{zT · B} ·A = I · A
I

Prueba de la Proposición ??.

En conclusión:

Corolario 4.4.1 Sea A~x = ~b un sistema inconsistente. Entonces, el problema


de mı́nimos cuadrados x
b es único si los vectores columna de A son linealmente
independientes.
Prueba.

Por tanto, la solución de mı́nimos cuadrados x
b es única cuando los vectores
columna de A forman una base para Col(A). Existen por tanto dos posibilidi-
dades para encontrar x b:
Si los vectores columna de Am×n forman una base de Col(A) y Col(A)
es un subespacio vectorial de dimensión n en Rm . En este caso, por la
proposición ??, la matriz cuadrada (AT A)n×n es invertible y
−1
x̂ = AT · A · AT · b.

Si los vectores columna de Am×n no son linealmente independientes, en-


tonces para encontrar xb será necesario resolver AT Abx = AT b usando el
algoritmo de Gauss, y a solución no será única ya que AT A no es inver-
tible.

Ejemplo 4.4.2 En el ejemplo anterior, el problema (a) se podrı́a haber resuel-


to encontrando la inversa de AT A y la solución única de mı́nimos cuadrados
de la siguiente manera:
dado que los vectores columna de A son linealmente independientes se sabe
que AT A es invertible, por lo que la solución de mı́nimos cuadrados se obtiene
−1 T
con la fórmula x̂ = AT A A ~b. Se usa el algoritmo de Gauss para encontrar
T
la inversa de A A:
158 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados

   
17 1 1 0 1 0 5/84 −1/84
∼ .
1 5 0 1 0 1 −1/84 −17/84
Por tanto,  
−1 1 5 −1
AAT =
84 −1 −17
y  
  2
  
1 5 −1 4 0 1   1
x̂ = 0 = .
84 −1 −17 0 2 1 2
| {z }| {z } 1
(AT A)−1 AT | {z }
~b

En el problema (b), como los vectores columna de A son linealmente depen-


dientes se debe resolver el problema AT Ab x = AT ~b con el método de Gauss, y
la solución, como se ve, no será única. Si se toma la matriz
 
1 0 0
1 0 0
 
0 1 0
B= 0 1 0

 
0 0 1
0 0 1 6×3

para el sistema inconsistente B~x = ~b, entonces la solución sı́ será única, ya que
los vectores columna de B son linealmente independientes y Col(A) = Col(B).

4.5. Matrices ortogonales y transformaciones


lineales
MATRICES ORTONORMALES
Sea {~v1 , . . . , ~vk } un conjunto ortonormal, esto es, que verifica que ~v1 · v =
0 ∀i 6= j y además k~vi k = 1, ∀i. Si construimos la matriz cuyos vectores
columna son {~v1 , . . . , ~vk } ¿qué propiedad
 verifica
 esta matriz?
 
~v1 ~v1
T  ..  T  ..  
Sea A = (~v1 , . . . , ~vk ). Entonces A =  .  y A ·A =  .  ~v1 · · · ~vk =
~vk ~vk
   
~v1 · ~v1 ~v1 · ~v2 . . . ~v1 · ~vk 1 0 ... 0
~v2 · ~v1 ~v2 · ~v2 . . . ~v2 · ~vk  0 1 ... 0
=
   
 .. .. .. ..   .. .. .. .. 
 . . . . 
|{z} . . . .
~vk · ~v1 ~vk · ~v2 . . . ~vk · ~vk {~v1 , . . . , ~vk } conjunto
0 0 ... 1
de vectores ortonormales

Esta propiedad motiva la siguiente definición

Definición 4.5.1 Sea Am×n una matriz cualquiera. Se dice que A es una
matriz ortonormal si verifica que A · AT = I = AT · A.
En particular, si A es una matriz ortonormal entonces sus vectores columna
forman un conjunto ortonormal de vectores.
4.5. Matrices ortogonales y transformaciones lineales 159

Pregunta
Si {~v1 , . . . , ~vk } es un conjunto ortogonal (no ortonormal) y definimos A =
(~v1 , . . . , ~vk ), ¿cuál es el resultado de AT A?
Propiedades
Si A es una matriz ortonormal, entonces se verifica que:

(i) kA~xk = k~xk A preserva la longitud de los vectores

(ii) (A~x) · (A~y ) = ~x · ~y A preserva el producto punto

(iii) (A~x) · (A~y ) = 0 ⇐⇒ ~x · ~y = 0

Prueba. Prueba. Prueba  


x1
 .. 
Si A = (~v1 , . . . , ~vk ) y ~x =  . , entonces A~x = x1~v1 + x2~v2 + . . . + ~xk~vk
xk

(i) kA~xk2 = kx1~v1 + . . . + xk~vk k2 =


|{z} kx1~v1 k2 + . . . +
~v1 , . . . , ~vk ortogonales
k~v1 + ~v2 k2 = k~v1 k2 + k~v2 k2
kxk~vk k2 =
=
|{z} |x1 |2 kv1 k2 + . . . + |xk |2 kvk k2 =
|{z} x1 2 + . . . + xk 2 = k~xk2
kλ~
v k=|λ|k~
vk vk unitarios:
kvk k = 1
(
A~x = x1~v1 + . . . + xk~vk
(ii)
A~y = y1~v1 + . . . + yk~vk
Por tanto,

A~x · A~y = (x1~v1 + . . . + xk~vk ) (y1~v1 + . . . + yk~vk )


= x1~v1 (y1~v1 + . . . yk~vk ) + . . . + xk~vk (y1~v1 + . . . yk~vk )
= x1 y1 
~v1· ~v +x1 y2 
~v1· ~v +  .
. . +x1 yk 
~v1· ~v + . . . +
| {z }1 | {z }2 |{z} | {z k}
1 0 0 0
xk y1 
~vk· ~v + 
.
. . +xk yk 
~vk· ~v
| {z }1 |{z} | {z k}
0 0 1
=
|{z} x1 y1 + x2 y2 + . . . + xk yk = ~x · ~y
{~v1 , . . . , ~vk }
conjunto ortonormal

(iii) Se deduce trivialmente de la propiedad (ii)

Supongamos que A tiene todos sus vectores columna l.i.


A~x = ~b única
−1 solución de mı́nimos cuadrados
x̂ = AT A AT ~b
TW : Rn −→ W = col(A)
Definimos b T(b) = PW b ∈ col(A)
160 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
−1
P W = A AT A AT
−1
b̂ = Ax̂ = A AT A A T b = PW b

PW se llama la matriz de proyección, y TW (b) = PW la proyección ortogonal


en W.
Propiedades

(i) Si w ∈ W , entonces P(w) = w

(ii) Si v ∈ H ⊥ , entonces P(v) = 0

Prueba. Prueba. Prueba


w ∈ W = col(A) −→ Ax = w tiene solución.
∃x ∈ Rn : Ax = w
Entonces,
 −1 T 
P(w) = A AT A A Ax

T
−1 T 
= A A A A A x
| {z }
I
= Ax
= w

w ∈ H ⊥ = (col(A)) = N ul(AT ) −→ AT v = 0
−1 T −1
Entonces P(v) = A AT A A v = A AT A
|{z} ·0=0
0
5 Determinantes
En este capı́tulo se introduce el concepto de determinante de una matriz
cuadrada. En la primera sección se definirá el determinante de dos formas: la
primera es un proceso algorı́tmico que sirve como una manera rápida e intuitiva
para calcular este valor asociado a una matriz cuadrada, y después se presen-
tará su definición más formal, como una aplicación entre matrices cuadradas y
los números reales R. De este última forma se podrán demostrar propiedades
importantes que cumple el determinante y que no se pueden demostrar con la
primera forma en la que se ha definido el determinante.
Después se verán algunas aplicaciones del determinante, como por ejemplo
cómo se puede saber que una matriz es invertible usando el determinante, o
como calcular áreas y volúmenes de objetos geométricos.

5.1. Determinante de una matriz cuadrada


El determinante de una matriz sólo se define para matrices cuadradas. En es-
ta sección primeramente se define el determinante para matrices 2 × 2 (que más
tarde se demostrará usando los axiomas que definen a la aplicación determinan-
te, ver Lema ??, para después presentar una forma de calcular el determinante
de una matriz 3 × 3 usando el cómputo para matrices 2 × 2, el determinante
de una matriz 4 × 4 usando el cómputo para matrices 3 × 3, etc.
El determinante de una matriz es un valor que se asigna a una matriz cuadra-
da. Por tanto, si se tiene una matriz A : n × n, a este valor o escalar asociado
a la matriz A se le denota por det(A) ó también |A|.
 
a b
Para matrices A2×2 = .
c d
Por definición:
not. a b def.
det(A) = = ad − bc
c d
Para ver una demostración de esta fórmula, véase el Lema ??.

a22 a23 a a13 a a13


= a11 −a21 12 +a31 12 usando la def. para matrices 2 × 2
a32 a33 a32 a33 a22 a23

= a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )

= a11 a22 a33 − a11 a23 a32 − a21 a12 a33 + a21 a13 a32 + a31 a12 a23 − a31 a13 a22
Equivalentemente:

161
162 Capı́tulo 5. Determinantes

a11 (+) a12 (−) a13 (+)


det(A) = a21 (−) a22 (+) a23 (−) desarrollando por la segunda columna
a31 (+) a32 (−) a33 (+)
a21 a23 a a13 a a13
= −a12 + a22 11 − a32 11
a31 a33 a31 a33 a21 a23

Es fácil comprobar que en ambos casos se va a obtener el mismo resultado.

Ejemplos 5.1.1 Calcúlese el determinante de las siguientes matrices:


 
1 5 0
• A = 2 4 −1 .
0 −2 0
 
5 −7 2 2
0 3 0 −4
• B=
−5 −8 0 3  .

1 5 0 −6
 
3 −7 8 9 −6
0
 2 −5 7 3
• C=
0 0 1 5 0 .
0 0 2 4 −1
0 0 0 −2 0

5.1.1. Definición matemática


En realidad, es mucho más importante conocer las propiedades que verifi-
ca el determinantes, más que conocer cómo se calcula. La definición rigurosa
matemática del determinante dada en la Definición ?? permitirá deducir sus
propiedades y facilitar el cálculo del determinante usando el algoritmo de re-
ducción de Gauss, ya que se demostrará que det(A) = ±det(U ), donde U es
la forma escalonada de A. En esta definición, a la aplicación determinante se
le asociarán tres axiomas que verificarápor definición, y con estos tres axiomas
o propiedades ad hoc se demostrarán todas las demás propiedades del mismo.
Pero antes, la definición:

Definición 5.1.1 Sea det una función con dominio todas las matrices cuadra-
das de dimensión n × n con n ∈ N, y rango R, esto es, una función que a cada
matriz cuadrada A le asocia un único número det(A). Si denotamos por M al
conjunto de todas las matrices cuadradas, entonces:

det : M −→ R
A → det(A)

de tal forma que se verifica que:

(A1) Si In es la matriz identidad de dimensión n, entonces det(In ) = 1, ∀n ∈ N.


5.1. Determinante de una matriz cuadrada 163

(A2) Si se intercambian dos filas en la matriz, el determinante cambia de signo:


   
a11 . . . a1n a11 . . . a1n
 .. .. ..   .. .. .. 
 .
 . .  
 .
 . .  
 ai1 . . . ain   aj1 . . . ajn 
   
det  ... .. ..  = −det  .. .. ..  .

 . . 
 .
 . . 
 aj1 . . . ajn   ai1 . . . ain 
   
 . .. ..   . .. .. 
 .. . .   .
. . . 
am1 . . . amn am1 . . . amn

(A3) det(A) es lineal en cualquiera de sus filas, esto es:


(A3.i) Si los elementos de toda una fila aparecen multiplicados por un mis-
mo escalar λ, entonces se puede sacar λ fuera del determinante:
   
a11 . . . a1n a11 . . . a1n
 .. .. ..   .. .. .. 
 .
 . .  
 .
 . . 
det  λa
 i1 . . . λa in 
 = λdet a
 i1
 . . . a in 

 . . .  . . .
 .. .. ..   .. .. .. 
 

am1 . . . amn am1 . . . amn

(A3.ii) Si una fila se puede descomponer en sumas de la manera que sigue,


entonces la suma sale fuera del determinante:

a11 + a011 . . . a1n + a01n


 
 a21 ... a2n 
det  =
 
.. . .. ..
 . . 
am1 ... amn
 0
a01n
  
a11 ... a1n a11 ...
 a21 ... a2n   a21 ... a2n 
det  . ..  + det  ..
   
.. .. .. 
 .. . .   . . . 
am1 ... amn am1 ... amn

Ejercicio 5.1 Determine si las siguientes afirmaciones son verdaderas o falsas:


(a) det(λA) = λdet(A).
(b) det(A + B) = det(A) + det(B)
 
a b
Lema 5.1.1 Para una matriz A2×2 = el determinante es det(A) =
c d
ad − bc.
Prueba.
En el primer paso, para poder usar el axioma (A3ii) se separa la primera fila
de forma conveniente para poder escribir el determinante de la matriz como
164 Capı́tulo 5. Determinantes

suma de dos determinantes. Se usa el mismo procedimiento para demostrar


que el cálculo del determinante de la matriz A es en realidad la suma de cuatro
determinantes de matrices más simples:
       
a b a+0 0+b a 0 0 b
det = det =det + det
c d c d c d c d
   
a 0 0 b
= det + det
c+0 0+d c+0 0+d
       
a 0 a 0 0 b 0 b
= det + det + det + det .
c 0 0 d c 0 0 d

Ahora se va a usar el axioma (A3i) para encontrar escalares que multiplican a


filas de estas matrices, de tal forma que se van a poder sacar fuera del cálculo
del determinante, y se conseguirán determinantes de matrices aún más simples:
         
a b a 0 a 0 0 b 0 b
det = det + det + det + det
c d c 0 0 d c 0 0 d
       
a·1 a·0 a·1 a·0 b·0 b·1 b·0 b·1
= det + det + det + det
c·1 c·0 d·0 d·1 c·1 c·0 d·0 d·1
       
1 0 1 0 0 1 0 1
= ac det + ad det + bc det + bd det .
1 0 0 1 1 0 0 1

Por (A1) en la Definición ?? se sabe que


 
1 0
det = 1.
0 1

Además, haciendo un intercambio de filas y usando (A2) se tiene que:


   
0 1 1 0
det = − det = − 1.
1 0 0 1
   
1 0 0 1
Sólo faltarı́a calcular el valor de det y det . El razonamiento es
1 0 0 1
muy simple, pero a veces por ser tan simple, no es tan fácil de entender. Por
eso y dado que el  determinante
 de una matriz es un escalar, se va a denotar al
1 0
determinante det ∈ R por D ∈ R. Esto es:
1 0
 
1 0
D ≡ det .
1 0

Entonces, si a la matriz se le hace un intercambio de filas, por (A2) se tiene


que D = −D. Por tanto el valor de D es un escalar que verifica que es igual a
su opuesto con respecto a la operación suma. Eso sólo es posible1 si D = 0.

D = −D y D ∈ R ⇐⇒ D = 0.
1 También se puede despejar D en la ecuación D = −D.
5.1. Determinante de una matriz cuadrada 165
 
1 0
Por tanto, D = det = 0. Usando el mismo argumento se demuestra
  1 0
0 1
que det = 0.
0 1
 
a b
Retomando el cálculo de det , se tiene que:
c d

   *0
  *1
  * −1
  *0

a b 1 0 1 0 0 1 0 1
det = ac det  + ad det  + bc det  + bd det 
c d  1 0  0 1  1 0  0 1
= ad − bc.


Ejercicio 5.2 Usando las tres propiedades deldeterminante en la Definición


3 5
??, calcule el determinante de la matriz .
0 4
Obsérvese que se usa indistintamente las siguientes dos notaciones para denotar
al determinante de una matriz cuadrada A:
 
a11 . . . a1n a11 . . . a1n
 .. . .. ..  = ...
. .. .. = |A|
det(A) = det  .

. .
am1 ... amn an1 ... ann
Se enuncian a continuación algunas de las propiedades que verifica la aplica-
ción determinante, que se demuestran con los tres axiomas dados en la Defini-
ción ??:

Proposición 5.1.1 (Propiedades del determinante) El determinante ve-


rifica las siguientes propiedades:
(a) Si dos filas de una matriz son iguales, su determinante es cero.
(b) Si una matriz tiene una fila de ceros, entonces el determinante es cero.
(c) La operación elemental de filas Fi − > Fi + λFj en la que se sustituye la
fila i.ésima por ella más la suma de λ veces la fila j.ésima no cambia el
valor del determinante de una matriz.
Prueba
(a) Supongamos que en la matriz A la fila i.ésima Fi y la fila j.ésima Fj son
iguales:  
a11 . . . ... a1n
 .. .. .. .. 
 .
 . . .  
 b1 . . . ... bn 
 
A =  ... .. .. ..  .

 . . . 
 b1 . . . ... bn 
 
 . .. .. .. 
 .. . . . 
an1 . . . ... ann
166 Capı́tulo 5. Determinantes

Entonces, si se usa el axioma (A2) en el cálculo del determinante, se tiene


que:

a11 ... ... a1n a11 ... ... a1n


.. .. .. .. .. .. .. ..
. . . . . . . .
b1 ... ... bn b1 ... ... bn
det(A) = .. .. .. .. (A2)
= − .. .. .. .. = −det(A).
. . . . . . . .
b1 ... ... bn b1 ... ... bn
.. .. .. .. .. .. .. ..
. . . . . . . .
an1 ... ... ann an1 ... ... ann

Dado que det(A) ∈ R, se tiene que

det(A) = −det(A) ⇐⇒ det(A) = 0

(b) Si se toma la fila i.ésima como la fila de ceros, usando la propiedad (A3ii)
se tiene que

a11 . . . . . . a1n a11 ... . . . a1n


.. .. . .. .. .. .. ..
. . .. . . . . .
(A3ii)
det(A) = 0 ... ... 0 = 0 · b1 ... . . . 0 · bn
.. .. . .. .. .. .. ..
. . .. . . . . .
an1 . . . . . . ann an1 ... . . . ann

a11 ... ... a1n


.. .. .. ..
. . . .
=0 b1 ... ... bn = 0.
.. .. .. ..
. . . .
an1 ... ... ann

(c) Sea la matriz An×n y B la matriz que se consigue después de hacerle a A


una operación fila del tipo Fi − > Fi + λFj . Sin pérdida de generalidad, se
supone que i = 1 y j = 2. Esto es:
   
a11 a12 . . . a1n a11 + λa21 a12 + λa22 . . . a1n + λa2n
 a21 a22 . . . a2n   a21 a22 ... a2n 
A= . ..  y B =  .
   
. .. . . .. .. . . ..
 . . . .   . . . . 
an1 an2 ... ann an1 an2 ... ann

Se desea demostrar que det(A) = det(B). Para ello, usando los axiomas
(A3i) y (A3ii) de la Definición ?? se tiene que

a11 + λa21 a12 + λa22 ... a1n + λa2n


a21 a22 ... a2n
det(B) = .. .. .. ..
. . . .
an1 an2 ... ann
5.1. Determinante de una matriz cuadrada 167

a11 a12 ... a1n λa21 λa22 . . . λa2n


(A3ii) a21 a22 ... a2n a21 a22 . . . a2n
= .. .. .. .. + .. .. .. ..
. . . . . . . .
an1 an2 ... ann an1 an2 . . . ann

a21 a22 ... a2n


(A3i) a21 a22 ... a2n
= det(A) + λ . .. .. .. .
.. . . .
an1 an2 ... ann
Como el determinante de una matriz con dos filas iguales es cero, se tiene
que
det(B) = det(A).


 
x y z
Ejemplos 5.1.2 Si det(A) =  3 0 2 = 1, calcule los determinantes de
1 1 1
estas matrices 3 × 3:
 
5x 5y 5z
(a) det  23 0 1
1 1 1
 
x y z
(b) det 3x + 3 3y 3z + 2
x+1 y+1 z+1
 
x−1 y−1 z−1
(c) det  4 1 3 
1 1 1

Se enuncian más propiedades del determinante:

Proposición 5.1.2 El determinante verifica las siguientes propiedades:

(a) det(AB) = det(A)det(B).

(b) Si A es triangular superior/inferior, entonces det(A) es la multiplicación


de los elementos de su diagonal.

(c) det(AT ) = det(A).

(d) Todas las propiedades que satisface el determinante en las filas, también
las verifica en las columnas.

Prueba

(a)
168 Capı́tulo 5. Determinantes

(b) Supongamos que A es triangular superior:

 
a11 a12 ... ... a1n

 0 a22 ... ... a2n 

A=
 0 0 a33 ... a3n 

 .. .. .. .. .. 
 . . . . . 
0 0 0 ... ann

Obsérvese que la matriz A es igual a su forma escalonada U . Queremos


demostrar que det(A) = a11 · a22 · . . . · ann . Vamos a distinguir dos casos:

Si todos los elementos de la diagonal en A son distintos de 0. Equiva-


lentemente, si no hay variables libres (los vectores columna son l.i.).
Hacemos ceros encima de cada elemento de la diagonal, mediante ope-
raciones fila............. Esto se puede hacer dado que cada elemento de
la diagonal es distinto de cero, y por tanto es un pivote de la matriz.
Entonces:

a11 a12 ... ... a1n a11 0 ... ... 0


0 a22 ... ... a2n 0 a22 ... ... 0
0 0 a33 ... a3n (P rop.) 0 0 a33 ... 0
=
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
0 0 0 ... ann 0 0 0 ... ann

1 0 ... ... 0
0 1 ... ... 0
(A3i) 0 0 1 ... 0
= a11 · a22 · . . . · ann
.. .. .. .. .
. . . . ..
0 0 0 ... 1

= a11 · a22 · . . . · ann ,

Si algún elemento de la diagonal de la matriz es cero (existen variables


libres).

(c) Sea la descomposición LU de la matriz A. Entonces si U es la forma esca-


lonada de A, existe L una matriz triangular inferior con la diagonal llena
de unos tal que A = L · U . Por tanto además, AT = U T · LT .

Además, como U es triangular superior se tiene que det(U ) = det(U T ).


Como L es triangular inferior y su diagonal sólo tiene unos, se tiene que
det(L) = det(LT ) = 1.
5.1. Determinante de una matriz cuadrada 169

Ası́ que

det(A) = det(L · U ) = det(L) · det(U )


:· 1det(U det(U T )
= 
det(L)
 
  :
)
= 1 · det(U T )
= det(U T ) · 1
det(LT )
T
= det(U ) · 1
= det(U T ) · det(LT )
= det(U T LT )
= det((LU )T )
= det(AT )

(d)

1
Ejercicio 5.3 1. Demuestre que det(A−1 ) = . Para ello, tome la
det(A)
fórmula AA−1 = In y calcule el determinante en esta expresión.

2. Si A es de dimensión n × n, ¿cómo se relacionan det(2A), det(−A) y


det(A2 ) con det(A)?

3. Usando las propiedades del determinante, calcula el determinante de las


siguientes matrices:
   
0 0 0 1 0 1 0 0
0 0 1 0 0 0 1 0

0
 y  
1 0 0 0 0 0 1
1 0 0 0 1 0 0 0

Obsérvese que por la propiedad ?? de la Proposición ?? se puede deducir


facilmente que

Conclusión 5.1.1 Si U es la forma escalonada de la matriz An×n , entonces:

det(A) = ±det(U )

Prueba
Se deduce de la última propiedad. Para calcular U , a la matriz A se le realizan
operaciones fila ............., y como el cómputo del determinante no se ve afecto
al realizar este tipo de operaciones fila sobre la matriz A, el determinante de A
es igual al determinante de U , salvo signo. El signo dependerá, por (A2), del
número de intercambio de filas realizado. 
170 Capı́tulo 5. Determinantes

5.2. Matrices invertibles y la Regla de Cramer


En esta sección se van a dar tres aplicaciones del determinante para matrices
invertibles. La primera es una caracterización de las matrices invertibles usando
el determinante, la segunda es cómo resolver un sistema asociado a una matriz
invertible usando el determinante, y la tercera es cómo encontrar la matriz
inversa de una matriz invertible usando determinantes.

Teorema 5.2.1 (Caracterización para matrices invertibles) Sea A una


matriz cuadrada. Entonces, se verifica que

A es invertible ⇐⇒ det(A) 6= 0

Prueba.
En la Conclusión ?? se tiene que det(A) = ±det(U ). El signo depende de si
para calcular U se hace un cambio de filas o no. Pero como U es una matriz
triangular superior, el determinante de U es la multiplicación de los elementos
de su diagonal. Ası́:

det(A) = ±det(U ) = multiplicación de los elementos de la diagonal de U .

Si A es invertible, entonces todas las columnas de U son columnas pivote, y


dado que los pivotes son distintos de cero siempre, se tiene que A = ±U 6= 0.
Si en cambio det(A) 6= 0, entonces det(U ) 6= 0 lo cual implica que en la
diagonal de U no hay ningún cero, de tal forma que no hay variables libres en
U y la matriz A es invertible.  Por tanto, si uno calcula el determinante
de una matriz y sale que det(A) 6= 0, son muchas las cosas que se pueden
deducir rápidamente: que los vectores columna de A son una base de Rn , que
Col(A) = Rn , que todo sistema de ecuaciones lineales A~x = ~b tendrá solución
para cualquier ~b ∈ Rn y la solución serán las coordenadas del vector ~b en la
base... En cambio, si det(A) = 0, entonces Col(A) 6= Rn , el subespaio vectorial
Col(A) será un subespacio vectorial de Rn de dimensión menor a n, y A~x = ~b
sólo tendrá solución si ~b ∈ Col(A).
Se presenta a continuación una herramienta teórica para resolver sistemas de
ecuaciones lineales cuya matriz asociada es una matriz invertible. Esta regla es
muy poderosa computacionalmente, ya que para un ordenador o computadora
es mucho más fácil y rápido calcular determinantes que resolver sistemas de
ecuaciones lineales usando el método de Gauss.

Regla de Cramer
Sea A una matriz invertible. Se sabe que A~x = ~b siempre tiene solución única,
para cualquier ~b ∈ Rn . Para encontrar la solución (única)
 
x1
 .. 
 . 
 
 xi 
~x =  
 . 
 .. 
xn
5.2. Matrices invertibles y la Regla de Cramer 171

usando determinantes, se debe proceder de la siguiente manera. La componente


xi del vector solución ~x se consigue mediante la fórmula:

det(Ai )
xi = ,
det(A)

donde la matriz Ai se construye tomando la matriz A, y sustituyendo en esta


la columna original i de la matriz por el vector ~b del sistema de ecuaciones
lineales.
(
3x1 − 2x2 = 6
Ejemplo 5.2.1 Sea el sistema de ecuaciones lineales . La
−5x1 + 4x2 = 8
matriz asociada A y el vector ~b son
   
3 −2 ~b = 6
A= ;
−5 4 8
y su determinante viene dado por |A| = 12 − 10 = 2 6= 0, por lo que A es
invertible y la solución ~x es única. Usando la Regla de Cramer, se tiene que las
matrices A1 y A2 se construyen de la siguiente manera:
   
6 −2 3 6
A1 = ; A2 = .
8 4 −5 8

Por tanto, las componentes del vector solución son:

det(A1 ) 24 + 16 40
x1 = = = = 20;
det(A) 2 2

det(A2 ) 24 + 30
x2 = = = 27.
det(A) 2
 
20
y ~x = .
27
(
3ax1 − 2x2 = 4
Ejercicio 5.4 em Sea el sistema de ecuaciones lineales ,
−6x1 + ax2 = 1
donde s ∈ R. ¿Para qué valores de s el sistema tiene única solución? ¿Cuál es
dicha solución?
 
3a −2
Solución. Para que el sistema tenga solución única la matriz A =
−6 a
asociada al sistema, al ser cuadrada, debe ser invertible. Para ello su determi-
nante debe ser distinto de cero. Como det(A) = 3(a − 2)(a + 2), para que el
sistema tenga solución unica se debe verificar que a 6= ±2.
Si a 6= ±2, usando la Regla de Cramer se tiene que las componentes del
vector solución ~x son

4 −2

det(A1 ) 1 a 4a + 2
x1 = = = ;
det(A) 3(a − 2)(a + 2) 3(a + 2)(a − 2)
172 Capı́tulo 5. Determinantes

3a 4

det(A2 ) −6 1 a+8
x2 = = = .
det(A) 3(a − 2)(a + 2) (a + 2)(a − 2)

Cálculo de A−1
En este apartado se explica una forma de calcular la inversa de una matriz
usando determinantes. Si A es una matriz invertible, entonces

1
A−1 = adj(A)
det(A)

donde adj(A) la matriz adjunta de A se define como la matriz transpues-


ta de la matriz de cofactores de A. Para calcular la matriz de cofactores de
A.........................

2(+) 1(−) 3(+)


 

Ejemplo 5.2.2 Inversa de A = 1(−) −1(+) 1(−) 


1(+) 4(−) −2(+)
 
−1 1 1 −1 1 −1
 4 −2 −
 1 −2 1 4 

 1 3 2 3 2 1 
Matriz de cofactores ≡ 
− 4 −2 − 
 1 −2 1 4 

 1 3 2 3 2 1 

−1 1 1 −1 1 −1

5.3. Interpretación geométrica del determinante


Determinante como área y volumen
Trabajemos en R2
Rectángulo de base a y altura b:
área = a · b

Cualquier otro paralelogramo de base a y altura b también tiene esa área:


área(P1 ) = área(P2 ) ≡ a · b
5.3. Interpretación geométrica del determinante 173

b P1 P2

Si hacemos una rotación de cualquiera de estos paralelogramos, tampoco


cambia el área.

b
P2
P1

Relación entre el área y el determinante

P1

a 0
Área(P1 ) = a · b = det = det(v1 , v2 )
0 b
a λa
a · b = det = det(v1 , v2 + λv1 )
0 b
a·b =
|{z} det(v1 + µv2 , 2v1 + v2 )
rotación: se compensan
Conclusión (R2 )
Si un paralelogramo está generado por los vectores ~v1 y ~v2 , entonces su área
es:

A = det(v1 , v2 )

Ejemplo 5.3.1 Calcule el área del paralelogramo definido por los puntos (-
2,2), (0,3), (4,-1) y (6,4).

F R3 el volumen del paralelepı́pedo formado por los vectores ~v1 , ~v2 , ~v3
es:

V = det(~v1 ~v2 ~v3 )


174 Capı́tulo 5. Determinantes

Cómo cambia el área de un paralelogramo al aplicarle una trans-


formación:
   
~ 1 ~ 5
Ejemplo 5.3.2 Sea el paralelogramo definido por b1 = y b2 = , y la
3 1
 
1 −1
transformación definida por A = . ¿Cuál es el área del paralelogramo
0 2
T(S) ?
6 Valores propios y vectores propios
blablabla

6.1. Valores propios, vectores propios y el


polinomio caracterı́stico de una matriz
cuadrada A
Para entender qué es un valor propio y un vector propio asociados a una
matriz dada, primero se va a dar la definición formal para despues interpretar
este resultado con unos ejemplos.

Definición 6.1.1 Sea A una matriz cuadrada de dimensión n × n. Se dice que


~vλ 6= ~0 ∈ Rn es un vector propio de A asociado al valor propio λ ∈ R si se
verifica que
A~vλ = λ~vλ .
   
1 6 6
Ejemplo 6.1.1 Sea la matriz A = y los vectores ~u = ; ~v =
5 2 −5
 
3
. Compruebe si ~u, ~v son vectores propios de la matriz, y si lo fueran
−2
identifique el valor propio asociado.

Respuesta. Para comprobar si ~u es vector propio de A, se debe calcular


A~u y comprobar si es múltiplo de ~u. En caso de que lo fuera, el factor de
multiplicidad será el valor propio asociado. Lo mismo para ~v . Obsérvese que
 ! !
 −24 6
A~u = 20 = (−4) −5 ;



! !
 −9 3
A~v = 11 6= −3 −2 .


Por tanto, A~u es proporcional a ~u, estoes, ∃λ = −4 tal que A~u = λ~u, por lo
que ~u es vector propio de A con valor propio λ = −4. En cambio, A~v no es
proporcional a ~v , esto es,@λ ∈ R tal que A~v = λ~v , por lo que ~v no es vector
propio de ~v .
Al multiplicar A por el vector ~u, la matriz A transforma ~u en cuatro veces ~u
en sentido contrario. En cambio, A transforma ~v en otro vector con dirección
distinta de ~v .
Dibujo


175
176 Capı́tulo 6. Valores propios y vectores propios

Se puede concluir por tanto que si ~v es un vector propio de A, A transforma


~v mediante la multiplicación A~v en un múltiplo del mismo, por lo que A dila-
ta/contrae y/o cambia de sentido a ~v . Para que esto pueda ocurrir, es necesario
que A~v tenga las mismas dimensiones que ~v , y es por eso que es necesario que
A sea una matriz cuadrada.
En la Definición ?? se exige que A sea una matriz cuadrada, ya que estudian-
do las dimensiones, para que A~v sea múltiplo de ~v , es absolutamente necesario
ambos vectores estén en el mismo espacio vectorial Rn . En general, si Am×n
y ~v ∈ Rn , entonces A~v ∈ Rm . Es por eso que para que A~v = λ~v para algún
λ ∈ Rn se debe verificar que m = n y A es cuadrada. Además, por definición,
~v 6= ~0. Si no se exigiera esta definición se tendrı́a que

A~0 = λ~0, ∀λ ∈ R,

y en conclusión todos los escalares R serı́an valores propios de cualquier matriz


cuadrada A.
Se estudiará a continuación qué ocurre cuando λ = 0 es un valor propio de
A. Entonces, se verifica que

∃~v 6= ~0 tal que A~x = ~0,

esto es, el sistema homogeneo asociado a la matriz A tiene una solución no


trivial. Dicho de otra manera, en el espacio nulo de A existen más vectores
aparte del vector ~0, lo cual implica que A no es invertible. En conclusión:

Proposición 6.1.1 (Caracterización de matrices invertibles) Sea A una


matriz cuadrada. Entonces, A es invertible sı́ y sólo sı́ λ = 0 no es un valor
propio de la matriz.
Prueba. A es invertible sı́ y solo sı́ Nul(A) = {~0}, lo cual es equivalente a
que la única solución de A~x = ~0 es la solución trivial ~x = ~0. A su vez, esto es
equivalente a decir que no existe un vector ~v distinto de ~0 que verifique que
A~v = 0~v , esto es, λ = 0 no es un valor propio de A. 

Cálculo de los valores propios de An×n


A continuación se encontrará la condición que debe verificar un escalar λ ∈ R
para ser valor propio de A, y bajo esa condición se determinará el método
óptimo para encontrar los valores propios de una matriz cuadrada. Obsérvese
que, si In es la matriz identidad de dimensión n × n, dado que In~v = ~v para
cualquier ~v ∈ Rn , se tiene que λ~v = λIn~v . Entonces:

λ es valor propio de A ⇐⇒ ∃~v 6= ~0 : A~v = λ~v


⇐⇒ ∃~v 6= 0 : A~v − λ~v = 0
⇐⇒ ∃~v 6= 0 : (A − λIn×n ) ~v = 0
⇐⇒ (A − λIn ) ~x = 0 tiene solución no trivial
⇐⇒ El sistema (A − λIn ) ~x = 0 tiene variables libres
⇐⇒ La matriz A − λIn no es invertible
⇐⇒ det(A − λIn ) = 0.
6.1. Valores propios, vectores propios y el polinomio caracterı́stico de una
matriz cuadrada A 177
En Conclusión, la condición que debe verificar un escalar λ ∈ R para ser valor
propio de A es que la matriz A − λIn tenga determinante igual a cero. Para
encontrar todos los valores propios de una matriz A, se define el siguiente
polinomio, de tal forma que las raı́ces de este polinomio sean los valores propios
de la matriz.

Definición 6.1.2 Sea An×n una matriz cuadrada. Se define el polinomio ca-
racterı́stico de A como
pA (x) = det(A − xIn ).
Es fácil comprobar el siguiente resultado:

Lema 6.1.1 El polinomio caracterı́stico de una matriz de dimensión n × n es


de grado n y sus raı́ces son los valores propios de la matriz.
Prueba. Si los coeficientes de A vienen dados por aij , entonces
 
a11 − x a12 ... a1n
22 − x
 a21 a ... a2n 
A − xIn =  . .
 
.. .. ..
 .. . . . 
an1 an2 . . . ann − x

Por lo tanto, al hacer el cálculo del determinante, en el término donde se mul-


tiplican todos lo elementos de la diagonal se obtendrá un término del tipo cxn ,
donde c ∈ R, por lo que pA (x) es de grado n.
Además, las raı́ces del polinomio son aquellos valores λ tal que pA (λ) = 0. Si
se evalúa λ en el polinomio, se tiene que λ es raı́z de pA (x) si det(A − λIn ) = 0,
lo que es equivalente a que λ sea un valor propio de la matriz A. 
A continuación se presenta un ejemplo de cómo calcular los valores propios
de una matriz 2 × 2 usando este método:
 
2 3
Ejercicio 6.1 Se desea encontrar los valores propios de la matriz A = .
3 −6
Para ello es necesario primero encontrar el polinomio caracterı́stico asociado a
la matriz, y después las raı́ces del mismo.
Dado que
     
2 3 1 0 2−x 3
A − xI2 = −x = ,
3 −6 0 1 3 −6 − x

se tiene que

2−x 3
pA (x) = det(A−xI2 ) = = (2−x)(−6−x)−9 = (x−3)(x+7).
3 −6 − x

Por tanto, pA (x) = (x − 3)(x + 7), y los valores propios de A son λ1 = 3 y


λ2 = −7.
Para terminar esta sección, se va a definir la multiplicidad algebraica de un
valor propio asociado a una matriz cuadrada A. una de las muchas formula-
ciones del teorema fundamental del Álgebra para polinomios reales dice que si
178 Capı́tulo 6. Valores propios y vectores propios

p( x) es un polinomio de grado n con coeficientes reales, entonces éste siempre


se va a poder descomponer como un producto de polinomios lineales (de grado
1) y polinomios cuadráticos (de grado 2) con raı́ces complejas no reales (en
C − R). Por tanto, dado que pA (x) es un polinomio con coeficientes reales, y
sus raı́ces son los valores propios de A, si λ1 , . . . , λr son los valores propios de
A, se tiene que:

pA (x) = (x − λ1 )m1 . . . (x − λr )mr q(x),

donde o bien q(x) = 1 ó q(x) es un polinomio con coeficientes reales pero


con raı́ces en C − R. Por ejemplo, q(x) = x2 + 1 es un polinomio con estas
caracterı́sticas.

Definición 6.1.3 Sea A una matriz cuadrada con valores propios λ1 , . . . , λr y


polinomio caracterı́stico pA (x) = (x−λ1 )m1 . . . (x−λr )mr q(x) tal como está ex-
plicado más arriba.
Entonces, se define al exponente mi como la multiplicidad algebraica de λi ,
para i = 1, . . . , r.
Por tanto, una matriz An×n tendrá máximo n valores propios, y sólo si q(x) = 1
y el factor de multiplicidad de cada valor propio es igual a 1.

6.1.1. Cálculo de los vectores propios de An×n


Ahora ya se conoce una manera de calcular los valores propios de una matriz
A. Una vez que se conocen estos valores propios, es fácil calcular los vecto-
res propios asociados a cada valor propio. Es más, el conjunto de todos estos
vectores propios formarán un subespacio vectorial.
Obsérvese que ~v 6= ~0 es un vector propio de A sı́ y sólo sı́ existe un valor
propio λ ∈ R de tal forma que A~v = λ~v , esto es, tal como se ha argumentado
anteriormente, sı́ y sólo sı́ ~v es solución del sistema homogeneo asociado a la
matriz A − λI, lo cual es equivalente a ~v ∈ Nul(A − λIn ). En conclusión,
encontrar los vectores propios asociados a un valor propio es equivalente a
encontrar el Espacio Nulo de la matriz A − λIn .

Definición 6.1.4 Sea A una matriz cuadrada y λ un valor propio de A. Si


V( λ) es el conjunto de todos los vectores propios asociados a λ, esto es,

V(λ) = {~v ∈ V : A~v = λ~v } ,

entonces V( λ) es el subespacio vectorial Nul(A − λIn ) de Rn :

V(λ) = Nul(A − Iλ) ≤ Rn .

A V(λ) se le conoce como el espacio propio de λ, la dimensión del espacio


propio de V(λ) es la multiplicidad geométrica de λ.

Obsérvese que dado que siempre existe un vector ~v 6= ~0 que verifica que ~v ∈
V(λ) y V(λ) es un subespacio vectorial de Rn , la recta generada por ~v 6= ~0
está contenida en V(λ) , por lo que dim(V(λ) ) ≥ 1. Existe también una cota
superior para la multiplicidad geométrica de λ:
6.1. Valores propios, vectores propios y el polinomio caracterı́stico de una
matriz cuadrada A 179
Proposición 6.1.2 Sea A una matriz cuadrada con valor propio λ, mλ la
multiplicidad algebraica de λ y dim(V(λ) ) su multiplicidad algebraica.
Entonces, siempre se verifica que

1 ≤ dim(V(λ) ) ≤ m(λ) .

Ejercicio 6.2 (a) Sea la matriz


 
5 −2 6 −1
0 3 −8 0 
B=
0
.
0 5 4
0 0 0 1

Determine sus valores propios, y las multiplicidades algebraicas y geométri-


cas de cada valor propio.

(b) Demuestre que los valores propios de una matriz triangular superior/inferior
son los valores de la diagonal principal, y concluya cuáles son los valores
propios de las matrices
   
3 6 −8 4 0 0
A = 0 0 6 ; B = −2 1 0.
0 0 2 5 3 4

Resolución.

(a)

(b)
 
a11 0 ... 0
 a21 a22 ... 0 
A= .
 
.. .. ..
 ..

. . . 
an1 an2 ... ann
 
a11 − x 0 ... 0
 a21 a22 − x . . . 0 
A − Ix =  .
 
. . ..
 .. .. .. 
. 
an1 an2 . . . ann − x
 
a22 − x ... 0
 .. .. ..
pA (x) = det(A − Ix) = (a11 − x) det  .

. . 
an2 . . . ann − x
 
a33 − x ... 0
 .. .. ..
= (a11 − x) (a22 − x) det  .  = ...

. .
an3 ... ann − x
= (a11 − x) (a22 − x) . . . (ann − x)
180 Capı́tulo 6. Valores propios y vectores propios



 λ1 = a11

λ2 = a22

pA (x) = 0 ⇐⇒ .
..



λn = ann


A continuación se analiza cuándo se puede asegurar que dos vectores propios
de una misma matriz de dimensión n × n serán linealmente independientes, y
se generaliza el resultado a r vectores propios en Rn .

Lema 6.1.2 Sea A una matriz cuadrada de dimensión n × n, y ~v y w ~ dos


vectores propios de A asociados a dos valores propios λ y µ distintos. Entonces,
~v y w
~ son linealmente independientes.
Prueba. Las hipótesis de este lema son: A~v = λ~v , aw ~ = µw,~ y λ 6= µ. Por
tanto, estas tres condiciones se satisfacen necesariamente. Se desea demostrar
que ~v y w
~ son linealmente independientes. Para ello, se supondrá que no lo son
por reducción al absurdo. Esta suposición provocará una incongruencia con
las hipótesis, lo cual permitirá demostrar que efectivamente son linealmente
independientes. Se procede a la demostración.
Por reducción al absurdo, se supone que existen ~v y w~ dos vectores propios
asociados a dos valores propios distintos son linealmente dependientes. Como
~v 6= 0, por ser vector propio, se tiene que ∃α ∈ R − {0} tal que ~v = αw.
~ Como

A~v = λ~v

por hipótesis, se sustituye ~v por αw


~ en la igualdad para obtener que

A(αw)
~ = λαw
~ =⇒ α(Aw)
~ = λαw.
~

Dado que w
~ es un vector propio de A, se tiene que Aw
~ = µw,
~ por lo que

α(µw)
~ = λαµ.

Se sabe que α 6= 0, ası́ que simplificando en ambos lados de la ecuación se tiene


que
µw~ = λµ.
En conclusión, el vector µw~ es igual al vector λµ, y ambos son múltiplos de w.
~
Esto sólo puede ocurrir cuando el factor de multiplicidad de ambos vectores es
el mismo. Ası́ que µ = λ. Pero esto va en contra de una de las hipótesis, se sabe
que los valores propios asociados a los vectores propios son distintos.
Por lo tanto, hemos llegado a un absurdo, ası́ que lo supuesto es falso y ~v yy
w
~ son linealmente independientes. 
La generalización de este lema se presenta en el siguiente teorema:

Teorema 6.1.1 Sea A una matriz cuadrada y sean λ1 , . . . , λr r valores pro-


pios distintos de A. Si ~v1 , . . . , ~vr son vectores propios asociados a λ1 , . . . , λr ,
entonces ~v1 , . . . , ~vr son linealmente independientes.
6.1. Valores propios, vectores propios y el polinomio caracterı́stico de una
matriz cuadrada A 181
Prueba La demostración se realizará por inducción sobre r ≥ 2. Para ello, se
deben verificar las siguientes dos premisas:
(i) r = 2 es cierto.
(ii) Si r − 1 es cierto, entonces r también es cierto.
La primera premisa (i) ya está demostrada en el Lema ??. Por tanto, se pro-
sigue a demostrar la segunda premisa. Para ello, se asume por hipótesis que si
se tienen r − 1 vectores propios ~v1 , . . . , ~vr−1 asociados a r − 1 valores propios
λ1 , . . . , λr−1 distintos de A, entonces ~v1 , . . . , ~vr−1 son linealmente independien-
tes. Se toma un valor propio λr distinto a los r − 1 anteriores, y se añade
un vector propio ~vr asociado a λr . Se desea demostrar que ~v1 , . . . , ~vr son li-
nealmente independientes. Por reducción al absurdo, se supone que ~v1 , . . . , ~vr
son linealmente dependientes. Como por hipótesis ~v1 , . . . , ~vr−1 son linealmente
independientes, obligatoriamente ~vr debe ser combinación lineal de los r − 1
anteriores. Ası́:
∃β1 , . . . , βr−1 tal que ~v = β1~v1 + . . . + βr−1 vr−1 .
Se multiplica el vector de ambos lados de la igualdad con la matriz A de forma
adecuada. Entonces
A~vr = A (β1~v1 + . . . + βr−1~vr−1 ) ,
esto es,
A~vr = β1 (A~v1 ) + . . . + βr−1 (A~vr−1 ).
Como ~v1 , . . . , ~vr son vectores propios, se tiene que
λr ~vr = β1 λ1~v1 + . . . + βr−1 λr−1~vr−1 .
Sustituyendo el vector ~vr como combinación lineal de los vectores ~v1 , . . . , ~vr se
tiene que:
λ (β1~v1 + . . . + βn−1~vn−1 ) = β1 λ1~v1 + . . . + βr−1 λr−1~vr−1 .
Reordenando los términos adecuadamente se tiene que
~0 = β1 (λ1 − λr )~v1 + . . . + βr−1 (λr−1 − λr )~vr−1

Por tanto, se ha conseguido escribir el vector ~0 como una combinación lineal de


los vectores ~v1 , . . . , ~vr−1 . Como estos son linealmente independientes, se tiene
que esto sólo puede ocurrir si todos los pesos son iguales a cero, esto es:

β (λ − λr ) = 0
 1 1


..
 .

β (λ
r−1 r−1 −λ )=0
r

Si β1 = 0, . . . , βr−1 = 0, entonces el vector ~vr es el vector ~0, lo cual es imposi-


ble dado que es un vector propio de la matriz A. Por tanto, necesariamente debe
existir un peso βi distinto de cero en la expresión. Si ~bi 6= 0, necesariamente
λi − λr = 0, esto es, λi = λr , lo cual es un absurdo ya que por hipótesis todos
los valores propios son distintos. Por tanto lo supuesto es falso y los vectores
~v1 , . . . , ~vr son linealmente independientes. 
182 Capı́tulo 6. Valores propios y vectores propios

Ejercicio 6.3 Encuentre una condición suficiente sobre una matriz A para que
exista una base de Rn constituida por los vectores propios de la matriz A.

6.2. Diagonalización
Se dice que dos matrices cuadradas A y B son similares si existe una matriz
inversa P , que se llama matriz de transición, de tal forma que

A = P BP −1 .

Obsérvese que esto es equivalente a que B = P −1 AP . Por tanto, usando la


matriz P se puede ir de una matriz a otra.

Ejercicio 6.4 (a) Demuestre que si dos matrices son similares, entonces tienen
el mismo polinomio caracterı́stico.

(b) Deduzca que si dos matrices son similares, entonces tienen los mismos va-
lores propios.

(c) Encuentre dos matrices que tienen los mismos valores propios, pero no son
similares

Resolución

(a)
A = P · B · P −1 .

A − λI = P −1 · B · P − λ · P −1 · P
= P −1 · B · P − P −1 (λI)P
= P −1 (B − λI)P

I = P −1 · P
det(I) = det(P −1 ).detP
1 = det(P −1 ).detP

Por tanto,

PA (x) = det(A − λI) = det(P −1 (B − λI)P )


= det(P −1 ).det(B − λI).detP
= det(B − λI).det(P −1 ).detP
1 
= det(B − λI). .detP
detP

= det(B − λI)) = PB (x).

(b)

(c) Aunque dos matrices tengan los mismos valores propios, no tienen por-
qué ser similares.

A ∼ B −→ PA(x) = PB (x)
6.2. Diagonalización 183

Negación del teorema anterior:

PA(x) 6= PB (x) −→ A  B

Sea una matriz A con polinomio caracterı́stico:

2
PA(x) = (x − 1) (x − 2)

Sea B una matriz con polinomio caracterı́stico:

2
PA(x) = (x − 1)(x − 2)

A y B tienen los mismo valores propios, (1 y 2) pero como PA(x) 6= PB (x) ,


no son similares. Ejemplo:
   
1 3 4 1 3 4
A = 0 1 5 y B = 0 2 5
0 0 2 0 0 2


Cuando la matriz B es una matriz diagonal del tipo
 
λ1 0
 λ 2

D= ,
 
.. 
 . 
0 λn n×n

se dice que A es diagonalizable, ya que mediante la matriz P se puede ir desde


la matriz A a la matriz diagonal D.

Definición 6.2.1 Sea A una matriz cuadrada. Se dice que A es diagonalizable


si existe P una matriz invertible y D una matriz diagonal de tal forma que
A = P DP −1 .
Por tanto, si una matriz A es similar a una matriz diagonal, entonces se dice
que es diagonalizable. Es interesante estudiar si todas las matrices cuadradas
son diagonalizables, y en caso de que alguna lo sea, cómo se deben construir las
matrices P y de D para demostrar que efectivamente lo son. En el siguiente teo-
rema se da una caracterización para saber cuándo una matriz es diagonalizable,
y en la demostración se explica cómo se deben construir P y D.

Teorema 6.2.1 (Caracterización para matrices diagonalizables) Sea A


una matriz cuadrada. Entonces, A es diagonalizable sı́ y sólo si A tiene n vec-
tores propios linealmente independientes.
Prueba. Dado que es una equivalencia, se deben demostrar las dos implica-
ciones.
⇐=: por hipótesis, A posee n vectores propios linealmente independientes:
~v1 , . . . , ~vn . Estos vectores verifican que A~v1 = λ1~v1 , . . . , A~vn = λn~vn para n
184 Capı́tulo 6. Valores propios y vectores propios

valores propios λ1 , . . . , λn (no


 necesariamente distintos). Por tanto, si definimos
la matriz P = ~v1 . . . ~vn , se tiene que:
 
AP = A~v1 . . . A~vn = λ1~v1 . . . λn~vn .

Por definición, P es una matriz invertible. Además, si se define la matriz diago-


nal D de tal forma que los elementos de la diagonal son los valores λ1 , . . . , λn ,
se tiene que:
 
λ1 0 . . . 0
 0 λ2 . . . 0 
  
P D = ~v1 . . . ~vn  . . . . = λ1~v1 . . . λn~vn ,
 .. .. . . .. 

0 0 ... λn

por lo que
AP = P D.
Como P es invertible, se tiene entonces que A = P DP −1 .
⇐=: por hipótesis, A es diagonalizable, por lo que existe una matriz invertible
P y una matriz diagonal D tal que A =P DP −1 , lo que es  equivalente a que
λ1 0 . . . 0
  0 λ2 . . . 0 
AP = P D. Si P = ~v1 . . . ~vn y D =  . ..  , dado que P es
 
.. . .
 .. . . . 
0 0 . . . λn
invertible los vectores ~v1 , . . . , ~vn son linealmente independientes. Además,
 
AP = A~v1 . . . A~vn ; P D = λ1~v1 . . . λn~vn ,

por lo que al igualar columna a columna estas dos matrices se tienes que

A~vi = λi~vi , ∀i = 1, . . . , n,

ası́ que los vectores columna de la matriz P son vectores propios de la matriz
A. 
En la Definición ?? las matrices P y D no son únicas, dado que por la
demostración del Teorema ?? se puede ver que, la construcción de las matrices
depende del orden en que se coloquen los vectores y los valores propios. Por
tanto, dependiendo en qué orden se pongan estos, se podrán construir diferentes
matrices P y D que verificarán que A = P DP −1 .
El concepto de diagonalización e invertibilidad de una matriz cuadrada son
conceptos totalmente independientes. Esto es, pueden existir matrices inverti-
bles que no son diagonalizables, o al revés, matrices diagonalizables que no son
invertibles.
 
1 1
Ejemplo 6.2.1 Sea la matriz A = . Obviamente, la matriz A no
0 0
es invertible dado que sus vectores columna son linealmente dependientes (o
det(A) = 0). Se calcula a continuación si es diagonalizable:
 
1−x 1
pA (x) = det(A − xI2 ) = = x(1 − x).
0 x
6.2. Diagonalización 185

Sus valores propios son λ1 = 0 (tal como era de esperar dado que la matriz no es
invertible, véase Proposición ??) y λ2 = 1. Sea ~v1 6= 0 un vector propio asociado
a λ1 y ~v2 6= 0 otro vector propio asociado a λ2 . Entonces, estos dos vectores
propios son linealmente independientes y por  el Teorema
 ??  la matriz
 A es
 λ1 0 0 0
diagonalizable. Es más: P = ~v1 ~v2 y D = = verifican
0 λ2 0 1
   
λ2 0 1 0
que A = P DP −1 , pero P̃ = ~v2 ~v1 y D̃ =

= también
0 λ1 0 0
verifican que A = P̃ D̃P̃ −1 . Para calcular los vectores ~v1 y ~v2 es necesario
calcular los espacios propios V(λ) asociados a los valores propios de la matriz,
esto es, V(0) = Nul(A) y V(1) = Nul(A − I2 ). Este cálculo se deja al lector.
Una buena pregunta serı́a si es que una matriz cuadrada es siempre diagona-
lizable. Para ver que no es ası́, se deberı́a encontrar un ejemplo de una matriz
que no tiene n vectores linealmente independientes.
 
2 4 3
Ejemplo 6.2.2 Sea la matriz B = −4 −6 −3. Se desea comprobar si
3 3 1
B es diagonalizable, y en caso de que lo sea se desea construir las matrices
P y D. Para ello, se procede a calcular los valores propios de B. Dado que
estos son las raı́ces del polinomio caracterı́stico, primero se calcula el polinomio
caracterı́stico de B, que es:
2−x 4 3
PB (x) = det −4 −6 − x −3 = −(x − 1)(x + 2)2 .
3 3 1−x
Por tanto, λ1 = 1 es un valor propio de B con multiplicidad algebraica m(1) =
1, y λ2 = −2 es el otro valor propio de B, con multiplicidad algebraica de
m(−2) = 2. Ya se puede deducir cómo será una posible opción para la matriz
diagonal D en caso de que B sea diagonalizable:
 
1 0 0
D = 0 −2 0  .
0 0 −2
Para calcular P es necesario encontrar un vector propio asociado a λ1 = 1,
y dos linealmente independientes asociados a λ2 = −2. Obsérvese que dado
que 1 ≤ textdim(V(λ) ) ≤ mλ para cualquier valor propio λ, entonces se puede
deducir que la multiplicidad geométrica de λ1 = 1 será de valor 1, esto es, V(1)
es una recta en R3 , pero la multiplicidad geométrica de λ2 = −2 será de 1
ó 2, esto es, aún no se sabe si V(−2) será una recta o un plano en R3 . Si es una
recta, entonces será imposible construir P y por tanto B no será diagonalizable.
Si es cambio es un plano, sı́ será posible encontrar dos vectores linealmente
independientes asociados a λ2 = −2, y B será diagonalizable.
Para calcular V(−2) = Nul(B + 2I3 ), se resuelve es sistema homogeneo aso-
ciado a la matriz B + 2I3 , y se obtiene que:
 
1
V(−2) −1 .
0
186 Capı́tulo 6. Valores propios y vectores propios

Por lo tanto, V(−2) es una recta en R3 , sólo se pueden encontrar 2 vectores


propios linealmente independientes de B, el asociado al valor propio λ1 = 1
y el asociado a λ2 = −2, y son necesarios 3 para la construcción de P en la
Definición ??, ası́ que B no es diagonalizable.

Existe una condición suficiente pero no necesaria para que una matriz siempre
puede ser diagonalizable.

Proposición 6.2.1 Si una matriz cuadrada A tiene n valores propios distin-


tos, entonces A es diagonalizable.

Prueba. Si hay n valores propios distintos, entonces hay n vectores propios


distintos y por teorema, estos son l.i. Ası́ que se verifica la parte derecha del
teorema anterior −→ A es diagonalizable.

Obsérvese que este caso sólo tiene una implicación, esto es, aunque A sea
diagonalizable, no necesariamente A tendrá n valores propios distintos. Podrı́a
ocurrir que aún a pesar de tener menos valores propios distintos, pudiera ser
diagonalizable, como ocurre en el siguiente ejemplo:
 
1 3 3
Ejemplo 6.2.3 Sea la matriz A = −3 −5 −3. Se desea comprobar si
3 3 1
A es diagonalizable, y en caso de que lo sea se desea construir las matrices
P y D. Para ello, se procede a calcular los valores propios de A. Dado que
estos son las raı́ces del polinomio caracterı́stico, primero se calcula el polinomio
caracterı́stico de A, que es:

1−x 3 3
PA(x) = det −3 −5 − x −3 = −(x − 1)(x + 2)2 .
3 3 1−x

Por tanto, λ1 = 1 es un valor propio de A con multiplicidad algebraica m(1) =


1, y λ2 = −2 es el otro valor propio de A, con multiplicidad algebraica de
m(−2) = 2. Ya se puede deducir cómo será una posible opción para la matriz
diagonal D en caso de que A sea diagonalizable:
 
1 0 0
D = 0 −2 0  .
0 0 −2

Para calcular P es necesario encontrar un vector propio asociado a λ1 = 1,


y dos linealmente independientes asociados a λ2 = −2. Obsérvese que dado
que 1 ≤ textdim(V(λ) ) ≤ mλ para cualquier valor propio λ, entonces se puede
deducir que la multiplicidad geométrica de λ1 = 1 será de valor 1, esto es, V(1)
es una recta en R3 , pero la multiplicidad geométrica de λ2 = −2 será de 1
ó 2, esto es, aún no se sabe si V(−2) será una recta o un plano en R3 . Si es una
recta, entonces será imposible construir P y por tanto A no será diagonalizable.
Si en cambio es un plano, sı́ será posible encontrar dos vectores linealmente
independientes asociados a λ2 = −2, y A será diagonalizable.
6.2. Diagonalización 187

Cálculo de V(−2) = Nul(A + 2I3 ):


 
3 3 3
V(−2) = N ul −3 −3 −3 .
3 3 3

Se resuelve es sistema homogeneo asociado a la matriz A + 2I3 :


   1 1 1 0

3 3 3 0 (
 −3  0 0 0 0  x = −y − z
−3 −3 0 ∼  =⇒
0 0 0 0 y, z ∈ R
3 3 3 0 |{z} |{z} |{z}
CP VL VL

Por tanto:
   *   +
 −y − z  −1 −1
V(−2) =  y  : y, z ∈ R =  1  ,  0  .
z 0 1
 

Por lo tanto, V(−2) es un plano en R3 , y existen 3 vectores propios linealmente


independientes de A, el asociado al valor propio λ1 = 1 y los dos asociados a
λ2 = −2, por tanto es posible construir la matriz invertible P en la Definición
??, ası́ que A es diagonalizable.
Dado que se tomó la matriz diagonal poniendo los valores propios de la matriz
A en el siguente orden  
1 0 0
D = 0 −2 0  ,
0 0 −2
es necesario construir la matriz P de forma que los vectores propios siguen el
mismo orden que los valores propios en D. En la primera columna de P se debe
poner el vector propio asociado a λ1 = 1 y en la segunda y tercera columna los
vectores que generan al plano V(−2) , pero en este caso no importa el orden en
que se coloquen, por lo que es posible encontrar dos matrices P que verifican
la condición AP = P D para que la matriz sea diagonalizable.
Se calcula la recta V(1) para ası́ construir P :
 
0 3 3
V(1) = N ul(A − I) = N ul −3 −6 −3
3 3 0
Se resuelve es sistema homogeneo asociado a la matriz A − I3 :
     
0 3 3 0 3 3 0 0 3 3 0 0
F →F +F
 −3 −6 −3 0  ∼  0 3 3 0  3 ∼3 1  0 3 3 0 
3 3 0 0 −3 −6 −3 0 0 −3 −3 0

  1 0 −1 0
   
3 3 0 0 1 1 0 0
 0 1 1 0 
 0 3 3 0 ∼ 0 1 1 0 ∼
0 0 0 0

0 0 0 0 0 0 0 0 |{z} |{z} |{z}
CP CP VL
188 Capı́tulo 6. Valores propios y vectores propios

x1 = x3

Por lo tanto las soluciones son x2 = −x3 y

x3 ∈ R

   * +
 x  1
V(1) = −x : x ∈ R = −1
x 1
 

En conclusión, A es diagonalizable y la matriz invertible P y la matriz diago-


nalizable D que verifican la condición A = P DP −1 son
   
1 −1 −1 1 0 0
P = −1 1 0 y D = 0 −2 0
1 0 1 0 0 −2

Es posible comprobar que este resultado es correcto, verificando la siguiente


igualdad: AP = P D.

Ejercicio 6.5 Compruebe que la matriz A del ejemplo ?? es diagonalizable


e invertible, pero la matriz B del ejemplo ?? no es diagonalizable pero sı́ es
invertible.

En conclusión, A va a ser diagonalizable siempre que sea posible encontrar n


vectores propios linealmente independientes, independientemente del número
de valores propios que tenga la matriz. Entonces, si el polinomio caracterı́stico
se descompone en la forma

pA (x) = (x − λ1 )m1 . . . (x − λr )mr q(x),

para que A sea diagonalizable primero se debe verificar que m1 + . . . + mr = n,


esto es, q(x) = 1, pero además cada valor propio debe producir tantos vec-
tores propios linealmente independientes como su valor mi , esto es, las multi-
plicidades algebraicas y geométricas deberán coincidir para que la matriz sea
diagonalizable.

m m
Teorema 6.2.2 Sea A matriz cuadrada y PA(x) = (x − λ1 ) 1 ·. . .·(x − λr ) r q(x).
Entonces, A es diagonalizable sı́ y sólo sı́ q(x) = 1 y además dimV(λi ) = mi ,
para todo i = 1, . . . , r.

Se han visto dos caracterizaciones para matrices diagonalizables, aparte de su


definición formal, pero se puede deducir una más de forma automática:

Teorema 6.2.3 Sea A una matriz cuadrada. Entonces, A es diagonalizable


sı́ y sólo sı́ existe una base de vectores propios de A para Rn .

Prueba. Trivial, dado que A es diagonalizable sı́ y sólo sı́ existen n vectores
propios de A linealmente independientes en Rn . 
6.2. Diagonalización 189

Pasos para ver si A es diagonalizable


1. Encontramos los valores propios de A:

λ ∈ R tal que PA(λ) = 0

2. Encontramos los espacio propios de cada λ:

V(λ) : λ es valor propio de A

3. Construimos P y D, usando la información obtenida anteriormente:


 
λ1 0
 ..  λi son los valores propios de A
 . 
D≡ 
 .. 
 .  se repiten tantas veces como la
0 λn multiplicidad algebraica de λi
 
 
P ≡ 

 las columnas están formadas por las

bases de V(λi )
↓ ↓ ↓
vectores propios que
. generan V(λ )
i

D y P tienen que estar en orden lógico:


Si la columna i-ésima de P tiene
 un vector propio asociado a λ, entonces
0
 .. 
.
 
λ
la columna i-ésima de D es  
.
 .. 
0
4. Si existen D y P, entonces A es diagonalizable. Para construir P, necesito
n vectores propios l.i. (∃P −1 )
X
m(λ) = n

Aplicación: cálculo de Ak con k ∈ R, para una matriz


diagonalizable
Para el cálculo de Ak :

A2 = (P −1 · D · P )(P −1 · D · P )
= P −1 · D2 · P
A = P · D · P −1 y
A3 = A2 · A = (P −1 · D2 · P )(P −1 · D · P )
= P −1 · D3 · P
190 Capı́tulo 6. Valores propios y vectores propios

En general:

Ak = P −1 · Dk · P
y como D es diagonal:

λ1 k
 
0 0 ... 0
 0
 λ2 k 0 ... 0 

Dk =  0
 0 λ3 k ... 0 

 . .. .. ..
 ..

. . . 0 
0 0 0 0 λn k

6.3. Vectores propios y transformaciones


Índice alfabético
Colineal con un vector, 9 fila, 7
múltiplo, 9
Dependencia lineal, 60 multiplicación escalar, 8
suma algebraica, 7
Escalares, 1 suma geométrica, 7
Espacio Vectorial, 87 vector opuesto, 8
Vectores canónicos, 71
Forma escalonada
reducida, 44

Hiperplano, 114

Independencia lineal, 60, 61

Múltiplo de un vector, 9
Matrices, 16
Inversas, 67
invertibles, 67
más conocidas, 16
multiplicación escalar, 19
potencia de una matriz, 22
producto de matrices, 21
producto matriz por vector, 19
suma, 18
transpuestas, 24
Matriz escalonada, 41

Origen, 2

Solución
Forma paramétrica, 50

Variable
libre, 41
pivote, 41
Vectores, 1
colineal, 9
columna, 7
componentes, 2
en Rn , 6
en el espacio R3 , 4
en el plano R2 , 1

191
Índice de figuras
1.1 El conjunto R de los números reales o escalares. . . . . . . . . . 3
1.2 El conjunto R2 , el vector ~0 y un vector cualquiera ~v ∈ R2 cuyas
componentes son escalares positivos. . . . . . . . . . . . . . . . 5
1.3 Ejemplo de vectores en R2 . . . . . . . . . . . . . . . . . . . . . 5
1.4 Mientras que un punto P se dibuja usando como referencia el
origen, un vector ~v puede dibujarse usando como referencia cual-
quier punto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 El conjunto R3 con sus ejes x, y y z. . . . . . . . . . . . . . . . 8
1.6 El conjunto R3 con sus ejes x, y y z en un orden distinto al
proporcionado en la figura 1.5. . . . . . . . . . . . . . . . . . . 8
1.7 El vector ~v sin eje de coordenadas. . . . . . . . . . . . . . . . . 9
1.8 Suma geométrica de vectores en R2 . . . . . . . . . . . . . . . . 10
1.9 El vector λ~v + µw ~ si ~v y w
~ no son múltiplos. . . . . . . . . . . 16
1.10 El vector λ~v +µw~ +ν~u, si ~v , w
~ y ~u no son coplanares o colineales,
esto es, si no están en el mismo plano o recta. . . . . . . . . . . 16

3.1 Posición relativa de dos planos en el espacio. . . . . . . . . . . 116


3.2 Posición relativa de dos rectas en el plano. . . . . . . . . . . . . 118
3.3 Posición relativa de dos planos en el espacio. . . . . . . . . . . 118
3.4 Sistema inconsistente de tres ecuaciones y tres incógnitas . . . 119
3.5 Sistema consistente de tres ecuaciones y tres incógnitas, con una
única solución. . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

193

Potrebbero piacerti anche