Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
ISBN
La Asociación AMARUN tiene por objetivo desarrollar las ciencias exactas en améri-
ca del sur, principalmente en paı́ses de la región andina (Bolivia, Colombia, Ecuador,
Perú). Entre las diversas actividades de AMARUN se encuentra la organización de
escuelas de verano en matemáticas, la producción de material pedagógico (leccio-
nes, hojas de ejercicios) y la edición de una revista de divulgación. Para mayores
informaciones sobre los proyectos y actividades, consultar www.amarun.org
Índice general
Introducción 1
i
ii Índice general
5 Determinantes 161
5.1 Determinante de una matriz cuadrada . . . . . . . . . . . . . . 161
5.1.1 Definición matemática . . . . . . . . . . . . . . . . . . . 162
5.2 Matrices invertibles y la Regla de Cramer . . . . . . . . . . . . 170
5.3 Interpretación geométrica del determinante . . . . . . . . . . . 172
1
1 Vectores y matrices con
coeficientes en R
Este capı́tulo no es más que un breve repaso a conceptos que ya se deberı́an
conocer, como son los vectores en Rn y las matrices en R. Para lectores que ya
tengan un conocimiento previo y un manejo hábil de vectores, se recomienda
revisar únicamente la sección 1.1.3 de este capı́tulo, y para aquellos que tengan
un conocimiento previo del uso de matrices, se recomienda saltarse la lectura
de la sección 1.2.1.
Definición 1.1.1 A los números reales, esto es, a los elementos de la recta
real R se les llamarán escalares y se denotarán con letras del alfabeto griego:
λ, µ, ν, . . . ∈ R.
Rn ≡ R × . . . × R
≡ x1 . . . x n : x1 , . . . , x n ∈ R
x1
..
= . : x1 , . . . , x n ∈ R .
xn
3
4 Capı́tulo 1. Vectores y matrices con coeficientes en R
vn
donde v1 , . . . , vn son las componentes del vector ~v . Además, dos vectores son
iguales si lo son componente a componente.
En este documento, los vectores se van a denotar por una letra del alfabeto
latino con una flecha encima: ~a, ~b, ~v , w,
~ ~x, . . .. Por tanto, dicho de otra manera,
un vector ~v ∈ Rn es una serie ordenada de n números reales o escalares puestos
en fila o en columna. Si están puestos en fila se llamará vector fila, y si están
en columna, vector columna:
Vector Fila ~ = w1
w w2 ... wn donde w1 , . . . , wn ∈ R.
v1
v2
~v = . ∈ Rn donde v1 , . . . , vn ∈ R.
Vector Columna
..
vn
Vectores en el plano R2
Obsérvese que ~v1 y ~v2 no son las componentes de un vector, sino que son dos
vectores con componentes v11 , v12 y v21 , v22 respectivamente:
v v
~v1 = 11 y ~v2 = 21 .
v12 v22
-4 -3 -2 2 3 4
-1
-2
-3
-4
Ejemplo 1.1.2 Identifique en la Figura 1.1.1 cuáles son los puntos equivalentes
a cada vector dado.
Por ejemplo, suponiendo que la unidad viene dada por una longitud
fija como
2
se muestra en la figura 1.4, entonces para dibujar el vector ~v = , basta con
1
decidir el punto de origen de donde va a salir el vector (que podrı́a ser cualquier
punto sobre el plano), moverse dos unidades a la derecha y una hacia arriba
(lı́nea negra en la figura 1.4) o bien una unidad hacia arriba y dos a la derecha
(lı́nea azul en la figura 1.4). Al unir el punto inicial con el punto final y poner
una flecha en la punta, tendremos el vector deseado en R2 , con su dirección
determinada por el segmento de recta del vector, el sentido por la flecha y la
longitud por el teorema de Pitágoras (véase sección 1.1.4).
1.1. Escalares, y Vectores en Rn 7
1
1 1
1
Figura 1.4: Mientras que un punto P se dibuja usando como referencia el ori-
gen, un vector ~v puede dibujarse usando como referencia cualquier
punto.
Vectores en el espacio R3
R3 ≡ R2 × R = R × R × R = {(x, y, z) : x, y, z ∈ R}.
1 1 2 3
2
3
Otro ejemplo para graficar R3 con un ordenamiento de los tres ejes distinto
podrı́a ser el siguiente.
1 1 2 3
2
3
1
1
1
1 1
1 1 2
Si en cambio se usan los ejes como en la figura 1.6, entonces se obtiene que:
1 1 2
2
3
Obsérvese que en ambos casos se obtiene el mismo vector, ya que para ir del
primer vector dibujado en el ejercicio al segundo, se debe primero rotar toda
la figura 90º alrededor del eje x en el sentido contrario a las agujas del reloj y
luego 90º alrededor del eje y en el sentido contrario a las agujas del reloj.
~ ∈ Rn . Entonces, el vector ~v + w
Definición 1.1.5 Sean ~v , w ~ ∈ Rn que es la
suma algebraica de las vectores ~v y w~ se define como:
v1 w1 v1 + w1
~ = ... + ... ≡
~v + w ..
∈R .
n
.
vn wn vn + wn
| {z }
otro vector en Rn
1 1 1 1 1 1
vn
−v1
entonces por definición −~v ≡ ... .
−vn
1. Es conmmutativa: ~u + ~v = ~v + ~u.
2. Es asociativa: (~u + ~v ) + w
~ = ~u + (~v + w).
~
~ ∈ Rn , se tiene que:
Prueba. Como ~u, ~v , w
u1 v1 w1
.. ..
~u = . ; ~v = . ; ~ = ... .
w
un vn wn
Entonces:
u1 + v1 v1 + u1
1. Se calculan ~u + ~v = .. ..
y ~v + ~u = .
. .
un + vn vn + un
Como la operación suma en R para escalares satisface la propiedad con-
mutativa, y las componentes de un vector son escalares, se tiene que
ui + vi = vi + ui , ∀i = 1, . . . , n. Además dos vectores son iguales si lo son
componente a componente. Por tanto se tiene que ~u + ~v = ~v + ~u.
12 Capı́tulo 1. Vectores y matrices con coeficientes en R
−un
escalar −ui es el elemento inverso a ui , es trivial demostrar que ~u +(−~u) =
~0.
vn λvn
Esto es, para obtener las componentes del vector λ~v ∈ Rn se debe multiplicar
cada componente del vector ~v por el escalar λ.
−1
Ejercicio 1.2 (Interpretación geométrica de λ~v ) Sea ~v = . Calcule
2
1 1
y dibuje los vectores 2~v , 2 ~v , (−1)~v , (−2)~v , (− 2 )~v . Interprete el resultado.
ii) Si 0 < λ < 1, entonces gráficamente el vector λ~v es la λ-ésima parte del
vector ~v .
iv) Si λ = −1, entonces (−1) · ~v es el vector opuesto −~v . Esto es, es el vector
~v pero con el sentido cambiado. De nuevo: (−1) · ~v = −~v
| {z } |{z}
un vector
multiplicación de un
v) Si −1 < λ < 0, entonces el vector λ~v es la λ-ésima parte del vector ~v pero
en sentido contrario.
vi) Si λ < −1, entonces el vector λ~v es la suma del vector λ veces, pero con
el sentido contrario.
vii) Obsérvese además que cuando multiplicamos por un número negativo (λ <
0):
λ~v = (−|λ|) ~v = (−1)(|λ|~v ) = (−1) · |λ| · ~v ,
| {z } | {z }
Después Primero
le cambiamos dilatamos/contraemos
dilatamos/contraemos le cambiamos
(−1)un −un
un vn
0~u = ~0.
1 Por ejemplo, el producto punto (ver definición sección 1.1.4) no es una operación cerrada
en Rn ya que al operador dos vectores el resultado es un escalar.
1.1. Escalares, y Vectores en Rn 15
~0 = 0~u + ~0.
Y como la suma de cualquier vector con el vector ~0 es ese mismo vector (Pro-
posición 1.1.1), se concluye que:
~0 = 0~u.
(a) Si sólo se tiene un vector, lo único que se puede hacer es dilatarlo, con-
traerlo y/o cambiarle el sentido. Por tanto, una combinación lineal
de un sólo vector es: λ~v con λ ∈ R, ~v ∈ Rn , esto es, todos los múlti-
plos o vectores colineales a ~v . El conjunto de todos los múltiplos de un
vector forman la recta con dirección ~v que pasa por el origen, como ya
argumentamos (ejercicio 1.3 ).
(c) De la misma forma, la combinación lineal de tres vectores es: λ~v +µw+ν~
~ u
~ ~u ∈ Rn , etc.
con λ, µ, ν ∈ R, ~v , w,
1 1 1 1
1 1 2 1 1 2 1 1 1 1
2 2
Entonces, el vector w
~ es combinación lineal de los vectores ~v1 , ~v2 , ~v3 con pesos
λ1 = 1, λ2 = 2, λ3 = 3, ya que
3 1 1 0
2 = 1 + 2 −1 + 3 1 .
4 1 0 1
2 2
1 1
Sobre el plano x=0
1 1 2 1 1 2
2
Sobre el plano
z=0
1 1
Ejercicio 1.4 (a) ¿Es el vector combinación lineal de los vectores
2 2
2
y ?
4
(b) ¿Es el vector ~v1 combinación lineal de los vectores ~v1 y ~v2 ?
1 2
(c) Sean los vectores y . ¿Es el vector ~0 combinación lineal de estos
2 4
dos vectores? ¿Podrı́as encontrar más de una combinación lineal?
1 1
(d) Sean los vectores y . ¿Es el vector ~0 combinación lineal de estos
2 3
dos vectores? ¿Podrı́as encontrar más de una combinación lineal?
(i) Es conmutativa: ~v · w ~ · ~v .
~ =w
~ · ~z = ~v · ~z + w
(ii) Es distributiva para la suma entre vectores: (~v + w) ~ · ~z.
(iv) ~v · ~v ≥ 0.
(v) ~v · ~v = 0 si y sólo si ~v = 0.
~u · w ~ · ~v .
~ = v1 w1 + . . . + vn wn = w1 v1 + . . . + wn vn = w
20 Capı́tulo 1. Vectores y matrices con coeficientes en R
~v · ~v = v1 2 + . . . + vn 2 ≥ 0.
Primera implicación: ~v · ~v = 0 =⇒ ~v = 0 .
2
La hipótesis es que ~v · ~v = (v1 )2 + . . . + (vn ) = 0. Obsérvese que (v1 )2 ≥
2
0, . . . , (vn ) ≥ 0. La suma de números positivos o cero sólo puede ser igual
a cero si ellos mismos son cero. Por tanto, (vi )2 = 0 para i = 1, . . . , n. Y el
cuadrado de un escalar es igual a cero sólo si ese escalar es cero. En conclusión
vi = 0 para i = 1, . . . , n y
v1 0
~v = ... = ... .
vn 0
Segunda implicación: ~v = 0 =⇒ ~v · ~v = 0 .
Prueba
El vector λ1~v1 + λ2~v2 + . . . + λn~vn se puede ver como la suma de los vectores
λ1~v1 y λ2~v2 + . . . + λn~vn . Por tanto, usando la propiedad distributiva (ii) del
producto punto en la Proposición 1.1.4 para la suma de vectores se tiene que:
λ1~v1 + λ2~v2 + . . . + λn~vn · ~v (ii)
= (λ1~v1 ) · ~v + λ2~v2 + λ3~v3 + . . . + λn~vn ~v
|{z} | {z } |{z} | {z }
∈Rn ∈Rn ∈Rn ∈Rn
1.1. Escalares, y Vectores en Rn 21
(ii),(iii)
(λ1~v1 ) · ~v + λ2~v2 + λ3~v3 + . . . + λn~vn ~v =
|{z} | {z }
∈Rn ∈Rn
λ1 (~v1 · ~v ) + (λ2~v2 ) · ~v + (λ3~v3 + . . . + λn~vn ) · ~v .
(ii),(iii) (ii),(iii)
λ1 (~v1 · ~v ) + (λ2~v2 ) · ~v + (λ3~v3 + . . . + λn~vn ) · ~v = ... =
Longitud de un vector
Para definir la longitud de un vector ~v ∈ Rn usando el producto punto,
primero se conseguirá la longitud para un vector en R2 , luego para un vector
en R3 , y después se generalizará para vectores en Rn . Por último, se introduce
la noción de vector unitario.
(i) kvk ≥ 0.
Prueba
Las dos primeras propiedades se deducen de las propiedades del producto
punto
dadas en Proposición
1.1.4. Para demostrar la propiedad (iii): si ~v =
v1 λv1
.. .
. entonces λ~v = .. . Por tanto:
vn λvn
p p √ √
kλ~v k = λ2 v1 2 + . . . + λ2 vn 2 = λ2 (v1 2 + . . . + vn 2 ) = λ2 · ~v · ~v = |λ|k~v k,
√
ya que por definición a2 = |a| para a ∈ R.
Ejemplo
p 1.1.5 En R2 , un vector ~u es unitario si sus componentes verifican
que (u1 )2 + (u2 )2 = 1. Por tanto, usando la dualidad punto/vector explicada
1.1. Escalares, y Vectores en Rn 23
Sea un vector ~v ∈ Rn − {~0}. Esto es, ~v 6= ~0. ¿Cómo se podrı́a conseguir ese
vector unitario ~u que está en la misma dirección de ~v y con mismo sentido?
Obviamente, este vector es múltiplo de ~v , por lo que ~u = λ~v , ası́ que encontrar
~u es equivalente a encontrar λ. Además, se sabe que, al ser unitario, se verifica
que k~uk = 1 y como ~u y ~v tienen el mismo sentido obligatoriamente λ > 0. Por
tanto, kλ~v k = 1 con λ > 0. Para encontrar λ se despeja en la ecuación:
1
kλ~v k = 1 =⇒ |λ|k~v k = 1 =⇒ |λ| = .
k~v k
Obsérvese que dado que la norma siempre es mayor o igual a cero, se tiene
que k~v1k ≥ 0. Ası́, λ = k~v1k ≥ 0 y se obtiene que el vector unitario ~u = k~v1k ~v
está en la misma dirección y tiene el mismo sentido de ~v , y el vector unitario
−~u = − k~v1k ~v en cambio está en la misma dirección pero tiene sentido contrario
a ~v .
DIBUJO
A continuación se formaliza esta definición:
1
−2 4
√
Ejemplo 1.1.6 Si ~v = 2 ∈ R entonces k~v k = 1 + 4 + 4 = 3 no es un
0
1/3
−2/3
vector unitario, y su normalización es ~u =
2/3 .
0
DIBUJO
24 Capı́tulo 1. Vectores y matrices con coeficientes en R
DIBUJO
c2 = a2 + b2 − 2ab cos(θ)
Por tanto, si se aplica esta ley al triángulo formado por los vectores ~v , w
~ y
~v − w,
~ dado que a = ||~v ||, b = ||w||
~ y c = ||~v − w||,
~ se tiene que:
~ 2 = ||~v ||2 + ||w||
||~v − w|| ~ 2 − 2||~v ||||w||
~ cos(θ).
~ 2 = (~v − w)
Como ||~v − w|| ~ · (~v − w)
~ = ~v · ~v + w
~ ·w
~ − 2~v · w,
~ sustituyendo este
valor en la igualdad anterior se tiene que
||~v ||2 + ||w||
~ 2 − 2~v · w
~ = ||~v ||2 + ||w||
~ 2 − 2||~v ||||w||
~ cos(θ),
de donde, despejando cos(θ), se tiene que
~v · w~
cos(θ) = .
||~v ||||w||
~
En general:
~ en Rn − {~0} es aquel
Definición 1.1.16 El ángulo θ entre dos vectores ~v y w
que verifica la fórmula:
~v · w~ ~v w
~
cos(θ) = = · .
||~v ||||w||
~ ||~v || ||w||
~
1.1. Escalares, y Vectores en Rn 25
~ ∈ Rn . Entonces:
Lema 1.1.1 Sean ~v , w
2 2 2
k~v + wk
~ = k~v k + kwk
~ + 2~v · w.
~
~ ∈ Rn . Entonces:
Teorema 1.1.1 Sean ~v , w
2 2 2
k~v + wk
~ = k~v k + kwk
~ ⇐⇒ ~v y w
~ son ortogonales.
Prueba.
Se deduce rápidamente del lema anterior.
Este último teorema es en realidad el Teorema de Pitágoras para un triángulo
rectángulo en Rn . Es más, es fácil comprobar el siguiente ejercicio.
||~v − w||
~ = ||~v + w||
~ ⇐⇒ ~v ⊥ w.
~
26 Capı́tulo 1. Vectores y matrices con coeficientes en R
0 ... 0 m×n
1 0 ... 0 0
0 1 ... 0 0
(b) La matriz identidad: In = ... ... .. .... .
. . .
0 0 ... 1 0
0 0 ... 0 1 n×n
(c) Matrices cuadradas: matrices con mismo número de filas y de columnas.
Por ejemplo, la matriz identidad es una matriz cuadrada.
(d) Matrices triangulares superiores: matrices cuadradas con, por debajo de
la diagonal, todas las componentes iguales a cero.
1. Matrices triangulares inferiores: matrices cuadradas con, por encima de
la diagonal, todas las componentes iguales a cero.
a~1 0
a11 . . . a1n a~2 0
.. .. .. =
Am×n = . ~a1 . . . ~an =
. . ..
| {z } .
am1 . . . amn n vectores en Rm a~m 0
(tantos como columnas)
| {z }
ordenados horizontalmente m vectores en Rn
ordenados verticalmente
Suma de matrices
Sean dos matrices A, B de dimensión m × n. Esto es:
a11 . . . a1n b11 ... b1n
.. .. .. ; .. .. ..
Am×n = . . . Bm×n = . . .
am1 ... amn bm1 ... bmn
A + B = a~1 + ~b1 a~2 + ~b2 ... a~n + ~bn
m×n
vectores columna de A + B.
Multiplicación escalar
Definición 1.2.3 Sean λ ∈ R y Am×n una matriz de dimensión m × n. La
multiplicación escalar de un escalar λ por una matriz A es la matriz λA dada
por:
a11 . . . a1n λa11 . . . λa1n
λA = λ ... .. .. ≡ .. .. .. .
. . . . .
am1 ... amn λam1 ... λamn
Esto es, las componentes de λA se definen como la multiplicación entre λ y
cada componente de A.
Ahora vamos a definir cómo multiplicar matrices por vectores columna. Para
definir la multiplicación de una matriz por un vector, existen dos formas: una
es la manera clásica, usando el producto punto entre vectores (véase Definición
1.2.4),y la otra es usando el concepto de combinación lineal de vectores (véase
Caracterización 1.2.5).
Supongamos que tenemos una matriz A de dimensión m × n vista con sus
vectores fila, y un vector columna ~v ∈ Rn de la siguiente forma:
0
a11 . . . a1n a~1 v1
.. . .
Am×n = . . .. .. = .. ; ~v = ... .
Am×n • ~vn×1 =w
~ m×1
30 Capı́tulo 1. Vectores y matrices con coeficientes en R
Por tanto,
v1 a11 v2 a12 vn a1n
v1 a21 v2 a22 vn a2n
A~v = . + . + ... + .
.. .. ..
v1 am1 v2 am2 vn amn
a11 a12 a1n
a21 a22 a2n
= v1 . + v2 . + . . . + vn .
.. .. ..
am1 am2 amn
Obsérvese que también se pueden multiplicar vectores fila con matrices. Para
ello, y observando las dimensiones de cada elemento a multiplicar, uno debe
darse cuenta de que, dado que la matriz A tiene dimensión m × n y un vector
fila tiene dimensiones 1 × m, sólo se puede definir esta operación en la forma
wA.
~ Para obtener las componentes de wA ~ se debe hacer el producto escalar de
w
~ con cada columna de A, dando como resultado un vector fila de dimensión
1 × n. En este caso, se obtiene una combinación lineal de los vectores fila de A
con pesos las componentes de w. ~
1.2. Matrices de m × n con coeficientes en R 31
AB
|{z} = A~b1 A~b2 ... A~bk
matriz por matriz matriz por vector matriz por vector matriz por vector
Es importante recalcar que la matriz C = AB tiene tantas filas como filas tiene
A, y tantas columnas como columnas tiene B:
Cm×k = Am×n · Bn×k .
32 Capı́tulo 1. Vectores y matrices con coeficientes en R
Obsérvese que el producto de matriz por vector es un caso especial del producto
entre matrices, tomando B como una matriz de dimensión n × 1 o de 1 × m.
An ≡A (n .veces)
.. A
1 3
Ejemplo 1.2.3 Sea A = . Entonces:
1 −1
2
32
1 3 1 3 4 0 1
A2 = = 6=
1 −1 1 −1 0 4 12 (−1)2
3. A(D + E) = AD + AE.
4. (A + B)D = AD + BD.
Prueba.
0 1 0 0
1) Contraejemplo: Si tomamos las matrices A = y B = ,
0 0 1 0
resulta que:
0 1 0 0 1 0 0 0 0 1 0 0
AB = = 6= BA = =
0 0 1 0 0 0 1 0 0 0 0 1
3 Para demostrar que una afirmación es cierta, es necesario que se satisfaga siempre para
todos los casos posibles. Por ejemplo, si digo que en un aula todas las personas presentes
son ecuatorianas, es necesario comprobar uno por uno que realmente son ecuatorianas.
Pero si lo que se desea es demostrar que esa afirmación es falsa, esto es, que no todos los
presentes son ecuatorianos, bastarı́a con encontrar una persona que no lo sea. Esa persona
serı́a el contraejemplo, y ya no serı́a necesario comprobar las demás personas.
34 Capı́tulo 1. Vectores y matrices con coeficientes en R
Ejercicio 1.6 Escribe el producto punto entre vectores como una multiplica-
ción de matrices.
Solución. Sean ~v , w~ ∈ Rn dos vectores de Rn . Se define el producto punto,
también conocido como producto interior o producto escalar, entre los vectores
~v , w
~ como:
w1
~ = v1 . . . vn ... = v1 w1 + . . . + vn wn ,
~ = ~v T · w
~v · w
wn
a1 x1 + a2 x2 + . . . + an−1 xn−1 + an xn = b
3x1 − 5x2 = 2 x1 x2 + x3 = 0
√
2x1 + x2 − x3 = 2 3 x1 2 + x1 + 1 = 0
1 Obsérvese que ninguna de estas ecuaciones tiene solución en los números reales.
37
38 Capı́tulo 2. Sistemas de Ecuaciones Lineales
Solución. Sólo las que están en la primera columna son ecuaciones lineales.
Una vez que está claro qué es una ecuación lineal en Rn se puede dar la
definición de un sistema de ecuaciones lineales:
vectores:
a11 x1 + . . . + a1n xn b1
a21 x1 + . . . + a2n xn b2
=
.. ..
. .
am1 x1 + . . . + amn xn bm
| {z } | {z }
Vector en Rm Vector en Rm
Es muy importante darse cuenta de que para cada componente del vector de la
izquierda en la igualdad superior, esto es, para cada fila i = 1, . . . , m, el escalar
ai1 x1 + . . . ain xn no es más que el resultado de un producto punto. Si tomamos
los vectores fila a~1 0 , . . . , a~m 0 de la matriz A definida anteriormente, entonces
ai1 x1 + · · · + ain xn = bi se puede reescribir como a~i 0 · ~x = bi , donde ~x es el
vector definido más arriba. Por tanto, el sistema de ecuaciones lineales como
igualdad entre vectores de Rm se puede reescribir como:
0
a~1 · ~x b1
a~2 0 · ~x b2
.. = ..
. .
a~m 0 · ~x bm
| {z } | {z }
A~
x ~b
Obsérvese que la forma matricial A~x = ~b no es más que otra forma equiva-
lente de escribir el sistema de ecuaciones lineales (2.1); ambas formas codifican
la misma información.
1 −2 1 x1 0
0 2 −8 · x2 = 8 ,
−4 5 9 x3 −9
| {z } | {z } | {z }
A ~
x ~b
1 −2 1 x1
la matriz asociada es A = 0 2 −8 , el vector incógnita es ~x = x2 ,
−4 5 9 x3
0
y el vector de coeficientes libres es ~b = 8 . Obsérvese que, efectivamente,
−9
si multiplicamos A~x se tiene que:
x1 − 2x2 + x3
A~x = 2x2 − 8x3 ,
−4x1 + 5x2 + 9x3
de tal forma que al igualar componente a componente el vector A~x con el vector
~b se obtiene el sistema de ecuaciones lineales original.
Obsérvese además que en esta combinación lineal los pesos son las incógnitas
del sistema de ecuaciones lineales (2.1), por lo que aún no están determinados.
Más bien, cuando se encuentre la solución del sistema de ecuaciones lineales se
podrá determinar el valor de estas variables, si es que existen (ver Sección 2.2).
donde a~1 a~2 . . . a~n son los vectores columna de la matriz de coeficientes A,
x1 , . . . , xn son los coeficientes del vector de incógnitas ~x y ~b es el vector de
coeficientes libres.
Es muy importante observar que, de nuevo, la forma vectorial de un sistema
de ecuaciones lineales no es más que otra forma equivalente de escribir el sis-
tema de ecuaciones lineales (2.1) ó su forma matricial A~x = ~b; las tres forman
codifican la misma información.
También serı́a posible realizar una operación fila del tipo Fi =⇒ λFi + µFj ,
con λ, µ 6= 0, pero en la medida de lo posible y por simplicidad, se va a intentar
evitar ese tipo de operaciones.
Como cada fila de la matriz aumentada de un sistema representa una ecua-
ción del sistema (obviando las variables, de tal forma que la manipulación de
la ecuación se vuelve más sencilla), al reemplazar una fila por esa fila más la
suma de otra, en el sistema de ecuaciones lineales correspondiente se estará re-
emplazando una ecuación por esa ecuación más la suma de otra ecuación; el
intercambio de filas corresponderá a un reordenamiento de las ecuaciones del
sistema; el escalamiento de una fila en la matriz aumentada en cambio consis-
tirá en reemplazar una ecuación por una proporcional a ésta, etc. Por tanto,
cada vez que se realice una operación fila sobre la matriz aumentada de un
sistema de ecuaciones lineales, ésta se convertirá en la matriz aumentada de un
sistema equivalente al anterior.
A continuación se presenta el algoritmo de resolución para sistemas de ecua-
ciones lineales que permitirá ahorrar tiempo e identificar rápidamente la o las
soluciones. Una vez comprendido este algoritmo, el lector deberá saber identifi-
car las variables pivote y las variables libres del sistema, y entender la diferencia
entre la forma matricial
A~x = ~b de un sistema de ecuaciones lineales, su matriz
~
aumentada A|b , la matriz escalonada U y la matriz escalonada reducida.
Primer pivote
Intercambio de filas
Ceros debajo
para que
del pivote
fila
te
uien
Sig
No hay más
Ubicar el siguiente pivote
Identificar el primer
elemento no nulo
filas
de la fila
Forma escalonada
Hay VL Determinar las variables
Sistema consistente libres y las variables
Infinitas soluciones
VL
pivote
y
ha
o
N
Fila
Sistema consistente con
Única solución
Solución única:
Determinar el punto que
Solución en forma paramétrica verifica las ecuaciones
Escribir las variables pivote
en función de las variables libres
Una vez a11 6= 0, a ese elemento de la matriz se le conocerá por primer pivote,
y siguiendo el algoritmo se debe convertir en cero a los elementos de la columna
que están debajo de ese pivote, utilizando las operaciones fila y apoyándose en
el pivote para conseguirlo, ya que está asegurado que éste siempre será distinto
de cero. Una vez hecho esto, se debe identificar el segundo pivote en la segunda
fila. Para encontrar el segundo pivote, se debe buscar el primer elemento de
la segunda fila distinto de cero. De nuevo, se debe convertir en cero a todos
los elementos que están en la misma columna que el segundo pivote y debajo
de éste, utilizando las operaciones fila. Una vez hecho esto, se debe identificar
el tercer pivote en la tercera fila, hacer ceros debajo, pasar a la siguiente fila,
identificar el siguiente pivote, hacer ceros debajo, etc, hasta que ya no queden
2.2. Resolución de un sistema de ecuaciones lineales 45
Entonces, siguiendo los pasos del algoritmo de Gauss de la página 44, dado
que a11 = 2 6= 0, éste será el primer pivote y se deben convertir en cero a todos
los elementos de la primera columna debajo del pivote, usando las operaciones
fila y apoyándose en el pivote. Por tanto, en la segunda fila no se debe hacer
nada, ya que ya está un cero, y sólo se debe cambiar la tercera fila por la tercera
fila menos la primera para que el a31 = 2 se convierta en cero:
2 1 7 3 4 2 1 7 3 4
F 3=⇒F 3−F 1 (mixta)
0 0 3 2 1 ∼ 0 0 3 2 1 .
2 1 4 1 2 0 0 −3 −2 −2
Obsérvese que al hacer estas operaciones fila lo único que se está haciendo
es sustituir la tercera ecuación por la ecuación equivalente correspondiente a
restar la tercera ecuación y la primera, de tal forma que la matriz
2 1 7 3 4
0 0 3 2 1
0 0 −3 −2 −2
no es más que la matriz aumentada del sistema de ecuaciones lineales equiva-
lente al original dado por:
2x + y + 7z + 3t = 4 (EC1 )
3z + 2t = 1 (EC2 )
−3z + −2t = −2 (EC3 − EC1 )
t
tal que sus coordenadas z, t puedan verificar la segunda y la tercera ecuación
al mismo tiempo, ya que 3z + 2t nunca podrá valer 1 y 2 a la misma vez.
En cualquier caso, y continuando con el algoritmo de Gauss, se debe buscar
el segundo pivote en la segunda fila, esto es, el primer elemento no nulo en
la segunda fila. En este caso serı́a el término a23 = 3. Por tanto, es necesario
convertir el término a33 = −3 justo debajo en cero.
2 1 7 3 4 2 1 7 3 4
F 3=⇒F 3+F 2 (reemplazo)
0 0 3 2 1 ∼ 0 0 3 2 1 .
0 0 −3 −2 −2 0 0 0 0 −1
En esta nueva matriz aumentada, la tercera ecuación del sistema de ecuaciones
lineales equivalente al original se ha convertido en 0 = −1, lo cual es imposible
y por tanto el sistema no tiene solución. El conjunto solución es el conjunto
vacı́o:
CS = ∅.
Como último comentario a este ejemplo, si una revisa el sistema de ecuaciones
original y resta la primera ecuación con la segunda, verá que lo que obtiene es
que 2x + y + 4z + t = 3, lo cual no concuerda con la tercera ecuación. De ahı́ la
inconsistencia.
2.2. Resolución de un sistema de ecuaciones lineales 47
Dado que a11 = 2 6= 0, ya se tiene el primer pivote. Se hace ceros debajo del
pivote usando las operaciones fila de la Definición 2.2.3:
2 1 1 5 F 2 =⇒ F 2 − 2F 1 (mixta) 2 1 1 5
F 3 =⇒ F 3 + F 1 (reemplazo)
4 −6 0 −2 ∼ 0 −8 −2 −12
−2 7 2 9 0 8 3 14
Por tanto, el conjunto solución del sistema sólo está constituido por un único
elemento:
1
CS = 1 .
2
Obsérvese que a11 = 0. Por tanto, según el algoritmo de Gauss, se debe hacer
un intercambio de filas, que corresponde a un reordenamiento de las ecuaciones.
0 3 −6 6 4 −5 3 −7 8 −5 8 9
F1 ←→F2
3 −7 8 −5 8 9 ∼ 0 3 −6 6 4 −5
3 −9 12 −9 6 15 3 −9 12 −9 6 15
2 Obsérvese que dado que en la tercera fila todos los elementos son múltiplos de 3, se podrı́a
reemplazar esta fila F 3 por F33 . Lo único que se estarı́a haciendo es reemplazar la ecuación
3x − 9y + 12z − 9t + 6r = 15 por la ecuación equivalente x − 3y + 4z − 3t + 2r = 5, que
simplificarı́a los cálculos al obtener números más pequeños.
2.2. Resolución de un sistema de ecuaciones lineales 51
Por tanto, las variables pivote del sistema son x, y, r, y las variables libres son
z, t.Para dar la solución del último sistema de ecuaciones lineales, uno de forma
natural sustituirı́a el valor de r = 4 proporcionado en la tercera ecuación en
las otras dos, después despejarı́a el valor de y en función de z, t, y por último
reemplazarı́a este valor en la primera ecuación para despejar x en función de
z, t. Por tanto, la solución p vendrı́a a tener los siguientes componentes:
x = x(z, t),
y = y(z, t),
z ∈ R,
t ∈ R,
r = 4.
Esto es, la solución se consigue cuando se obtiene la forma de las variables pivote
en función de las variables libres, y las variables libres (de forma natural) pueden
tomar cualquier valor. De ahı́ su nombre. De nuevo, el proceso para encontrar
las funciones x = x(z, t) y y = y(z, t) usando las ecuaciones puede ser costoso
y podrı́a dar riesgo a equivocarse. La forma de evitar arrastrar las variables a
la hora de hacer estos reemplazos es calculando la matriz escalonada reducida
del sistema. Para ello, es necesario, de derecha a izquierda, volver los pivotes
1 y hacer ceros encima de los pivotes. Como el tercer pivote ya vale 1, se hace
cero encima del mismo:
3 −7 8 −5 8 9 F1 =⇒ F1 − 8F3
F2 =⇒ F2 − 4 F3
3 −7 8 −5 0 −23
0 3 −6 6 4 −5 ∼ 3 0 3 −6 6 0 −21
0 0 0 0 1 4 0 0 0 0 1 4
F1 =⇒ 13 F1
1 0 −2 3 0 −24
∼ 0 1 −2 2 0 −7 .
0 0 0 0 1 4
Una vez hecho esto, se sustituyen los pesos por los valores obtenidos y se com-
prueba que, efectivamente, todo lo que está a la izquierda de las ecuaciones es
exactamente igual a lo que está en la derecha, de tal forma que la solución es
correcta:
0 3 −6 6 4
(−24 + 2z − 3t) 3 + (−7 + 2z − 2t) −7 + z 8 + t −5 + 4 8
3 −9 12 −9 6
0 3 (−7 + 2z − 2t) −6z 6t 16
= 3 (−24 + 2z − 3t) + −7 (−7 + 2z − 2t) + 8z + −5t + 32
3 (−24 + 2z − t) −9 (−7 + 2z − 2t) 12z −9t 24
0 − 21 + 6z − 6t − 6z + 6t + 16 −5
= −72 + 6z − 9t + 49 − 14z + 14t + 8z − 5t + 32 = 9
−72 + 6z − 9t + 63 − 18z + 18t + 12z − 9t + 24 15
−24 2z −3t −24 2 −3
−7 2z −2t −7 2 −2
0 + z + 0 = 0 +
= z1 + t 0
0 0 t 0 0 1
4 0 0 4 0 0
| {z } | {z }
un punto una combinación lineal de vectores
Resumen
En este apartado se hará un breve resumen de algunos de los contenidos
revisados en esta sección.
Definición 2.2.4 Una vez que identificados todos los pivotes y hecho cero de-
bajo de ellos4 , la matriz aumentada que se consigue (asociada al sistema de
ecuaciones equivalente al original) viene dada por (U |~c ) y U es la matriz esca-
lonada del sistema de A.
(a) No necesariamente habrá un pivote por cada columna, pero sı́ por cada
fila, menos en una fila que esté llena de ceros en la parte izquierda de la
matriz aumentada.
(b) Todo lo que no sean columnas pivote (CP), esto es, columnas de la matriz
donde haya un pivote, se llamarán variables libres (VL). Por ejemplo, en
esta matriz escalonada, se identifican las variables libres y las variables
pivote:
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
0 ∗ ∗ ∗ ∗ ∗ ∗ ∗
0 0 0 ∗ ∗ ∗ ∗ ∗
0 0 0 0 0 ∗ ∗ ∗
0 0 0 0 0 0 ∗ ∗
|{z} |{z} |{z} |{z} |{z} |{z} |{z}
CP CP VL CP VL CP CP
y = y(z, t) = −7 + 2z − 2t.
3x − 7y + 8z − 5t + 8r = 9
3x = 9 + 7y − 8z + 5t − 8r
7 8 5 8 r=4
x = x(y, z, t, r) = 3 + y − z + t − r =⇒
3 3 3 3
7 8 5 8
x = x(y, z, t) = 3 + y − z + t − 4
3 3 3 3
23 7 8 5 y=−7+2z−2t
x = x(y, z, t) = − + y− z+ t =⇒
3 3 3 3
23 7 8 5
x = x(z, t) = − + (−7 + 2z − 2t) − z + t
3 3 3 3
Como pueden comprobar, este proceso es muy peligroso ya que es fácil equivo-
carse en el cómputo. La forma de hacer esta cuenta de sustitución de forma más
sencilla es calculando la matriz escalonada reducida del sistema, como
ya se ha recalcado anteriormente.
2.2. Resolución de un sistema de ecuaciones lineales 57
Ejercicio 2.2 Suponga que las siguientes matrices son las matrices aumen-
tadas de un sistema de ecuaciones lineales. ¿Son los sistemas consistentes o
inconsistentes? Dé el conjunto solución de cada uno de los sistemas.
2 1 7 3 4
(a) 0 0 3 2 1 .
0 0 0 0 0
2 1 7 3 4
(b) 0 0 3 2 1 .
0 0 0 1 0
2 1 7 3 4
(c) 0 0 3 2 1 .
0 0 0 0 1
Solución.
(a) Por la forma de la matriz aumentada, esta matriz ya es la forma escalonada
del sistema. Hay dos pivotes en a11 = 2 y en a23 = 3, por lo que las variables
x y z son variables pivote, y las variables y y t son variables libres. Para
encontrar la forma escalonada reducida es necesario hacer tres operaciones
fila más:
2 1 7 3 4 F1 =⇒F1 − 37 F2
2 1 0 −5/3 5/3
0 0 3 2 1 ∼ 0 0 3 2 1
0 0 0 0 0 0 0 0 0 0
2 1 0 −5/3 5/3 1 1/2 0 −5/6 5/6
F2 =⇒F2 /3
∼ 0 0 1 2/3 1/3 F1 =⇒F ∼
1 /2
0 0 1 2/3 1/3
0 0 0 0 0 0 0 0 0 0
Esta matriz es la matriz aumentada del sistema de ecuaciones lineales:
1 5 5
x + y − t =
2 6 6
2 1
z + t =
3 3
0 = 0
Al despejar las variables pivote x, z en función de las variables libres y, t se
obtiene que la solución en forma paramétrica es:
x(y, t) 5/6 − y + 5/6t
y y
P~
= z(y, t) = 1/3 − 2/3t
t t
5/6 −1 5/6
0 1 0
=1/3 + y 0 + t −2/3 , ∀y, t ∈ R.
0 0 1
58 Capı́tulo 2. Sistemas de Ecuaciones Lineales
(b) Obsérvese que en este caso la última fila de la matriz escalonada corres-
ponde a la ecuación t = 0, por lo que no hay inconsistencia. Al contrario la
matriz aumentada proporcionada ya es la forma escalonada del sistema, y
hay tres pivotes en a11 = 2, a23 = 3 y a34 = 1. por lo que las variables x, z
y t son variables pivote, y la variable y es variable libre. Para encontrar la
forma escalonada reducida es necesario hacer cinco operaciones fila más:
2 1 7 3 4 F1 =⇒ F1 − 3F3 2 1 7 0 4
2F =⇒ F2 − 2F 3
0 0 3 2 1 ∼ 0 0 3 0 1
0 0 0 1 0 0 0 0 1 0
F1 =⇒F1 − 73 F2
2 1 0 0 5/3 F1 =⇒ F1 /2 1 1/2 0 0 5/6
F2 =⇒ F2 /3
∼ 0 0 3 0 1 ∼ 0 0 1 0 1/3
0 0 0 1 0 0 0 0 1 0
Esta matriz es la matriz aumentada del sistema de ecuaciones lineales:
1 5
x + y =
2 6
1
z =
3
t = 0
t(y) 0
5/6 −1
0 1
= 1/3 + y 0 , ∀y ∈ R.
0 0
xn
Prueba. Como A~0 = ~0, existe al menos una solución del sistema, a saber,
p~ = ~0.
Lema 2.3.2 Si A~x = ~0 tiene una única solución, entonces es la solución p~ = ~0.
Solución.
0
(a) Es obvio que este sistema tiene una única solución: ~x = 0. En cualquier
0
1 0 − 43 0
1 0 − 34 0
Solución.
(a) Como el sistema homogeneo A~x = ~0 tiene una única solución, entonces,
por la Proposición 2.3.1, en caso de que A~x = ~b sea consistente, también
tendrá una única solución.
La expresión de este sistema de ecuaciones li-
b1
neales para un ~b = b2 ∈ R3 arbitrario es:
b3
x − 4/3z = b1
y = b2
z = b3 .
por lo que la solución al sistema viene dado por un único punto, a saber:
b1 + 43 b3
CS = b2 ,
b3
1 0 − 34
b1
0 1 0 b2 ,
1 1 − 43 b3
1 0 − 43
b1
0 1 0 b2 .
0 0 0 b3 − b1 − b2
1 0 − 43 b1
0 1 0 b2 ,
0 0 0 0
b1 b1
para ~b = b2 ∈ R3 . Efectivamente, se verifica que ~b = b2
b1 + b2 b +b
1 2
1 0
se puede escribir como combinación lineal de los vectores 0, 1,
1 1
−4/3
0 con pesos λ1 = b1 + 4 z, λ2 = b2 y λ3 = z, respectivamente.
3
1
Solución. Este sistema está conformado por una sola ecuación y la matriz
aumentada del sistema es: 1 0 − 34 0 . Hay una variable pivote (x) y
dos variables libres (y, z), y el conjunto solución viene dado por:
4
0 3
CS = y 1 + z 0 : y, z ∈ R
0 1
blablabla
Si en cambio existe algún peso distinto de cero de tal forma que el vector ~0
se puede escribir como combinación lineal de los vectores ~v1 , . . . , ~vk , entonces
se dice que {~v1 , . . . , ~vk } son linealmente dependientes. Esto es:
{~v1 , . . . , ~vk } son def ∃λ1 , . . . , λk ∈ R con algún λi 6= 0
⇐⇒
linealmente dependientes tal que λ1~v1 + · · · + λk~vk = ~0.
Existe una forma equivalente de dar esta definición, usando sistemas de ecua-
ciones lineales:
Y dos vectores son iguales cuando lo son componente a componente. Por tanto,
es necesario que se verifique que:
λ1 + λ2 = 0
2λ1 = 0
3λ1 = 0
1 1 2 3
2
3
Geométricamente,
para llegar al punto de partida, si una se mueve λ veces
1
en la dirección 2, obligatoriamente tendrá que volver −λ veces, y lo mismo
3
1
en la dirección 0.
0
Para entender el concepto de independencia lineal, a veces es mejor entender
el concepto contrario, el de dependencia lineal. Es por eso que en el siguiente
lema se determina cuándo dos vectores son linealmente dependientes, esto es,
se estudia el caso de dependencia lineal para k = 2. En la Proposición 2.3.3
se generalizará este resultado a un valor de k arbitrario, y en las sucesivas
proposiciones se darán condiciones necesarias para que un conjunto de vectores
sea linealmente dependiente.
Lema 2.3.3 Dos vectores ~v1 y ~v2 son linealmente dependientes si y sólo si son
múltiplos. Esto es:
Prueba.
Implicación =⇒.
2.3. Sistemas homogeneos e independencia lineal de vectores 67
Por hipótesis, ~v1 y ~v2 son linealmente dependientes, por lo que existe una
combinación lineal de estos dos vectores con alguno de los pesos distinto de
cero, que proporciona el vector ~0. Sin perdida de generalidad, supongamos que
es el peso correspondiente al vector ~v1 . Entonces:
Por tanto,
λ1~v1 = −λ2~v2 ,
λ2
~v1 = − ~v2 ,
λ1
10 15
3 −2
−6 −3 4
Solución. Obsérvese que −9 6= 2 6 . Como no son múltiplos o coli-
15 10
neales, por el Lema 2.3.3, son linealmente independientes.
1 1 2
Ejemplo 2.3.5 Sea el conjunto de vectores 2 , 0 , 2 .
3 0 3
68 Capı́tulo 2. Sistemas de Ecuaciones Lineales
3 3
2 2 2
1 1 1
1 1 2 3 1 1 2 1 1 2 3
2 2 2
3
Obsérvese que
1 1 2
2 + 0 − 2 = ~0,
3 0 3
esto es, ~0 es una combinación lineal de los vectores dados, con pesos 1, 1, −1,
de forma que se puede construir un camino circular con estos vectores que
empiece y termine en el mismo lugar. Por tanto, estos vectores son linealmente
dependientes.
1 1 2
2
Se desea demostrar que alguno de estos vectores se puede escribir como com-
binación lineal del resto. Para ello, se toma la fórmula
y se despeja λi~vi :
Como por hipótesis se sabe que λi 6= 0, se puede dividir por este número
ambos lados de la igualdad, obteniendo
λ1 λi−1 λi+1 λk
~vi = − ~v1 − . . . − ~vi−1 − ~vi+1 − . . . − ~vk
λi λi λi λi
La fórmula superior demuestra cómo, si λi es el peso distinto de cero cuya
existencia se concluye de la hipótesis, entonces el vector ~vi es exactamente
el que es combinación lineal del resto de vectores {v1 , . . . , ~vi−1 , ~vi+1 , . . . , ~vk }.
Justo lo que se deseaba demostrar.
Implicación ⇐=.
Hipótesis: ∃~vi ∈ {~v1 , . . . , ~vk } que es combinación lineal del resto. Sin pérdida
de generalidad, se supone que es el primer vector ~v1 de la lista (si no lo fuera,
se reordenan los vectores para que ası́ sea). Entonces, si por hipótesis ~v1 es
combinación lineal de {~v2 , . . . , ~vk }, resulta que ∃λ2 , . . . , λr ∈ R pesos tal que
Se desea demostrar que los vectores son linealmente dependientes. Para ello,
se toma la fórmula anterior y se reordena para que todos los elementos estén
en el lado izquierdo. Se obtiene entonces que
y ası́, el vector ~0 es combinación lineal de los vectores ~v1 , . . . , ~vk con pesos
1, −λ2 , . . . , −λk . Como el primer peso es distinto de cero, se concluye que los
vectores son linealmente dependientes.
70 Capı́tulo 2. Sistemas de Ecuaciones Lineales
1 4 2
Ejemplo 2.3.6 ¿Son 2 , 5 , 1 linealmente independientes? Si no
3 6 0
lo fueran, encuentra la relación de dependencia.
Como uno de los vectores es combinación lineal del resto, entonces por la Pro-
posición 2.3.3 que acabamos de demostrar sabemos que los vectores son lineal-
mente dependientes. Efectivamente, obsérvese que de la fórmula anterior se
deduce que:
2 4 1 0
1 − 5 + 2 2 = 0
0 6 3 0
De forma general:
Prueba. Si tomamos todos los pesos igual a cero menos el peso λi , que podrı́a
valer por ejemplo, 1, tenemos que:
λ1 = . . . = λi−1 = 0,
λi 6= 0, ,
λi+1 = . . . = λk = 0
y
0 ~v1 + . . . + 0 ~vi−1 + 1 ~0 + . . . + 0 ~vr = ~0.
En conclusión, el vector ~0 es combinación lineal de {~v1 , . . . , ~vk } con algún peso
distinto de cero, exactamente el peso λi (que nosotros hemos hecho que valga
1 pero en realidad puede tomar cualquier valor distinto de cero), y por tanto
{~v1 , . . . , ~vk } son linealmente dependientes.
Es más, es fácil entender el siguiente resultado, si nos atenemos a la Proposi-
ción 2.3.2 que caracteriza la independencia lineal en términos de sistemas de
ecuaciones lineales:
Solución. Cuatro vectores en R3 , por tanto, por el Teorema 2.3.3, son lineal-
mente dependientes.
Definición 2.4.1 Sea An×n una matriz cuadrada. Entonces, se dice que A es
invertible si existe una única matriz cuadrada Dn×n que verifica que
AD = In = DA
72 Capı́tulo 2. Sistemas de Ecuaciones Lineales
T T
DAT = (A−1 ) AT = (AA−1 ) = I T = I
−1 T
Por tanto, D = (AT ) = (A−1 ) .
Una vez revisadas las propiedades más básicas de las matrices invertibles, se
enuncia un resultado que es una generalización de la propiedad (AB)−1 =
B −1 A−1 :
−1
(A1 A2 . . . Ak−1 Ak ) = A−1 −1 −1 −1
k Ak−1 . . . A2 A1 .
Prueba.
(A1 . . . Ak ) A−1 −1
A1 . . . Ak A−1 . . . A−1
k . . . A1 = k 1
(A1 . . . Ak−1 ) I A−1 −1
= k−1 . . . A1
= A1 . . . Ak−1 A−1 −1
k−1 . . . A1
(A1 . . . Ak−2 ) I A−1 −1
= k−2 . . . A1
= . . . = A1 A2 A−1
−1
2 A1 = A1 IA−1 1
= A1 A−1
1 =I
Se enuncian a continuación dos propiedades muy interesantes para matrices
inversas. Se sabe que un sistema de ecuaciones lineales A~x = ~b no necesaria-
mente va a ser siempre consistente para cualquier vector ~b. Por ejemplo, el
sistema de ecuaciones lineales
1 0 0 x b1
0 1 0 y = b2
1 1 0 z b3
b1
es consistente para cualquier vector del tipo ~b = b2 pero no lo será por
b1 + b2
1
ejemplo para ~b = 1, o cualquier otro vector ~b que no verifique que su tercera
0
componente es la suma de las dos primeras. Pero si la matriz A es invertible,
es fácil demostrar que cualquier sistema de ecuaciones lineales asociado a la
matriz A siempre será consistente, y además con solución única:
74 Capı́tulo 2. Sistemas de Ecuaciones Lineales
Prueba. Por hipótesis, como A es invertible existe su inversa A−1 tal que
AA−1 = I = A−1 A.
Sea ~b ∈ Rn un vector cualquiera. Si multiplicamos la inversa en ambos lados
de A~x = ~b se tiene que:
A~x = ~b
I~x = A−1~b
~x = A−1~b.
Como A−1 es única por definición, y ~b una vez fijado, es único, entonces la
solución ~x = A−1~b de A~x = ~b es única también.
Obsérvese que en esta proposición el resultado es válido para todo vector ~b
de Rn . Esto es, independientemente del vector ~b que se elija en el sistema de
ecuaciones lineales A~x = ~b, si A es invertible este sistema siempre tendrá una
única solución dada por p~ = A−1~b. En particular, si se toma ~b = ~0, entonces
el sistema homogeneo asociado a una matriz invertible tendrá solución única,
~x = ~0. En conclusión, como consecuencia a este resultado se tiene que:
Corolario 2.4.2 Sea An×n una matriz invertible. Entonces los vectores co-
lumna de la matriz A son linealmente independientes.
Prueba. Si la matriz A fuera invertible, sus vectores columnas deberı́an ser li-
nealmente independientes por el Corolario 2.4.2, lo cual es imposible por hipóte-
sis. Por tanto, A no es invertible.
Hasta ahora sólo se ha trabajado con matrices invertibles de forma teórica.
Aún no se sabe cómo calcular A−1 , en el caso de que exista. En la siguiente
sección y como aplicación al método de eliminación de Gauss se proporciona
una manera de calcular la inversa de una matriz A que permitirá además en
el proceso determinar si esta matriz es, efectivamente, invertible o no. Durante
todo el curso, se volverá una y otra vez a trabajar con matrices invertibles ya
que serán un poderoso instrumento para la solución de problemas en el álgebra
lineal (véase Sección 2.4.2 para ver todas las posibles caracterizaciones que
abarca el hecho de que una matriz sea invertible).
2.4. Matrices invertibles 75
A−1 = x~1
x~2 ... x~n
Dado que por definición se debe verificar que AA−1 = I = A−1 A, se tiene que:
AA−1 = A x~1
x~2 ... x~n = In×n
Obsérvese que cada Ax~i = e~i es, en sı́ mismo, un sistema de ecuaciones linea-
les. Por tanto, tenemos n sistemas de n ecuaciones con n incógnitas. Esto es,
tenemos un sistema de sistemas de ecuaciones lineales. La solución del primer
sistema (S1) es la primera columna de A−1 , la solución de (S2) es la segunda
columna de A−1 , etc.
Dado que la inversa de una matriz es única por definición, debe existir una
única solución para cada uno de estos sistemas de ecuaciones, y cada solución
corresponderá a una de las columnas de A−1 . En conclusión, la matriz A será in-
vertible, esto es, existirá su inversa A−1 , sı́ y solo sı́ cada uno de los sistemas
A~xi = ~ei tiene una única solución. Y para que un sistema de ecuaciones lineales
tenga solución única, no pueden haber variables libres en la matriz escalona-
da. En conclusión, la matriz escalonada de A debe tener tantos pivotes como
columnas y por tanto, su matriz escalonada reducida debe ser la identidad.
Según lo argumentado hasta ahora, se deben resolver n sistemas de ecuacio-
nes lineales para encontrar A−1 . La cuestión es: ¿es necesario resolver uno por
uno cada uno de los sistemas de ecuaciones lineales Ax~i = e~i para i = 1, . . . , n,
o acaso hay otra forma más óptima de encontrar los vectores columna de A−1 ,
sin tener que resolver tantos sistemas de ecuaciones lineales uno detrás del otro?
Para responder a esta pregunta, se realizará antes el siguiente ejemplo:
1 2 2
Ejemplo 2.4.1 Encuentre la inversa de la matriz A = 3 1 2.
2 3 3
78 Capı́tulo 2. Sistemas de Ecuaciones Lineales
Obsérvese que, en cada uno de los tres casos, a la hora de resolver los siste-
mas A~xi = ~ei para i = 1, . . . , n, las operaciones fila para encontrar la matriz
escalonada son siempre las mismas, sólo cambiarı́a la última columna que co-
rresponde al vector ~b del sistema de ecuaciones lineales equivalente. Esto es
lógico, ya que lo que se desea es llegar a la forma escalonada reducida de la
matriz A. En cada operación fila que se realiza para resolver un sistema A~x = ~b,
si bien se modifica el vector ~b, el proceso y las operaciones fila a realizar son
siempre independientes del vector ~b ya que sólo es importante analizar lo que
ocurre en la parte izquierda de la matriz (A|~b) después de cada operación fila;
las operaciones fila se realizan para identificar los pivotes, hacer ceros debajo
de ellos, etc, y para esto sólo es necesario fijarse en la matriz A, no importa la
forma del vector ~b en el sistema de ecuaciones lineales. Por tanto, el ejemplo
anterior se podrı́a haber hecho de una sola vez de la siguiente forma: se toma
la matriz A en la parte izquierda, y en la parte derecha se alinean los tres vec-
tores ~b de cada uno de los tres sistemas de ecuaciones lineales A~xi = ~ei , para
i = 1, 2, 3:
1 2 2 1 0 0
A ~e1 ~e2 ~e3 = 3 1 2 0 1 0
2 3 3 0 0 1
La matriz superior podrı́a pensarse como la matriz aumentada del sistema de
sistemas de ecuaciones lineales A~xi = ~ei , con i = 1, 2, 3. Después se realizan
las operaciones fila para resolver los tres sistemas de ecuaciones lineales de una
sola vez (compárese este proceso con lo realizado en el ejemplo anterior):
1 2 2 1 0 0 F 2 =⇒ F 2 − 3F 1 1 2 2 1 0 0
F 3 =⇒ F 3 − 2F 1
3 1 2 0 1 0 ∼ 0 −5 −4 −3 1 0
2 3 3 0 0 1 0 −1 −1 −2 0 1
F 2 =⇒ − 1 F 2
5 1 2 2 1 0 0 1 2 2 1 0 0
F 3 =⇒ −F 3 F 3=⇒F 3−F 2
∼ 0 1 4/5 3/5 −1/50 ∼ 0 1 4/5 3/5 −1/5 0
0 1 1 2 0 −1 0 0 1/5 7/5 1/5 −1
F 2 =⇒ − 1 F 2
5 1 2 2 1 0 0 1 2 2 1 0 0
F 3 =⇒ −F 3 F 3=⇒F 3−F 2
∼ 0 1 4/5 −5 −1 4 ∼ 0 1 4/5 −5 −1 4
0 1 1 7/5 1/5 −1 0 0 1/5 7 1 −5
1 0 2 11 2 −8 1 0 0 −3 0 2
F 1=⇒F 1−2F 2 F 1=⇒F 1−2F 3
∼ 0 1 0 −5 −1 4 ∼ 0 1 0 −5 −1 4
0 0 1 7 1 −5 0 0 1 7 1 −5
Este proceso es muy poderoso ya que al resolver los tres sistemas de una sola
vez, si la matriz es invertible el sistema de ecuaciones lineales A~x = ~b siempre
es consistente con solución única (véase Proposición 2.4.2), para todo ~b ∈ R.
Por tanto, en especial para los vectores canónicos ~ei ∈ R, con i = 1, . . . , n.
Además, como el sistema tiene una única solución no hay variables libres y la
matriz escalonada reducida del sistema siempre será la identidad, de tal forma
que en el proceso descrito anteriormente, si la matriz A es invertible, en la parte
izquierda de la matriz aumentada modificada aparecerá la matriz identidad, y
en la parte derecha las soluciones a los sistemas de ecuaciones lineales, en orden.
2.4. Matrices invertibles 79
Como en este caso cada solución representa a cada columna de la matriz inversa
de A, en la derecha se obtiene la matriz inversa.
Ahora ya es posible presentar un algoritmo óptimo para determinar si una
matriz es invertible, y encontrar la inversa de la matriz en el caso positivo.
escribe la matriz aumentada de los tres sistemas de ecuaciones A~xi = ~ei para
i = 1, 2, 3 en una sola matriz aumentada, y se resuelven los tres sistemas de
una sola vez usando el algoritmo de Gauss:
0 1 2 1 0 0 1 0 3 0 1 0
F 1=⇒F 2
1 0 3 0 1 0 ∼ 0 1 2 1 0 0
4 −3 6 0 0 1 4 −3 6 0 0 1
1 0 3 0 1 0 1 0 3 0 1 0
F 3=⇒F 3−4F 1
∼ 0 1 2 1 0 0 F 3=⇒F ∼
3−3F 2
0 1 2 1 0 0
0 −3 6 0 −4 1 0 0 0 −3 −4 1
Por la última fila se puede concluir que ninguno de los tres sistemas tiene
solución, ya que para que A~x1 = ~e1 tenga solución es necesario que 0 = −3;
para que A~x2 = ~e2 tenga solución es necesario que 0 = −4, y para que A~x3 = ~e3
tenga solución es necesario que 0 = 1. Esto es, al encontrar la matriz escalonada
se consigue que los sistemas son inconsistentes, por lo que no existe A−1 , y A
no es invertible.
80 Capı́tulo 2. Sistemas de Ecuaciones Lineales
⇐⇒ AT es invertible;
mas de ecuaciones lineales con solución única. Pero esto ¡ya lo sabemos por
hipótesis! Es un caso particular, tomando ~b = e~i . Por tanto, ∃A−1 .
!Ese ? es la inversa de A!
AB = I = BA
T T
(AB)T = B T AT entonces (AT B T )T = B T AT = BA
(B T AT )T = I T = (AT B T )T
Por tanto, si B es la inversa de A, B T es la inversa de AT y B T = (AT )−1 =⇒
B = [(AT )−1 ]T .
Comprobación:
b~1 b~2 b~n
A ... ∼ matriz escalonada reducida x~1 x~2 ... x~n
Si A es invertible, entonces:
A b~1 b~2 . . . b~n ∼
In×n x~1 x~2 ... x~n
2.6. ejercicios
condiciones para que una matriz 2x2 sea invertible. Sistema de ecuaciones
lineales que se debe verificar.
AB = AC entonces B = C siempre???
A~x = ~b tiene solución siempre??
TABLA RESUMEN CON INDEPENDENCIA LINEAL, SISTEMAS HO-
MOGENEOS Y NO HOMOGENEOS Y CONSISTENCIA/INCONSISTENC
3 Subespacios vectoriales de Rn y
transformaciones lineales
En el Capı́tulo 1 se trabajó con el conjunto de todos los vectores de dimensión
n ∈ N. A este conjunto se le denotó por Rn :
x1
Rn ≡ ~x = ... : xi ∈ R .
xn
(
~v + w~ ∈ Rn , ~ ∈ Rn
∀~v , w
λ~v ∈ Rn , ∀λ ∈ R, ∀~v ∈ Rn
....
83
84 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
En este capı́tulo se van a definir los subespacios vectoriales, esto es, sub-
conjuntos de Rn que heredan la estructura de espacio vectorial de Rn , a los
subconjuntos generados por un número dado de vectores, y se va a demostrar
que ambos son equivalentes. También se van a definir tres subespacios vecto-
riales asociados a una matriz A, a saber, el espacio columna de A, el espacio
fila de A y el espacio nulo de A. Después se definirá el concepto de base pa-
ra un subespacio vectorial y las coordenadas asociadas a una base para un
vector en el mismo subespacio vectorial. Finalmente, se definirán las aplicacio-
nes entre espacios vectoriales, conocidas como transformaciones lineales, y sus
propiedades.
Solución.
En el siguiente lema se compilan dos propiedades fundamentales de un subes-
pacio vectorial:
Ejemplo 3.1.2 (a) ¿Es una recta que no pasa por el origen un subespacio
vectorial de R2 ?
(b) ¿Es la esfera centrada en el origen de radio 1 un subespacio vectorial de
R3 ?
Solución.
En la siguiente proposición se enumeran algunos ejemplos de subespacios
vectoriales :
(3) Se comprueba que Nul(A) verifica las dos condiciones para ser subespacio
vectorial :
~ ∈ Nul(A). Entonces, A~v = 0 y Aw
Sean ~v , w ~ = 0 ası́ que A(~v + w) ~ =
A~v + Aw ~ = ~0 + ~0 = ~0 y por tanto ~v + w
~ ∈ Nul(A); se satisface la primera
condición.
Sea ~v ∈ Nul(A). Entonces, A~v = ~0 y A(λ~v ) = λ(A~v ) = λ~0 = ~0, por lo tanto
λ~v ∈ Nul(A); se satisface la segunda condición.
Se finaliza esta sección con un ejercicio muy sencillo:
5
1 −3 −2
Ejercicio 3.1 Sea A = y ~u = 3 . ¿Pertenece ~u a Nul(A)?
−5 9 1
−2
Solución. Recuérdese que ~u ∈ Nul(A) sı́ y sólo sı́ A~u = ~0. Entonces, como
5−9+4 0
A~u = =
−25 + 27 − 2 0
Entonces, se dice que {~v1 , . . . , ~vk } es un sistema generador de < ~v1 , . . . , ~vk >
(conjunto de infinitos elementos), y viceversa, < ~v1 , . . . , ~vk > es el conjunto
generado por ~v1 , . . . , ~vk .
Obsérvese que el conjunto {~v1 , . . . , ~vk } tiene k vectores, los vectores ~v1 , . . . , ~vk ,
mientras que < ~v1 , . . . , ~vk > tiene infinitos vectores, tantos como combinaciones
lineales hay de ~v1 , . . . , ~vk . Además:
Se analizan a continuación los conjuntos generados por uno, dos vectores o tres
vectores:
3.1. Subespacios vectoriales y sistemas generadores 87
En general, dado que los elementos de < ~v1 , . . . , ~vk > son todas las combina-
ciones lineales posibles de ~v1 , . . . , ~vk , se tiene que:
1 0 1
Ejercicio 3.2 Sean los vectores ~v = 1 , w~ = 1 , b~1 = 0 , b~2 =
0 1 −1
1
~ > y diga si b~1 , b~2 pertenecen o no a
1. Describa geométricamente < ~v , w
1
< v~1 , v~2 >.
~b2 ∈<
/ ~v1 , ~v2 >
Proposición 3.1.2 Sea < ~v1 , . . . , ~vk >. Entonces, se verifica que:
Prueba.
(b) En la combinación lineal λ1~v1 +. . .+λk~vk , si se toman todos los pesos cero,
entonces, 0~v1 + · · · + 0~vk = ~0 y ~0 es combinación lineal de v~1 , . . . , v~k . En
conclusión, ~0 ∈< v~1 , . . . , v~k >.
Es más, en realidad, los subespacios vectoriales y los conjuntos generados
por k vectores son equivalentes, esto es, el subconjunto < ~v1 , . . . , ~vk > es un
subespacio vectorial de Rn , y para todo H ≤ Rn siempre se puede encontrar
un conjunto generador de k vectores tal que H =< ~v1 , . . . , ~vk >:
Teorema 3.1.1
Prueba.
90 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
Definición 3.1.3 Sea Am×n una matriz. Entonces si A = (~a1 , . . . , ~an) con
~a01
~ai ∈ Rm , ∀i = 1, . . . , n definida con sus vectores columna, ó A = ... con
~a0m
~a0i n
∈ R , ∀i = 1, . . . , m definida con sus vectores fila, se definen:
(a) El espacio columna de A, Col(A), como el subespacio vectorial de Rm
generado por los vectores columna de A:
Col(A) = h~a1 , . . . , ~an i ≤ Rm
Resolución.
(a)
1 −3 −4
~b ∈ Col(A) ⇐⇒ ~b es combinación lineal de −4 , 6 , −2
−3 7 6
1 −3 −4
⇐⇒ A~x = ~b tiene solución, con A = −4 6 −2
−3 7 6
Se resuelve el sistema de ecuaciones lineales:
1 −3 −4 3 F2 ⇒ F2 + 4F1 1 −3 −4 3 F3 ⇒F3 − 13 F2
F ⇒ F + 3F1
−4 6 −2 3 3 ∼3 0 −6 −18 15 ∼
−3 7 6 −4 0 −2 −6 5
1 −3 −4 3
0 −6 −18 15 .
0 0 0 0
Por la forma escalonada de la matriz se puede deducir que el sistema
tendrá infinitas soluciones, por lo que ~b ∈ Col(A).
Es más,
como
la so-
1 −3 −4
lución no es única se sabe que los vectores −4 , 6 , −2 son
−3 7 6
linealmente dependientes, y la matriz A no es invertible.
(b) El espacio columna de A es un subespacio vectorial de R2 , esto es, Col(A) ≤
R2 . Pero ~u ∈ R3 por lo que es imposible que ~u pertenezca a Col(A): ~u ∈ /
Col(A).
a
b 4
(c) Dado que H está formado por aquellos vectores ~v = c ∈ R tal que
d
a − 2b + 5c = d y c − a = d, H es el subconjunto de R4 :
92 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
a
b
4
H = ∈ R : a − 2b + 5c = d y c − a = d ⊂ R4 .
c
d
(
a − 2b + 5c = d
Obsérvese que es un sistema de ecuaciones lineales
b=c−a
(
a − 2b + 5c − d = 0
que se puede reescribir como . Por lo tanto, esas
b−c+a=0
ecuaciones corresponden al sistema lineal homogeneo A~x = ~0 dado por:
a
1 −2 5 −1 b = ~0.
1 1 −1 0 c
d
Por lo tanto:
a a
b b
c ∈ H ⇐⇒ ~v = c ∈ Nul(A).
~v =
d d
1 −2 5 −1
En conclusión, H = Nul(A) para A = . Se deja al
1 1 −1 0
lectorque compruebe
que H también es el espacio columna de la matriz
1 0
−1 1
B= , esto es, H = Col(B).
0 1
3 3
(d) El espacio columna de A está definido como el conjunto generado por sus
vectores columna. Por tanto,
todos
los vectores
columna
deA son
un sis-
−3 6 −1 1 −7
tema generador para A: 1 , −2 , 2 , 3 , −1 .
2 −4 5 8 −4
vez realizadas las debidas operaciones se tiene que la matriz escalonada re-
ducida y el sistema equivalente asociado al original es:
Operaciones fila 1 −2 0 −1 3 0
requeridas
A 0 ∼ 0 0 1 2 −2 0
0 0 0 0 0 0
esto es,
x1 2x2 + x4 − 3x5 2 1 −3
x2 x 2
1 0 0
x3 = −2x4 + 2x5 = x2 0 + x4 −2 + x5 2
~x =
x4 x4 0 1 0
x5 x5 0 0 1
Por tanto,
6 −1
~b ∈ W ⇐⇒ ~b es combinación lineal de 1 y 1 .
−7 0
94 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
6 −1
Por tanto, si tomamos A = 1 1 se tiene que
−7 0
* 6 −1+
H = Col(A) = 1 , 1
−7 0
(
todos los vectores de Rn (∀~b ∈ Rn ) son combinación lineal de ~v1 , . . . , ~vk .
Rn =< ~v1 , . . . , ~vk >⇐⇒
A~x = ~b tiene solución, ∀~b ∈ Rn
Ejemplo 3.1.3 1.
2 ? 1 0
R = ,
0 1
x
Para eso, necesitamos que todos los vectores de R2 sean combinación
y
1 0
lineal de y .
0 1
Obsérvese que:
x 1 0
=x +y
y 0 1
x 1 0
Por tanto, es combinación lineal de y , con pesos x y y.
y 0 1
x
Y esto para cualquier vector .
y
1 0
2. ¿Qué ocurre si a , le aumentamos algún vector? La matriz A
0 1
x
del sistema A~x = tendrá dos pivotes y las demás columnas serán va-
y
riables libres. Infinitas soluciones ⇒ siempre hay solución. Seguirá siendo
un conjunto generador de R2 , pero habrá más de una forma de conseguir
la combinación lineal para cada vector en R2 .
3.1. Subespacios vectoriales y sistemas generadores 95
3.
1 ? 1
R2 = ,
0 1
x x
Sea ∈ Rn cualquiera. Entonces ¿A~x = tiene solución?
y y
MATRIZ AUMENTADA:
1 1 x 1 0 x−y
∼
0 1 y 0 1 y
x−y
Solución ≡ pesos ~x =
y
x
Entonces para cualquier vector ∈ R2 tenemos que:
y
x 1 1 2 1 1
= (x − y) + y ⇐⇒ R = ,
y | {z } 0 |{z} 1 0 1
peso peso
x 7 7 1 1
Sea = , entonces = (7 − 3) +3
y 3 3 0 1
x −1 −1 1 1
Sea = , entonces = (−1 − 1) +1
y 1 1 0 1
etc, etc, etc...
4.
*1 0+
?
R3 = 0 , 1
0 0
* +
0 0 1 0
¡No! Contraejemplo: ~v 0 ∈ R3 pero 0 ∈ / 0 , 1 . Por
2 2 0 0
tanto, no pueden ser iguales.
96 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
5. * 1 3 4 +
3 ?
R = −4 , 2 , −6
−3 −2 −7
b1
Sea ~b = b2 cualquier vector de R3 . Entonces, R3 está generado por
b3
1 3 4 1 3 4 x1
−4 , 2 y −6 si y sólo si el sistema de ecuaciones −4 2 −6 x2 =
−3 −2 −7 −3 −2 −7 x3
b1
b2 siempre tiene solución, ∀~b ∈ R3 .
b3
En términos de pivotes, ¿qué debe ocurrir? Que la matriz tenga 3 pivo-
tes. ¿Por qué? Porque si en la matriz escalonada, la última fila es una
fila de ceros, para algunos ~b tendrá solución pero para otros no. Veamos
qué ocurre:
Matriz aumentada del sistema
1 3 4 b1 1 3 4 b1
−4 2 −6 b2 ∼ 0 14 10 b2 + 4b1
−3 −2 −7 b3 0 0 0 b3 + 3b1 − 21 (b2 + 4b1 )
Conclusión 3.1.1 Para que Rn = h~v1 , . . . , ~vk i, necesitamos evitar que aparez-
ca una fila de ceros en la matriz escalonada de la matriz An×k = (~v1 , . . . , ~vk ).
Dado que ~v3 = ~v1 + ~v2 , ~v4 = ~v1 + 2~v2 y ~v1 , ~v2 no son múltiplos, al dibujar estos
4 vectores en R3 se pueden comprobar que todos caen sobre un mismo plano.
DIBUJO
Por tanto, todas las combinaciones lineales posibles de estos cuatro vectores
también son todas las combinaciones lineales posibles de, por ejemplo, ~v1 , ~v2 .
Si se hace una lista de otros posibles conjuntos generadores de H se tiene que:
También {~v1 , ~v4 }, {~v2 , ~v3 } ó {~v3 , ~v4 } son conjuntos generadores de vectores
linealmente independientes de H, y cualquier conjunto compuesto por estos
vectores y alguna combinación lineal de ellos será un conjunto generador, pero
de vectores linealmente dependientes. Pero no se puede encontrar un conjunto
generador de un sólo vector para H, ya que en ese caso H serı́a una recta, pero
se ha argumentado anteriormente que es un plano (véase Figura ??). Tampoco
se podrı́a encontrar un conjunto generador para H compuesto de tres vectores
linealmente independientes, ya que en este caso H serı́a todo R3 . En conclusión,
para encontrar un conjunto generador de H son necesarios al menos dos vecto-
res de H pero que además sean linealmente independientes, o un conjunto de
vectores en H donde sólo dos de ellos sean linealmente independientes, y el resto
combinación lineal de los linealmente independientes. Toda esta argumentación
motiva la siguiente definición:
98 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
H = h~v1 , . . . , ~vr i .
A~x = ~0 =⇒ ~x = ~0.
0 0
| {z } | {z }
~
v1 ~
v2
0 0 0 0
| {z } | {z } | {z } | {z }
~
v1 ~
v2 ~
v3 ~
v4
múltiplos, ası́ que por lo menos hay dos vectores linealmente independientes
en el conjunto generador {~v1 , ~v2 , ~v3 , ~v4 } de H2 . Como ~v3 = ~v1 + ~v2 , ~v4 =
~v1 + 2~v2 y ~v1 , ~v2 son linealmente independientes, se tiene que β1 = {~v1 , ~v2 }
es una base de H2 . Pero no es la única base, ya que por un argumento
similar se tiene que otras posibles bases son:
1
1 1
2
0 1 1 3
β2 = ,
0 0 ó β 3 = 0 0 .
,
0 0 0 0
(c) Una base para Rn debe estar compuesta por n vectores linealmente inde-
pendientes de Rn . Por ejemplo, la base más simple es la conocida como
base canónica βc y viene dada por los vectores canónicos:
En conclusión, dim(Rn ) = n.
En general, una posible base para una recta que pasa por el origen con dirección
~v es: β = {~v }. Ası́ que la dimensión de una recta es 1. Para generar un plano en
Rn en cambio se necesitan sólo dos vectores linealmente independientes sobre
el plano, por lo que la dimensión de un plano en Rn es 2. Para generar un
subespacio vectorial de dimensión r en Rn son necesarias r direcciones o vecto-
res linealmente independientes sobre el subespacio vectorial, que conformarı́an
una base, y cualquier otro vector añadido tendrı́a que ser combinación lineal
de estos vectores.
Ahora se va a definir el concepto de coordenadas de un vector sobre un
subespacio vectorial asociadas a una base dada. Por tanto, cuando se habla de
coordenadas de un vector, siempre será necesario que ese vector esté dentro de
un subespacio vectorial H y que a ese subespacio vectorial se le asigne una base
fija β.
Obsérvese que por ser β = {~v1 , . . . , ~vr } una base de H ≤ Rn entonces es un
sistema generador H = h~v1 , . . . , ~vr i y además {~v1 , . . . , ~vr } son linealmente in-
dependientes. Entonces, si se tiene un subespacio vectorial H ≤ Rn y un vector
~b ∈ Rn , pueden ocurrir dos cosas: o bien el sistema A~x = ~b es inconsistente,
donde A es la matriz definida en la Definición 3.2.2 para una base cualquiera
de H, y por tanto se tiene que ~b ∈ / H, o bien ~b ∈ H y por tanto A~x = ~b no sólo
es consistente, sino que tiene única solución (véase Proposición ??). Es ası́ que
Como ~b ∈ H =< ~v1 , . . . , ~vr >, entonces A~x = ~b es consistente. Pero además
como {~v1 , . . . , ~vr } son linealmente independientes, la solución es única. A los
pesos ~x del sistema de ecuaciones lineales A~x = ~b en su forma vectorial se le
conoce como las coordenadas de ~b ∈ H en la base β = {~v1 , . . . , ~vr }, y se denota
por:
x1
~b = ..
. .
xr β
Las coordenadas dependen de la base escogida, pero una vez fijada la base son
únicas:
Ejemplo 3.2.1 (a) Bases para R2 : para encontrar una base en R2 es sufi-
ciente con dar un conjunto de dos vectores que no sean múltiplos. Sean por
tanto las siguientes bases para R2 :
1 0 1 1 1 2
β1 = , ; β2 = , ; β3 = , .
0 1 0 1 1 1
~ 2 ~ b
Sea ahora un vector b cualquier en R : b = 1 . Rápidamente sin hacer
b2
ningún cálculo se puede ver que:
~b = b1 = b1 1 + b2 0 = (b1 − b2 ) 1 + b2 1 ,
b2 0 1 0 1
1 2 b1 F1 →F1 −2F2 1 0 2b2 − b1
∼
0 1 −b2 + b1 0 1 −b2 + b1
Por tanto, la solución al sistema son los pesos de la combinación lineal, que
al ser únicos se vuelven las coordenadas del vector ~b en la base β3 :
~b = b1 = 2b2 − b1
b2 −b2 + b1 β
3
* +
1 1 1 1
(b) Sea ahora H = 1 , 2 ≤ R3 . Como 1 y 2 no son múltiplos,
1 1 1 1
1 1
entonces β1 = 1 , 2 es base de H. Por tanto dim(H) = 2, y H
1 1
0 1 1
es un plano en R3 . Pero como 1 = 2 − 1, se tiene que β2 =
0 1 1
1 0 0 1
1 , 1 y β3 = 1 , 2 también son bases de H.
1 0 0 1
(a) ¿Qué condición tienen que verificar las componentes de ~b ∈ R3 para que
~b ∈ H? Encuentre un vector en H y otro que no esté contenido en H.
Esto es:
2 1 −3
0
1 0
* +
0 , −2 , 2 ,
Nul(A) =< ~v1 , ~v2 , ~v3 >=
0 1 0
0 0 1
o equivalentemente,
2 1 −3
1 0 0
0 + λ2 −2 + λ3 2
~x ∈ Nul(A) ⇐⇒ ~x = λ1~v1 + λ2~v2 + λ3~v3 = λ1
0 1 0
0 0 1
Para comprobar que {~v1 , ~v2 , ~v3 } son linealmente independientes se debe re-
solver el sistema homogéneo B~x = ~0 asociado a estos vectores, esto es, si
B = (~v1 ~v2 ~v3 ), se toma ~x = ~0 en la expresión anterior y se encuentran los
pesos λ1 , λ2 , λ3 en la combinación lineal. Los vectores {~v1 , ~v2 , ~v3 } serán lineal-
mente independientes si se demuestra que los pesos valen cero:
2 1 −3
1 0
0 0 x1 0
B~x = ~0 ⇐⇒
0 −2 2 x2 = 0 .
0 1 0 x3
0
0 0 1
por último, como la quinta columna es 3 veces la primera menos dos veces
la segunda, entonces
−7 −3 −1
~v5 = 3~v1 − 2~v3 =⇒ −1 = 3 1 − 2 2 .
−4 2 5
Esto ocurre siempre, se tome la matriz A que se tome. Las columnas corres-
pondientes a las variables pivote formarán una base de Col(A), mientras que
las columnas correspondientes a las variables libres (siempre en la matriz origi-
nal) serán combinaciones lineales de las columnas pivote. Estas combinaciones
lineales se pueden encontrar analizando la matriz escalonada reducida de A,
como se ha hecho en el ejemplo.
En conclusión, la dimensión de Col(A) el espacio columna de A es el número
de elementos de una base, por tanto, es el número de variables pivote de la
matriz:
dim(Col(A)) = número de variables pivote en A.
(a) si ~v1 es c.l. del resto, entonces S − {~vi } también es un sistema generador.
(b) algún subconjunto S 0 ⊆ S es base de H.
Prueba.
Prueba.
Corolario 3.3.2 Todo sistema de vectores l.i. se puede expandir a una base de
H.
Prueba.
Además, el número máximo de pivotes que puede tener una matriz no puede
superar el número de filas si es que hay más columnas que filas, y no puede
superar el número de columnas en caso contrario. Si el valor c = mı́n{a, b}
corresponde al valor más pequeño o mı́nimo entre a y b, entonces se verifica
que:
rg(A) ≤ mı́n {n, m}.
La demostración del siguiente teorema es trivial. Si se toma dim(Col(A)) y se
le suma dim(Nul(A)), se estará sumando el número de pivotes con el número
de variables libres, por lo que el resultado es el número de columnas:
Teorema 3.3.4 (Teorema del Rango) Sea Am×n una matriz. Entonces,
rg(A) + 2 = 9;
Teorema 3.3.5 Sea An×n una matriz cuadrada. Entonces, todos estos enun-
ciados son equivalentes:
(a) A es invertible;
(f ) rg(A) = n;
n o
(g) Nul(A) = ~0 ;
(h) Col(A) = Rn .
Prueba.
Es más, obsérvese que si A es invertible se sabe que A~x = ~b siempre tendrá so-
lución única para cualquier vector ~b ∈ Rm , por lo que la solución única corres-
ponderán exactamente a las coordenadas del vector ~b de Rn asociadas a la base
de Rn formada por los vectores columna de la matriz invertible A.
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 111
3.4. Interpretación geométrica de un sistema de
ecuaciones lineales y de su conjunto solución
Muchas veces se estudia la resolución de sistemas de ecuaciones lineales y
se obvia la fuerte interpretación geométrica que estas soluciones involucran. Es
por ello que en esta sección se intentará esclarecer qué objeto geométrico se
esconde detrás de la solución de un sistema de ecuaciones lineales. Para ello, se
comenzará con ejemplos concretospara generalizar más tarde a un sistema de
ecuaciones lineales A~x = ~b con m ecuaciones y n incógnitas.
CS = {~0}.
x
−4/3z = 1,
2. y = 1, . La solución es un punto, y es fácil ver que es
z = 1.
7
3
el punto p = 1 , por lo que el conjunto solución es:
1
7
3
CS = 1 .
1
solución única, sino que A~x = ~b tendrá solución para cualquier ~b ∈ Rn . Esto
es, Col(A) = R3 .
En este caso, si se dibujan los puntos que corresponden a los vectores del
conjunto solución (en la dualidad punto/vector explicada
en la página
2
??), se obtiene la recta que pasa por el punto 1 con dirección el
0
4
3
vector 0 . Por tanto, el conjunto solución de este sistema es la recta
1
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 113
2
Nul(A) trasladada al punto 1, por lo que deja de ser un subespacio
0
vectorial, ya que ya no pasa por el origen:
2
CS = 1 + Nul(A).
0
x
−4/3z = 2,
3. y = 1, . Dado que la información de la tercera ecua-
x +y −4/3z = 1.
ción no coincide con la dada en las dos primeras ecuaciones, resulta que
el sistema es inconsistente.
De nuevo la matriz de coeficientes A para estos tres ejemplos es la misma:
1 0 −4/3
A 0 1 0 .
1 1 1
Al calcular la forma escalonada de la matriz se obtiene una última fila de
ceros y dos pivotes, por lo que Col(A) es un plano en R3 . El sistema A~x =
~0 siempre tiene solución y en este caso tiene infinitas soluciones porque los
vectores columna de A son linealmente dependientes. Es por eso que si A~x = ~b
es inconsistente como en el tercer caso, es porque ~b ∈
/ Col(A). Pero si A~x = ~b
es consistente para un ~b ∈ R es porque ~b ∈ Col(A) como en el segundo caso.
3
Obsérvese que, en este último caso, la solución siempre será un punto –que
dependerá del vector ~b ∈ Col(A)– más Nul(A).
4 * 4 +
7 0 3 7 0 3
CS = 0 + y 1 + z 0 : y, z ∈ R = 0 + 1 , 0 .
0 0 1 0 0 1
7
CS = 0 + Nul(A).
0
CS = p~ + Nul(A).
Obsérvese que, si A~x = ~0 tiene una única solución –los vectores columna de A
son linealmente independientes– entonces, o bien A~x = ~b es inconsistente y por
tanto ~b ∈
/ Col(A), o bien A~x = ~b es consistente, con una única solución, y esa
solución son las coordenadas de ~b en la base de Col(A) dada por los vectores co-
lumna de A. Además, el conjunto solución no es un subespacio vectorial porque
el origen no está contenido en las soluciones de un sistema no-homogéneo.
Obsérvese que en este caso z puede tener cualquier valor, mientras que las va-
riables x, y satisfacen obligatoriamente la ecuación y = −x + 2. Por lo tanto, el
plano x + y = 2 es aquel que se consigue trasladando la recta x + y = 2 situada
sobre el plano z = 0 a lo largo del eje z.
Dos planos que intersecan Dos planos paralelos Si los dos planos son el
en una recta mismo plano
entonces P está sobre todos los hiperplanos definidos por cada ecuación del
sistema de ecuaciones lineales. O dicho de otra manera, P está en la intersección
de todos los hiperplanos.
(3) Si hay más de una solución para el sistema, es porque la intersección entre
los hiperplanos es un objeto geométrico con más de un punto. Es más,
este objeto geométrico ya se ha estudiado en la sección ??, y vendrá dado
por un punto o solución particular p~ más Nul(A), siendo A la matriz de
coeficientes del sistema.
Figura 3.5: Sistema consistente de tres ecuaciones y tres incógnitas, con una
única solución.
En este caso, al tener las dos rectas la misma pendiente, es imposible que la
solución sea única. O bien la solución es la misma recta (si k = −3h), o bien
son dos rectas paralelas y el sistema es inconsistente (si k 6= −3h). Las posibles
posiciones relativas son:
3.4. Interpretación geométrica de un sistema de ecuaciones lineales y de su
conjunto solución 121
son paralelas ó son la misma recta
1 0 1
~ = 1 , b~1 = 0 , b~2 =
Ejercicio 3.7 Sean los vectores ~v = 1 , w
0 1 −1
1
1.¿b~1 , b~2 ∈< v~1 , v~2 >?
1
Solución. Por ejemplo, para este último caso, las ecuaciones a resolver para
que ~b1 ∈< ~v , w
~ > son:
x = 1
x+y =0
y = −1
(i) T (~0) = ~0
(ii) T (~v + w)
~ = T (~v ) + T (w)
~ Preserva la suma
(iii) T (λ~v ) = λT (~v ) Preserva el producto escalar
T : R3 −→ R2
(x1 , x2 , x3 ) (x1 –5x2 + 4x3 , x2 − 6x3 )
¿Es lineal? ¿Es matricial?
T (0, 0, 0) = 0
x1 y1
~x = x2 ; ~y = y2
x3 y3
x1 + y1
~x + ~y = x2 + y2
x3 + y3
x1 + y1 − 5x2 − 5y2 + 4x3 + 4y3
T (~x + ~y ) =
x2 + y2 − 6x3 − 6y3
(x1 + −5x2 + 4x3 ) + (y1 − 5y2 + 4y3 )
=
(x2 − 6x3 ) +
(y2− 6y3 )
(x1 + −5x2 + 4x3 ) ...
= +
(x2 − 6x3 ) ...
= T (~x) + T (~y )
(λx1 + −5λx2 + 4λx3 )
T (λ~x) =
(λx2 − 6λx3 )
λ(x1 + −5x2 + 4x3 )
=
λ(x 2 − 6x3 )
...
= λ
...
= λT (~x)
Es lineal
∃?A : T (~x) = A~x
1 −5 4 1 −5 4 x1
T (~x) = x1 + x2 + x3 =
0 1 −6 0 1 −6 x2
Es matricial
Ejercicios
1. Una transformación lineal debe resultar en un vector cero: T (~0) = ~0.
Demuestra esto desde T (~v + w)
~ = T (~v ) + T (w)
~ escogiendo w
~ = ............
(y termina la demostración). Muestra que también desde T (c~v ) = cT (~v )
escogiendo c = ............ .
2. ¿Cuáles de estas transformaciones no son lineales? La entrada es ~v =
(v1 , v2 ):
(e) T (~v ) = v1 − v2
(f) T (~v ) = v1 v2
3. Supón T (~v ) = ~v excepto por T (0, v2 ) = (0, 0). Muestra que esta transfor-
mación satisface T (c~v ) = c~v pero no T (~v + w)
~ = T (~v ) + T (w).
~
4. ¿Cuál de estas transformaciones satisface T (~v + w)
~ = T (~v ) + T (w)
~ y cuál
satisface T (c~v ) = cT (~v )?
(b) T (~v ) = v1 + v2 + v3
(c) T (~v ) = (v1 , 2v2 , 3v3 )
(d) T (~v ) = el componente más largo de ~v
(a) ~v = (2, 2)
(b) ~v = (3, 1)
(c) ~v = (−1, 1)
Reflexión en el eje y:
126 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
1
x x 1 0
T = =x + (−y)
1
y −y 0 1
1
1 0
=x +y
-1
0 −1
1 1 0 0
T = ;T =
0 0 1 −1
Proposición
Sea T una transformación lineal T : Rn −→ Rm y ~v1 , . . . , ~vn ∈ Rn una base
de Rn . Entonces, ∀~b ∈ Rn ; ~b = λ1 v1 + . . . + λs vn y:
T (λ1 v1 + . . . + λs vs ) = λ1 T (v1 ) + . . . + λs T (vs )
Demostración
T (λ1 v1 + . . . + λs vs ) |{z}
= T (λ1 v1 ) + T (λ2 v2 + . . . + λs vs )
T lineal
= T (λ1 v1 ) + . . . + T (λs vs ) |{z}
= λ1 T (v1 ) + . . . +
T lineal
λs T (vs )
¿Para qué sirve esta proposición?
Basta con saber cómo actúa T sobre una base para saber cómo actúa sobre
cualquier vector:
Tomamos la base canónica: ~e1 , . . . , ~en
T : Rn −→ Rm
~
T (b) = λ1 T (~e1 ) + . . . + λn T (~en)
λ1
~b = λ1~e1 + . . . + λn~en
= T (~e1 ), . . . , T (~en ) ...
λn
Conclusión
Toda transformación
lineal es matricial:
x1 x1
.. .
T (~x) = T . = T (~e1 ), . . . , T (~en ) ..
xn xn
3.6. Matriz de una transformación lineal 127
Ejemplos
T : R2 −→ R3
5x1 − 3x2
1. T (~x) = −7x1 + 8x2 x1
T (~x) = T (~e1 ) T (~e2 )
2x1 x2
5 −3
T (~e1 ) = −7 ; T (~e2 ) = 8
2 0
5 −3 5x1 − 3x2
x
−7 8 1 = −7x1 + 8x2
x2
2 0 2x1
3 0 0
2. Sea la matriz A = 0 3 0
0 0 3
3x1
T es la transformación lineal
T (~x) = A~x = 3x2 = 3~x;
que triplica ∀ vector de R3
3x3
3 0 0
T (~e1 ) = 0 ; T (~e2 ) = 3 ; T (~e3 ) = 0
0 0 3
128 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
Ejercicios
1. Con bases ~v1 , ~v2 , ~v3 y w
~ 1, w
~ 2, w
~ 3 , supón que T (~v1 ) = w
~ 2 y T (~v2 ) =
T (~v3 ) = w
~1 + w
~ 3 . T es una transformación
lineal. Encuentra la matriz A
y multiplı́cala por el vector 1 1 1 . ¿Cuál es la salida desde T cuando
la entrada es ~v1 + ~v2 + ~v3 ?
2. Supón T (~v1 ) = w
~1 + w
~2 + w
~ 3 y T (~v2 ) = w
~2 + w
~ 3 y T (~v3 ) = w
~ 3 . Encuentra
la matriz A para T usando esos vectores base. ¿Qué vector de entrada ~v
da T (~v ) = w
~ 1?
4. (a) ¿Qué matriz transforma (1, 0) a (2, 5) y transforma (0, 1) a (1, 3)?
(b) ¿Qué matriz transforma (2, 5) a (1, 0) y (1, 3) a (0, 1)?
(c) ¿Por qué ninguna matriz transforma (2, 6) a (1, 0) y (1, 3) a (0, 1)?
7. (a) ¿Cuál es la matriz que transforma (1, 0) y (0, 1) a (1, 4) y (1, 5)?
(b) La combinación a(1, 4) + b(1, 5) = (1, 0) tiene (a, b) = ( , ).
8. Utilizando ~v1 = w
~ 1 y ~v2 = w
~ 2 , encuentra la matriz estándar para estas
T ’s:
(a) T (~v1 ) = ~0 y T (~v2 ) = 3~v1
(b) T (~v1 ) = ~v1 y T (~v1 + ~v2 ) = ~v1
1 0 1 0 x x
A = T (~e1 ) T (~e2 ) = T (~x) = =
0 −1 0 −1 y −y
−1 0 −1 0 x −x
A= T (~x) = =
0 1 0 1 y y
Rotación de 90◦ :
0 −1 0 −1 x −y
A= T (~x) = =
1 0 1 0 y x
Proyección en el eje x:
130 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
1 0 1 0 x x
A= T (~x) = =
0 0 0 0 y 0
Rotación de θ grados:
30°
cos(θ) −sin(θ) x1 cos(θ) −x2 sin(θ)
A = T (~e1 ) T (~e2 ) = T (~x) =
sin(θ) cos(θ) x1 sin(θ) x2 cos(θ)
Reflexión a través de la recta y = x:
0 1
A= T (x, y) = (y, x)
1 0
Reflexión a través de la recta y = -x:
3.8. Rango y núcleo de una transformación uno a uno y sobreyectiva 131
0 −1
A= T (x, y) = (−y, −x)
−1 0
2 4
3. ¿Qué transformación lineal manda ~e1 y ~e2 a 3 y 6?
4 8
T : R2 −→ R3
(x, y) T (x, y)
2 4 2x + 4y 2 4
x
T (x, y) = 3 6 = 3x + 6y = x 3 + y 6
y
4 8 4x + 8y 4 8
x x
~v = T (x, y) ⇐⇒ ∃(x, y) : A = ~v ⇐⇒ A = ~v tiene solución.
y y
Los vectores en el rango de T son todos los vectores que son combinación
lineal de los vectores columna de A:
∀~b ∈ Rm
T : Rn −→ Rm es sobre
MAPEA Rn SOBRE Rn
⇐⇒ A~x = ~b siempre
tiene solución
⇐⇒ Rango(T ) = Rm
3.8. Rango y núcleo de una transformación uno a uno y sobreyectiva 133
No es uno a uno.
v1 tiene más de una preimagen.
Las proyecciones sobre un eje no son uno a uno.
Proposición
T : Rn −→ Rm es uno a uno ⇐⇒ ∀~b ∈ Rm A~x = ~b es inconsistente
o tiene solución única.
Ejemplos
1. T (x1 , x2 ) = (3x1 + x2 , 5x1 + 7x2 , x1 + 3x2 ) ¿Es sobre? ¿Es uno a uno?
T : R2 −→ R
3
3x1 + x2 3 1
x1 5x1 + 7x2 = x1 5 + x2 7
x2
x1 +3x2 1 3
3 1
x1
= 5 7
x2
1 3 2×3
3 1
T (~e1 ) = 5 ; T (~e2 ) = 7
1 3
Sobre ⇐⇒ ∀b ∈ R3 ∃~x : A~x = ~b
⇐⇒ ~
A~x = b siempre tiene solución
⇐⇒ col(A) = R3 IMPOSIBLE No es sobre
Uno a uno ⇐⇒ si A~x = ~b es consistente, entonces tiene una única solución
⇐⇒ A tiene tantos pivotes como columnas
⇐⇒ A tiene dos pivotes
⇐⇒ T (~e1 ), T (~e2 ) con l.i.
Es uno a uno
T : R4 −→ R3
~x A~x
T MAPEA R4 sobre R3 si todos los vectores de R4 caen sobre todos los
vectores de R3 .
Si ∀b ∈ R3 A~x = ~b es consistente.
¡Es sobre!
134 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
Propiedades
S ◦ T es una transformación lineal.
Demostración
Sólo basta con demostrar que es matricial para ver que es lineal.
S ◦ T : NO SE PUEDE
T ◦ S : R3 −→ R2
3.9. Composición de transformaciones y transformaciones invertibles 135
¿Quién es T ◦ S?
2 3 2 3 x
T (~x) = x +y =
1 −5 1 −5 y
x
4 3 6 4 3 6
S(~x) = x +y +z = y
1 −2 3 1 −2 3
z
Por tanto,
T S
x
z }| { z
}| {
2 3 4 3 6
T ◦ S(~x) 1 −5 · 1
= y
−2 3
z
x
2·4+3 2 · 3 + 3(−2) 2·6+3·3
= y
1·4−5·1 1 · 3 + (−5)(−2) 1 · 6 + (−5)3
z
x
11 0 21
= y
−1 13 −2
z
11x + 21z
=
−x + 13y − 2z
¿Matriz de Q?
T (~x) = A~x
T ◦ Q(~x) = (AB)~x = ~x si B = A−1
Q(~x) = B~x
Si T (~x) = A~x y Q es la inversa de T, entonces Q(~x) = A−1 ~x
Proposición
Si T es invertible, entonces T es uno a uno y sobre.
Demostración
Corolario T : Rn −→ Rn invertible
136 Capı́tulo 3. Subespacios vectoriales de Rn y transformaciones lineales
∀b ∈ Rn ∃!x ∈ Rn : A~x = ~b
Antes de demostrar este teorema, se enuncia una consecuencia obvia del mismo:
137
138 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
n n
n Sea ~z ∈oR , H ≤ R un subespacio vectorial de dimensión k
Corolario 4.1.1
en Rn , y β = ~h1 , . . . , ~hk una base de H. Entonces:
Prueba. Se deduce fácilmente del teorema anterior, dado que una base es
un caso especial de conjunto generador de H. Efectivamente, es un conjunto
generador de vectores linealmente independientes.
Se demuestra a continuación el teorema:
Prueba del Teorema 4.1.1. Se deben demostrar las dos implicaciones.
Primera implicación =⇒: la hipótesis es que ~z ⊥ H, esto es, ~z es ortogonal
con cualquier vector en H. Obsérvese que dado que {~h1 , . . . , ~hr } es un conjunto
generador de H, se verifica en particular que ~hi ∈ H =< ~h1 , . . . , ~hr >, para
i = 1, . . . , r. Por tanto, si ~z es ortogonal con cualquier vector en H, en particular
lo será con los vectores ~hi ∈ H, de donde se deduce la tesis.
Segunda implicación ⇐=: la hipótesis es que ~z es ortogonal con los vectores
del conjunto generador de H, esto es, z ⊥ ~hi , ∀i = 1, . . . , r, o equivalentemente
z · ~hi = 0.
Se desea demostrar que ~z es ortogonal con cualquier vector en H. Sea por
tanto ~h ∈ H un vector cualquiera en H =< ~h1 , . . . , ~hr >. Se sabe que ~h es com-
binación lineal de los vectores ~h1 , . . . , ~hr por definición de conjunto generador,
por lo que
Entonces:
0 0
~z · ~h = λ1 ~z 1
· ~h
* r
· ~h
+ . . . + λr ~z
*
= λ1 · 0 + . . . + λr · 0 = 0.
Ası́, ~z ⊥ ~h, ∀~h ∈ H y por tanto ~z ⊥ H, tal como se querı́a demostrar. Ahora,
se toma el conjunto de todos los vectores que son ortogonales a un subespacio
vectorial dado H, para definir el complemento ortogonal H ⊥ de H. Es más, se
demostrará que este conjunto tiene estructura de subespacio vectorial.
H ⊥ ≡ {~z ∈ Rn : ~z ⊥ H} ⊆ Rn
4.1. El complemento ortogonal H ⊥ de un subespacio vectorial H ≤ Rn 139
Sean ~z1 , ~z2 ∈ H ⊥ . Entonces, se verifica que ~z1 ⊥ H y ~z2 ⊥ H, esto es,
por lo que (~z1 + ~z2 ) ⊥ Hy ası́ ~z1 + ~z2 ∈ H ⊥ , de donde se demuestra (I). Sea
ahora λ ∈ R y ~z ∈ H ⊥ . Entonces, ~z · ~h = 0, ∀~h ∈ H. Si ~h ∈ H es un vector en
H cualquiera, entonces:
por lo que λ~z ⊥ ~h, ∀~h ∈ H, y por tanto λ~z ∈ H ⊥ , de donde se demuestra (II).
Cálculo de H ⊥ y de (Col(A))⊥
Prueba.
Si A = ~v1 . . . ~vr n×r , entonces Col(A) =< ~v1 , . . . , ~vr > y {~v1 , . . . , ~vr }
es un sistema generador de Col(A). Obsérvese que para determinar (Col(A))⊥
se desean encontrar todos los vectores ~z que verifican que ~z ⊥ Col(A). Por el
Teorema ??, ~z ∈ (Col(A))⊥ si y sólo si ~z es ortogonal con ~vi para i =, . . . , r.
Esto es:
~v1 · ~z = 0,
~v2 · ~z = 0,
⊥
~z ∈ (Col(A)) ⇐⇒ ..
.
~vk · ~z = 0.
o equivalentemente
AT ~z = ~0.
Por tanto, se acaba de deducir que:
~z ∈ (Col(A))⊥ ⇐⇒ ~z es solución de AT · ~z = ~0
⇐⇒ ~z ∈ N ul(AT ).
En conclusión:
⊥
(Col(A)) = N ul(AT ),
como se querı́a demostrar.
Obsérvese que al demostrar que (Col(A))⊥ = Nul(AT ), se está demostrando
que H ⊥ es un subespacio vectorial de Rn , ya que el espacio nulo de una matriz
es un subespacio vectorial. Obsérvese también que si A tiene dimensiones n × r
entonces AT tiene dimensiones r × n y por tanto Nul(AT ) ≤ Rn . E conclusión,
H ⊥ ≤ Rn .
Prueba.
Definición 4.2.1 Sean ~v1 , . . . , ~vk ∈ Rn . Entonces, se dice que {~v1 , . . . , ~vk } es
un conjunto ortogonal de k vectores si los vectores son ortogonales tomados
dos a dos, esto es,
def
{~u1 , . . . , ~uk } conjunto ortogonal ⇐⇒ ~ui ·~uj = 0, ∀i, j ∈ {1, . . . , k} con i 6= j.
Si además los vectores ~v1 , . . . , ~vk son unitarios, se dice que {~v1 , . . . , ~vk } es un
conjunto ortonormal de k vectores.
(b) Cualquiersubconjunto
de {~
e e2 , . . . , ~en } es un conjunto ortogonal. Por
1, ~
1 0 0
0 0 0
ejemplo, 0 , 1 , 0 es un conjunto ortogonal de R5 .
0 0 0
0 0 1
1 −1 −1
(c) , es un conjunto ortogonal de R2 , ya que 1 1 · = 0.
1 1 1
a −b
(d) , es un conjunto ortogonal de R2 ,, ∀a, b ∈ R, ya que a b ·
b a
−b
= 0.
a
142 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
1 1 0
(e) {~v1 , ~v2 , ~v3 } = 1 , −1 , 0 es un conjunto ortogonal de R3 , ya
0 0 1
que ~v1 · ~v2 = 0, ~v1 · ~v3 = 0 y ~v2 · ~v3 = 0.
Se sabe que si el vector ~0 pertenece a un conjunto de vectores, entonces los
vectores de este conjunto son linealmente dependientes. En el siguiente teorema
se demuestra que si el vector ~0 no está en un conjunto ortogonal de vectores,
entonces los vectores son linealmente independientes:
Teorema 4.2.1 Sean ~v1 , . . . , ~vk ∈ Rn − {~0}. Esto es, sean k vectores en Rn
todos distintos de ~0. Entonces, si {~v1 , . . . , ~vk } es un conjunto ortogonal, los
vectores ~v1 , . . . , ~vk son linealmente independientes.
Prueba.
En este teorema existen dos hipótesis. Por un lado, ~vi 6= ~0, ∀i = 1, . . . , k y
por otro, por ser un conjunto ortogonal se tiene que ~vi ·~vj = 0, ∀i, j ∈ {1, . . . , k}
tal que i 6= j. Para comprobar que ~v1 , . . . , ~vk son linealmente independientes, se
debe verificar que la única forma de escribir el vector ~0 como combinación lineal
de vectores es con pesos iguales a 0, esto es, si se escribe ~0 = λ1~v1 + λ2~v2 + . . . +
λk~vk para λ1 , . . . , λk ∈ R, es necesario comprobar que entonces necesariamente
λ1 = 0, . . . , λk = 0. Dicho de otra manera, se desea demostrar que la única
solución del sistema de ecuaciones lineales homogéneo (~v1 , . . . , ~vk ) · ~x = ~0 es
~x = ~0.
Se comienza con ~0 = λ1~v1 + λ2~v2 + . . . + λk~vk . Se toma ~vi para cualquier
valor de i = 1, . . . , k fijo. Si se multiplica por ~vi en ambos lados de la igualdad,
se tiene que
~0 · ~vi = (λ1~v1 + λ2~v2 + . . . + λk~vk ) · ~vi ,
o equivalentemente usando las propiedades del producto punto
0 = λ1 (~v1 · ~vi )+. . .+λi−1 (~vi−1 · ~vi )+λi (~vi · ~vi )+λi+1 (~vi+1 · ~vi )+. . .+λk (~vk · ~vi )
Recuérdese que por hipótesis los vectores ~v1 , . . . , ~vk son ortogonales dos a dos,
ası́ que
(~v1· ·
~vi )+λi (~vi · ~vi )+λi+1 · ~vi )+. . .+λk
(~vk·
0 = λ1 ~v
i )+. . .+λi−1
(~vi−1 (~vi+1 ~v
i)
Definición 4.2.2 Se dice que ~v1 , . . . , ~vk es una base ortogonal de un subespa-
cio vectorial H de Rn si el conjunto {~v1 , . . . , ~vk } verifica que:
4.2. Conjuntos y bases ortogonales 143
Lema 4.2.1 Sea {~v1 , . . . , ~vk } un conjunto ortogonal tal que ~vi 6= ~0, ∀i = 1, . . . , k.
Entonces β = {~v1 , . . . , ~vk } es base ortogonal de S = h~v1 , . . . , ~vk i.
Prueba. Trivial.
3 −1 −1/2
Ejercicio 4.2 Sea {~v1 , ~v2 , ~v3 } = 1 , 2 , −2 . Demuestre que
1 1 7/2
es un conjunto ortogonal de vectores y encuentre una base para el subespacio
vectorial S = h~v1 , ~v2 , ~v3 i. Deduzca quién es S.
Resolución Es un conjunto ortogonal ya que
−1
~v1 · ~v2 = 3 1 1 2 = −3 + 2 + 1 = 0
1
−1/2
~v1 · ~v3 = 3 1 1 −2 = −3/2 − 2 + 7/2 = 0
7/2
−1/2
~v2 · ~v3 = −1 2 1 −2 = 1/2 − 4 + 7/2 = 0
7/2
Base para S: {~v1 , ~v2 , ~v3 } es por definición un conjunto generador de S, y como es
un conjunto ortogonal y el vector ~0 no está contenido, se tiene que sus vectores
son linealmente independientes, por lo que {~v1 , ~v2 , ~v3 } base (ortogonal) de S.
Por último, dado que S es un subespacio vectorial de dimensión 3 en R3 , se
deduce que S = R3 . En el siguiente teorema de enuncia cómo calcular las
144 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
n o
Teorema 4.2.2 Sean H ≤ Rn , β = ~h1 , . . . , ~hk base ortogonal de H y ~h ∈ H
un vector cualquiera. Entonces, las coordenadas del vector ~h en la base ortogonal
β son:
~h · ~h1
~ ~
h1 · h1
~h = .. ,
.
~ ~
h · hk
~hk · ~hk β
esto es,
~ ~ ~ ~ k ~ ~
~h = h · h1 ~h1 + . . . + h · hk ~hk = h · hi ~
X
hi
~h1 · ~h1 ~hk · ~hk ~hi · ~hi |{z}
i=1 | {z } vector
escalar
n o
Prueba. Sea H ≤ Rn , β = ~h1 , . . . , ~hk una base ortogonal de H y un vector
~h en H. Entonces, ∃!λ1 , . . . , λk ∈ R : ~h = λ1~h1 + . . . + λk~hk (al ser los vectores
de la base linealmente independientes, los pesos son únicos y se conocen como
coordenadas). Se desea encontrar λi para i = 1, . . . , k y demostrar que λi =
~b·w~i
w ~ i . Dado que
~ i ·w
0
*
: 0 ~ ~
0
*
~h · ~hi = λ1 ~h1 ·~h
i + . . . + λ ~
i−1hi−1
·
~
h
i
+ λ i hi · hi + . . . + λ ~
k hk ·
~
h
i .
Por tanto, ~h · ~hi = λi ~hi · ~hi . Como ~hi 6= ~0 (dado que pertenece a una base),
~hi · ~hi 6= 0 y es posible despejar el valor de λi , obteniendo
~b · w
~i
λi = ∀i = 1, . . . , k,
~i · w
w ~i
Ejemplo ~
4.2.2 En el ejercicio anterior, encuentre las coordenadas de b =
6
1 ∈ S en la base ortogonal dada.
−8
4.2. Conjuntos y bases ortogonales 145
3 −1 −1/2
Resolución. β = 1 , 2 , −2 es una base ortogonal de S.
1 1 7/2
Usando el teorema ?? se tiene por tanto que:
~ ~ ~
~b = b · ~v1 ~v1 + b · ~v2 ~v2 + b · ~v3 ~v3 .
~v1 · ~v1 ~v2 · ~v2 ~v3 · ~v3
Como:
3
6 1 −8 · 1
~b · ~v1 1
~v1 = = 1;
~v1 · ~v1 3
3 1 1 · 1
1
−1
6 1 −8 · 2
~b · ~v2 1
~v2 = = −2;
~v2 · ~v2 −1
−1 2 1 · 2
1
−1/2
6 1 −8 · −2
~b · ~v3 7/2
~v3 = = −2,
~v3 · ~v3 −1/2
−1/2 −2 7/2 · −2
7/2
entonces
6 3 −1 −1/2 1
1 = 1 1 − 2 2 − 2 −2 y ~b = −2 .
−8 1 1 7/2 −2 β
Es muy importante observar que el teorema anterior sólo es válido cuando
se tiene una base ortogonal. Si no, es imposible poder aplicar este resultado.
Como consecuencia se tiene que
n o
Corolario 4.2.1 Sean H ≤ Rn , β = ~h1 , . . . , ~hk base ortonormal de H y
~h ∈ H un vector cualquiera. Entonces, las coordenadas del vector ~h en la base
ortonormal β son:
~h · ~h1
~h = .
..
~h · ~hk
β
146 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
Prueba. Dado que la base es ortonormal los vectores ~hi son unitarios, ∀i =
1, . . . , n, se tiene que ~hi ·~hi = 1. Aplicando el Teorema ?? se obtiene el resultado.
Cálculo de proyH ~b
En esta parte se va a presentar una forma de calcular proyH ~b la proyección
ortogonal de un vector ~b sobre un subespacio vectorial H de forma algebrai-
ca. Para ello, se hará de forma inductiva, primera calculando la proyección
sobre una recta, luego sobre un plano y finalmente generalizando a cualquier
subespacio vectorial H.
148 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
Ası́ que
~b · ~v = λ~v · ~v ,
DIBUJO
En general, usando el producto punto, si se tiene una base ortogonal {~h1 , . . . , ~hk }
de un subespacio vectorial H, usando el Teorema ?? se pueden encontrar fácil-
mente las coordenadas de un vector en H cualquiera. Como proyH ~b ∈ H, si
se tuviera una base ortogonal se tendrı́a que:
proyH ~b · ~h1 proyH ~b · ~hk
proyH ~b = ~h1 + . . . + ~hk .
~h1 · ~h1 ~hk · ~hk
4.3. Proyecciones ortogonales y el proceso de Gram-Schmidt 149
El problema de este razonamiento es que lo que se desea es calcular proyH ~b ,
el cual es desconocido. Lo que sı́ es conocido es el vector ~b ∈ Rn
y la base
ortogonal de H. Pero gracias al Ejercicio ?? se sabe que proy ~
b · ~h = ~b · ~h
H
~b · ~h1 ~ ~
~h1 + . . . + b · hk ~hk
proyH ~b =
~h1 · ~h1 ~hk · ~hk
= ph~h1 i b̂ + . . . + ph~hk i b̂
| {z } | {z }
proyección de b̂ proyección de b̂
D E D E
sobre la recta
~h1 sobre la recta
~hk
2 −2
Ejemplo 4.3.1 1. Si ~v1 = 5 y ~v2 = 1
−1 1
(i) Demuestre que {~v1 , ~v2 } es base ortogonal de H = h~v1 , ~v2 i.
1
(ii) Encuentre bb y ~e para ~b = 2.
3
Proceso de Gram-Schmidt
n o
Sea β = ~h1 , . . . , ~hk base (no ortogonal) de H ≤ Rn . La base ortogonal
β⊥ = {~u1 , . . . , ~uk } se consigue de la siguiente manera:
~u3 = ~h3 −proy<~u1 ,~u2 >~h3 . El tercer vector de la base ortogonal es el vector
error en la proyección de ~h3 sobre el plano < ~u1 , ~u2 >. DIBUJO
En conclusión:
w~ 3 · ~u1 w~ 3 · ~u2
~u3 = ~h3 − ~u1 − ~u2
~u1 · ~u2 ~u2 · ~u2
Obsérvese que ~u3 sigue perteneciendo a H, ya que es una combinación
lineal de ~u1 , ~u2 , ~h3 ∈ H.
...
En general, para conseguir el vector ~ui de la base ortogonal β⊥ = {~u1 , ~u2 , . . . , ~ui , . . . , ~uk }
son necesarios el vector ~hi de la base β y los (i−1) vectores anteriores ~u1 , . . . , ~ui−1
de la base ortogonal β⊥ , y la fórmula es:
w~ i · ~u1 ~ i · ~ui−1
w
~ui = ~hi − · ~u1 − . . . − · ~ui−1 , ∀i = 2, . . . , k
~u1 · ~u1 ~ui−1 · ~ui−1
Una vez que se tiene una base ortogonal, es fácil encontrar una base orto-
normal. normalizando los vectores de la base ortogonal.
1 0 0
1 , , 0 .
1
Ejemplo 4.3.2 Sea W = h~v1 , ~v2 , ~v3 i tal que {~v1 , ~v2 , ~v3 } =
1
1 1
1 1 1
Encuentre una base ortogonal y otra ortonormal de W .
Solución.
Primeramente se encuentra una base de vectores para W . El conjunto de
vectores {~v1 , ~v2 , ~v3 } es un sistema generador de W por definición. Además, se
comprueba a continuación que Nul(A) = {~0} para A = ~v1 ~v2 ~v3 , por lo
1 0 0 0
1 1 0 0 x = 0
x=0
x + y + z = ⇐⇒ x + y = 0
⇐⇒ y = 0.
1 1 1 0
z=0
x+y+z =0
1 1 1 0
Por tanto, β = {~v1 , ~v2 , ~v3 } es una base de W . No es una base ortogonal
porque, por ejemplo, ~v1 · ~v2 6= 0. Para encontrar una base ortogonal de W
se procede a aplicar el método de Gram-Schmidt. Los elementos de la base
ortogonal β⊥ = {~u1 , ~u2 , ~u3 } son:
1
1
1 = ~v1 .
~u1 =
1
1
0 1 1 1
1 1
0
~v2 · ~u1 1 1 1
~u2 = ~v2 − ~u1 = − =
~u1 · ~u1 1 1 1
1 1 1
1 1 1 1 ·1
1
0 1 −3/4
1 3 1 1/4
=1 − 4 1 = 1/4 .
1 1 1/4
0 1 3 0
~v3 · ~u1 ~v3 · ~u2 0 1 1 1 −1 −2/3
~u3 = ~v3 − ~u1 − 1 − 2 1 + 6 −1 = 1/3 ,
~u2 =
~u1 · ~u1 ~u2 · ~u2
1 1 −1 1/3
ya que
1
1
0 0 1 1 ·
1 1
1 1/2
~v3 · ~u1 1 1 2 1 1/2
~u1 = = =
~u1 · ~u1 1 1 4 1 1/2
1 1 1 1/2
1 1 1 1 ·
1
1
y
152 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
−3/4
1/4
0 0 1 1 · 1/4
−3/4
~v3 · ~u2 1/4 1/4
~u2 = ·
1/4 =
~u2 · ~u2 −3/4
1/4 1/4
−3/4 1/4 1/4 1/4 1/4
1/4
−3/4 −3/4 −1/2
2/4 1/4 2 1/4 1/6
= = = .
12/16 1/4 3 1/4 1/6
1/4 1/4 1/6
1/3
no existe ningún punto que verifique todas las ecuaciones del sistema de ecua-
ciones lineales a la misma vez. Un ejemplo de un sistema de ecuaciones lineales
inconsistente aparece reiteradamente en poblemas estadı́sticos. EXPLICAR.
Aunque este problema claramente no tiene solución posible, se podrı́a encon-
trar una solución aproximada con el error más pequeño posible. Para ello. si
A~x = ~b no tiene solución se plantea el problema A~x = proyCol(A) (~b) como el
problema que sı́ tiene solución (dado que proyCol(A) (~b) ∈ Col(A) por defini-
ción) y que devuelve la solución más cercana para A~x = ~b, dado que el vector
proyCol(A) (~b) es el vector en Col(A) con la distancia más pequeña a ~b.
bb ≡ proy ~
Col(A) (b),
Ejemplo 4.4.1 En cada uno de los casos, encuentre la solución de A~x = ~b, y
si es inconsistente, encuentre la solución para mı́nimos cuadrados. Calcule el
vector error y el error de mı́nimos cuadrados.
154 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
4 0 2
(a) A = 0 2 ; ~b = 0 .
1 1 1
1 1 0 0 −3
1 1 0 0 −1
1 0 1 0 0
(b) A = ; ~
b= 2 .
1 0 1 0
1 0 0 1 5
1 0 0 1 1
Solución.
dibujo
(b) En este caso, si denotamos por ~v1 , ~v2 , ~v3 , ~v4 a los vectores de la matriz A6×4
asociada al sistema de ecuaciones A~x = ~b, se tiene que ~v1 = ~v2 +~v3 +~v4 por
lo que los vectores columna de A son linealmente dependientes y forman
un sistema generador pero no una base parra Col(A). Se puede comprobar
que {~v1 , ~v2 , ~v3 } sı́ son linealmente independientes y forman una base de
Col(A) (por ejemplo, resolviendo el sistema homogeneo asociado), por lo
que Col(A) es un subespacio vectorial de dimensión 3 en R6 .
El sistema es claramente inconsistente, dado que las dos primeras ecuacio-
nes del sistema son x + y = −3 y x + y = −1. Se calcula AT A y AT ~b para
plantear el problema de mı́nimos cuadrados. Dado que:
1 1 1 1 1 1 6 2 2 2
1 1 0 0 0 0 2 2 0 0
AT = 0 0 1 1 0 0 ;
AT A = 2 0 2 0
0 0 0 0 1 1 2 0 0 2
4
−4
AT ~b =
2 ,
6
el problema de mı́nimos cuadrados es
6 2 2 2 x1 4
2 2 0 0 x2 −4
= .
2 0 2 0 x3 2
2 0 0 2 x4 6
Al resolver usando el método de Gauss se tiene que la solución no es única,
y viene dada por:
3 −1
−5 1
x̂ = + x4
.
−2 1
0 1
156 Capı́tulo 4. Ortogonalidad y Mı́nimos Cuadrados
−1
1
1 que
Esto es, el conjunto solución es la recta generada por el vector
1
3
−5
pasa por el punto −2, esto es,
0
3 * −1 +
−5 1
CS = −2 + 1 .
0 1
Por tanto, hay más de un punto que verifica el sistema de ecuaciones li-
neales AT Abx = AT ~b y también el problema de mı́nimos cuadrados Ab x = bb.
T
Es más, los vectores columna de A A (y de A) no son linealmente inde-
pendientes, por lo que existen infinitas formas de escribir AT ~b (y bb) como
combinación lineal de estos.
Para encontrar bb una vez se obtiene x b, basta con calcular Ab x. Se puede
hacer esta cuenta usando la expresión general de x b obtenida más arriba, o
dando un valor a la variable libre x4 . En cualquier caso, el resultado será el
mismo. Para la solución particular del sistema cuando x4 = 0 se tiene que:
1 1 0 0 3−5 −2
1 1 0 0 3 3 − 5 −2
1 0 1 0 −5 3 − 2 1
1 0 1 0 −2 = 3 − 2 = 1 ∈ Col(A).
b̂ = Ax̂ =
1 0 0 1 0 3 − 0 3
1 0 0 1 3−0 3
DIBUJO
Obsérvese que dadas las dimensiones de AT A, esta matriz siempre será cua-
drada. Por lo que el sistema de mı́nimos cuadrados tendrá solución única cuan-
do la matriz cuadrada AT A sea invertible. Una pregunta interesante es saber
cuándo ocurrirá esto, y si se puede determinar sólo con la matriz A, aunque
ésta no sea cuadrada. Para ello, se tiene el siguiente resultado:
4.4. El problema de mı́nimos cuadrados 157
Proposición 4.4.1 Sea Am×n una matriz cualquiera. Entonces, se tiene que
AT A es invertible si y sólo si los vectores columna de A son linealmente inde-
pendientes.
Para poder demostrar esta proposición, es necesario antes demostrar el si-
guiente resultado menor:
17 1 1 0 1 0 5/84 −1/84
∼ .
1 5 0 1 0 1 −1/84 −17/84
Por tanto,
−1 1 5 −1
AAT =
84 −1 −17
y
2
1 5 −1 4 0 1 1
x̂ = 0 = .
84 −1 −17 0 2 1 2
| {z }| {z } 1
(AT A)−1 AT | {z }
~b
para el sistema inconsistente B~x = ~b, entonces la solución sı́ será única, ya que
los vectores columna de B son linealmente independientes y Col(A) = Col(B).
Definición 4.5.1 Sea Am×n una matriz cualquiera. Se dice que A es una
matriz ortonormal si verifica que A · AT = I = AT · A.
En particular, si A es una matriz ortonormal entonces sus vectores columna
forman un conjunto ortonormal de vectores.
4.5. Matrices ortogonales y transformaciones lineales 159
Pregunta
Si {~v1 , . . . , ~vk } es un conjunto ortogonal (no ortonormal) y definimos A =
(~v1 , . . . , ~vk ), ¿cuál es el resultado de AT A?
Propiedades
Si A es una matriz ortonormal, entonces se verifica que:
= a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )
= a11 a22 a33 − a11 a23 a32 − a21 a12 a33 + a21 a13 a32 + a31 a12 a23 − a31 a13 a22
Equivalentemente:
161
162 Capı́tulo 5. Determinantes
1 5 0 −6
3 −7 8 9 −6
0
2 −5 7 3
• C=
0 0 1 5 0 .
0 0 2 4 −1
0 0 0 −2 0
Definición 5.1.1 Sea det una función con dominio todas las matrices cuadra-
das de dimensión n × n con n ∈ N, y rango R, esto es, una función que a cada
matriz cuadrada A le asocia un único número det(A). Si denotamos por M al
conjunto de todas las matrices cuadradas, entonces:
det : M −→ R
A → det(A)
D = −D y D ∈ R ⇐⇒ D = 0.
1 También se puede despejar D en la ecuación D = −D.
5.1. Determinante de una matriz cuadrada 165
1 0
Por tanto, D = det = 0. Usando el mismo argumento se demuestra
1 0
0 1
que det = 0.
0 1
a b
Retomando el cálculo de det , se tiene que:
c d
*0
*1
* −1
*0
a b 1 0 1 0 0 1 0 1
det = ac det + ad det + bc det + bd det
c d 1 0 0 1 1 0 0 1
= ad − bc.
(b) Si se toma la fila i.ésima como la fila de ceros, usando la propiedad (A3ii)
se tiene que
Se desea demostrar que det(A) = det(B). Para ello, usando los axiomas
(A3i) y (A3ii) de la Definición ?? se tiene que
x y z
Ejemplos 5.1.2 Si det(A) = 3 0 2 = 1, calcule los determinantes de
1 1 1
estas matrices 3 × 3:
5x 5y 5z
(a) det 23 0 1
1 1 1
x y z
(b) det 3x + 3 3y 3z + 2
x+1 y+1 z+1
x−1 y−1 z−1
(c) det 4 1 3
1 1 1
(d) Todas las propiedades que satisface el determinante en las filas, también
las verifica en las columnas.
Prueba
(a)
168 Capı́tulo 5. Determinantes
a11 a12 ... ... a1n
0 a22 ... ... a2n
A=
0 0 a33 ... a3n
.. .. .. .. ..
. . . . .
0 0 0 ... ann
1 0 ... ... 0
0 1 ... ... 0
(A3i) 0 0 1 ... 0
= a11 · a22 · . . . · ann
.. .. .. .. .
. . . . ..
0 0 0 ... 1
Ası́ que
(d)
1
Ejercicio 5.3 1. Demuestre que det(A−1 ) = . Para ello, tome la
det(A)
fórmula AA−1 = In y calcule el determinante en esta expresión.
det(A) = ±det(U )
Prueba
Se deduce de la última propiedad. Para calcular U , a la matriz A se le realizan
operaciones fila ............., y como el cómputo del determinante no se ve afecto
al realizar este tipo de operaciones fila sobre la matriz A, el determinante de A
es igual al determinante de U , salvo signo. El signo dependerá, por (A2), del
número de intercambio de filas realizado.
170 Capı́tulo 5. Determinantes
A es invertible ⇐⇒ det(A) 6= 0
Prueba.
En la Conclusión ?? se tiene que det(A) = ±det(U ). El signo depende de si
para calcular U se hace un cambio de filas o no. Pero como U es una matriz
triangular superior, el determinante de U es la multiplicación de los elementos
de su diagonal. Ası́:
Regla de Cramer
Sea A una matriz invertible. Se sabe que A~x = ~b siempre tiene solución única,
para cualquier ~b ∈ Rn . Para encontrar la solución (única)
x1
..
.
xi
~x =
.
..
xn
5.2. Matrices invertibles y la Regla de Cramer 171
det(Ai )
xi = ,
det(A)
det(A1 ) 24 + 16 40
x1 = = = = 20;
det(A) 2 2
det(A2 ) 24 + 30
x2 = = = 27.
det(A) 2
20
y ~x = .
27
(
3ax1 − 2x2 = 4
Ejercicio 5.4 em Sea el sistema de ecuaciones lineales ,
−6x1 + ax2 = 1
donde s ∈ R. ¿Para qué valores de s el sistema tiene única solución? ¿Cuál es
dicha solución?
3a −2
Solución. Para que el sistema tenga solución única la matriz A =
−6 a
asociada al sistema, al ser cuadrada, debe ser invertible. Para ello su determi-
nante debe ser distinto de cero. Como det(A) = 3(a − 2)(a + 2), para que el
sistema tenga solución unica se debe verificar que a 6= ±2.
Si a 6= ±2, usando la Regla de Cramer se tiene que las componentes del
vector solución ~x son
4 −2
det(A1 ) 1 a 4a + 2
x1 = = = ;
det(A) 3(a − 2)(a + 2) 3(a + 2)(a − 2)
172 Capı́tulo 5. Determinantes
3a 4
det(A2 ) −6 1 a+8
x2 = = = .
det(A) 3(a − 2)(a + 2) (a + 2)(a − 2)
Cálculo de A−1
En este apartado se explica una forma de calcular la inversa de una matriz
usando determinantes. Si A es una matriz invertible, entonces
1
A−1 = adj(A)
det(A)
b P1 P2
b
P2
P1
P1
a 0
Área(P1 ) = a · b = det = det(v1 , v2 )
0 b
a λa
a · b = det = det(v1 , v2 + λv1 )
0 b
a·b =
|{z} det(v1 + µv2 , 2v1 + v2 )
rotación: se compensan
Conclusión (R2 )
Si un paralelogramo está generado por los vectores ~v1 y ~v2 , entonces su área
es:
A = det(v1 , v2 )
Ejemplo 5.3.1 Calcule el área del paralelogramo definido por los puntos (-
2,2), (0,3), (4,-1) y (6,4).
F R3 el volumen del paralelepı́pedo formado por los vectores ~v1 , ~v2 , ~v3
es:
Por tanto, A~u es proporcional a ~u, estoes, ∃λ = −4 tal que A~u = λ~u, por lo
que ~u es vector propio de A con valor propio λ = −4. En cambio, A~v no es
proporcional a ~v , esto es,@λ ∈ R tal que A~v = λ~v , por lo que ~v no es vector
propio de ~v .
Al multiplicar A por el vector ~u, la matriz A transforma ~u en cuatro veces ~u
en sentido contrario. En cambio, A transforma ~v en otro vector con dirección
distinta de ~v .
Dibujo
175
176 Capı́tulo 6. Valores propios y vectores propios
A~0 = λ~0, ∀λ ∈ R,
Definición 6.1.2 Sea An×n una matriz cuadrada. Se define el polinomio ca-
racterı́stico de A como
pA (x) = det(A − xIn ).
Es fácil comprobar el siguiente resultado:
se tiene que
2−x 3
pA (x) = det(A−xI2 ) = = (2−x)(−6−x)−9 = (x−3)(x+7).
3 −6 − x
Obsérvese que dado que siempre existe un vector ~v 6= ~0 que verifica que ~v ∈
V(λ) y V(λ) es un subespacio vectorial de Rn , la recta generada por ~v 6= ~0
está contenida en V(λ) , por lo que dim(V(λ) ) ≥ 1. Existe también una cota
superior para la multiplicidad geométrica de λ:
6.1. Valores propios, vectores propios y el polinomio caracterı́stico de una
matriz cuadrada A 179
Proposición 6.1.2 Sea A una matriz cuadrada con valor propio λ, mλ la
multiplicidad algebraica de λ y dim(V(λ) ) su multiplicidad algebraica.
Entonces, siempre se verifica que
1 ≤ dim(V(λ) ) ≤ m(λ) .
(b) Demuestre que los valores propios de una matriz triangular superior/inferior
son los valores de la diagonal principal, y concluya cuáles son los valores
propios de las matrices
3 6 −8 4 0 0
A = 0 0 6 ; B = −2 1 0.
0 0 2 5 3 4
Resolución.
(a)
(b)
a11 0 ... 0
a21 a22 ... 0
A= .
.. .. ..
..
. . .
an1 an2 ... ann
a11 − x 0 ... 0
a21 a22 − x . . . 0
A − Ix = .
. . ..
.. .. ..
.
an1 an2 . . . ann − x
a22 − x ... 0
.. .. ..
pA (x) = det(A − Ix) = (a11 − x) det .
. .
an2 . . . ann − x
a33 − x ... 0
.. .. ..
= (a11 − x) (a22 − x) det . = ...
. .
an3 ... ann − x
= (a11 − x) (a22 − x) . . . (ann − x)
180 Capı́tulo 6. Valores propios y vectores propios
λ1 = a11
λ2 = a22
pA (x) = 0 ⇐⇒ .
..
λn = ann
A continuación se analiza cuándo se puede asegurar que dos vectores propios
de una misma matriz de dimensión n × n serán linealmente independientes, y
se generaliza el resultado a r vectores propios en Rn .
A~v = λ~v
A(αw)
~ = λαw
~ =⇒ α(Aw)
~ = λαw.
~
Dado que w
~ es un vector propio de A, se tiene que Aw
~ = µw,
~ por lo que
α(µw)
~ = λαµ.
Ejercicio 6.3 Encuentre una condición suficiente sobre una matriz A para que
exista una base de Rn constituida por los vectores propios de la matriz A.
6.2. Diagonalización
Se dice que dos matrices cuadradas A y B son similares si existe una matriz
inversa P , que se llama matriz de transición, de tal forma que
A = P BP −1 .
Ejercicio 6.4 (a) Demuestre que si dos matrices son similares, entonces tienen
el mismo polinomio caracterı́stico.
(b) Deduzca que si dos matrices son similares, entonces tienen los mismos va-
lores propios.
(c) Encuentre dos matrices que tienen los mismos valores propios, pero no son
similares
Resolución
(a)
A = P · B · P −1 .
A − λI = P −1 · B · P − λ · P −1 · P
= P −1 · B · P − P −1 (λI)P
= P −1 (B − λI)P
I = P −1 · P
det(I) = det(P −1 ).detP
1 = det(P −1 ).detP
Por tanto,
(b)
(c) Aunque dos matrices tengan los mismos valores propios, no tienen por-
qué ser similares.
A ∼ B −→ PA(x) = PB (x)
6.2. Diagonalización 183
PA(x) 6= PB (x) −→ A B
2
PA(x) = (x − 1) (x − 2)
2
PA(x) = (x − 1)(x − 2)
Cuando la matriz B es una matriz diagonal del tipo
λ1 0
λ 2
D= ,
..
.
0 λn n×n
0 0 ... λn
por lo que
AP = P D.
Como P es invertible, se tiene entonces que A = P DP −1 .
⇐=: por hipótesis, A es diagonalizable, por lo que existe una matriz invertible
P y una matriz diagonal D tal que A =P DP −1 , lo que es equivalente a que
λ1 0 . . . 0
0 λ2 . . . 0
AP = P D. Si P = ~v1 . . . ~vn y D = . .. , dado que P es
.. . .
.. . . .
0 0 . . . λn
invertible los vectores ~v1 , . . . , ~vn son linealmente independientes. Además,
AP = A~v1 . . . A~vn ; P D = λ1~v1 . . . λn~vn ,
por lo que al igualar columna a columna estas dos matrices se tienes que
A~vi = λi~vi , ∀i = 1, . . . , n,
ası́ que los vectores columna de la matriz P son vectores propios de la matriz
A.
En la Definición ?? las matrices P y D no son únicas, dado que por la
demostración del Teorema ?? se puede ver que, la construcción de las matrices
depende del orden en que se coloquen los vectores y los valores propios. Por
tanto, dependiendo en qué orden se pongan estos, se podrán construir diferentes
matrices P y D que verificarán que A = P DP −1 .
El concepto de diagonalización e invertibilidad de una matriz cuadrada son
conceptos totalmente independientes. Esto es, pueden existir matrices inverti-
bles que no son diagonalizables, o al revés, matrices diagonalizables que no son
invertibles.
1 1
Ejemplo 6.2.1 Sea la matriz A = . Obviamente, la matriz A no
0 0
es invertible dado que sus vectores columna son linealmente dependientes (o
det(A) = 0). Se calcula a continuación si es diagonalizable:
1−x 1
pA (x) = det(A − xI2 ) = = x(1 − x).
0 x
6.2. Diagonalización 185
Sus valores propios son λ1 = 0 (tal como era de esperar dado que la matriz no es
invertible, véase Proposición ??) y λ2 = 1. Sea ~v1 6= 0 un vector propio asociado
a λ1 y ~v2 6= 0 otro vector propio asociado a λ2 . Entonces, estos dos vectores
propios son linealmente independientes y por el Teorema
?? la matriz
A es
λ1 0 0 0
diagonalizable. Es más: P = ~v1 ~v2 y D = = verifican
0 λ2 0 1
λ2 0 1 0
que A = P DP −1 , pero P̃ = ~v2 ~v1 y D̃ =
= también
0 λ1 0 0
verifican que A = P̃ D̃P̃ −1 . Para calcular los vectores ~v1 y ~v2 es necesario
calcular los espacios propios V(λ) asociados a los valores propios de la matriz,
esto es, V(0) = Nul(A) y V(1) = Nul(A − I2 ). Este cálculo se deja al lector.
Una buena pregunta serı́a si es que una matriz cuadrada es siempre diagona-
lizable. Para ver que no es ası́, se deberı́a encontrar un ejemplo de una matriz
que no tiene n vectores linealmente independientes.
2 4 3
Ejemplo 6.2.2 Sea la matriz B = −4 −6 −3. Se desea comprobar si
3 3 1
B es diagonalizable, y en caso de que lo sea se desea construir las matrices
P y D. Para ello, se procede a calcular los valores propios de B. Dado que
estos son las raı́ces del polinomio caracterı́stico, primero se calcula el polinomio
caracterı́stico de B, que es:
2−x 4 3
PB (x) = det −4 −6 − x −3 = −(x − 1)(x + 2)2 .
3 3 1−x
Por tanto, λ1 = 1 es un valor propio de B con multiplicidad algebraica m(1) =
1, y λ2 = −2 es el otro valor propio de B, con multiplicidad algebraica de
m(−2) = 2. Ya se puede deducir cómo será una posible opción para la matriz
diagonal D en caso de que B sea diagonalizable:
1 0 0
D = 0 −2 0 .
0 0 −2
Para calcular P es necesario encontrar un vector propio asociado a λ1 = 1,
y dos linealmente independientes asociados a λ2 = −2. Obsérvese que dado
que 1 ≤ textdim(V(λ) ) ≤ mλ para cualquier valor propio λ, entonces se puede
deducir que la multiplicidad geométrica de λ1 = 1 será de valor 1, esto es, V(1)
es una recta en R3 , pero la multiplicidad geométrica de λ2 = −2 será de 1
ó 2, esto es, aún no se sabe si V(−2) será una recta o un plano en R3 . Si es una
recta, entonces será imposible construir P y por tanto B no será diagonalizable.
Si es cambio es un plano, sı́ será posible encontrar dos vectores linealmente
independientes asociados a λ2 = −2, y B será diagonalizable.
Para calcular V(−2) = Nul(B + 2I3 ), se resuelve es sistema homogeneo aso-
ciado a la matriz B + 2I3 , y se obtiene que:
1
V(−2) −1 .
0
186 Capı́tulo 6. Valores propios y vectores propios
Existe una condición suficiente pero no necesaria para que una matriz siempre
puede ser diagonalizable.
1−x 3 3
PA(x) = det −3 −5 − x −3 = −(x − 1)(x + 2)2 .
3 3 1−x
Por tanto:
* +
−y − z −1 −1
V(−2) = y : y, z ∈ R = 1 , 0 .
z 0 1
1 0 −1 0
3 3 0 0 1 1 0 0
0 1 1 0
0 3 3 0 ∼ 0 1 1 0 ∼
0 0 0 0
0 0 0 0 0 0 0 0 |{z} |{z} |{z}
CP CP VL
188 Capı́tulo 6. Valores propios y vectores propios
x1 = x3
Por lo tanto las soluciones son x2 = −x3 y
x3 ∈ R
* +
x 1
V(1) = −x : x ∈ R = −1
x 1
m m
Teorema 6.2.2 Sea A matriz cuadrada y PA(x) = (x − λ1 ) 1 ·. . .·(x − λr ) r q(x).
Entonces, A es diagonalizable sı́ y sólo sı́ q(x) = 1 y además dimV(λi ) = mi ,
para todo i = 1, . . . , r.
Prueba. Trivial, dado que A es diagonalizable sı́ y sólo sı́ existen n vectores
propios de A linealmente independientes en Rn .
6.2. Diagonalización 189
A2 = (P −1 · D · P )(P −1 · D · P )
= P −1 · D2 · P
A = P · D · P −1 y
A3 = A2 · A = (P −1 · D2 · P )(P −1 · D · P )
= P −1 · D3 · P
190 Capı́tulo 6. Valores propios y vectores propios
En general:
Ak = P −1 · Dk · P
y como D es diagonal:
λ1 k
0 0 ... 0
0
λ2 k 0 ... 0
Dk = 0
0 λ3 k ... 0
. .. .. ..
..
. . . 0
0 0 0 0 λn k
Hiperplano, 114
Múltiplo de un vector, 9
Matrices, 16
Inversas, 67
invertibles, 67
más conocidas, 16
multiplicación escalar, 19
potencia de una matriz, 22
producto de matrices, 21
producto matriz por vector, 19
suma, 18
transpuestas, 24
Matriz escalonada, 41
Origen, 2
Solución
Forma paramétrica, 50
Variable
libre, 41
pivote, 41
Vectores, 1
colineal, 9
columna, 7
componentes, 2
en Rn , 6
en el espacio R3 , 4
en el plano R2 , 1
191
Índice de figuras
1.1 El conjunto R de los números reales o escalares. . . . . . . . . . 3
1.2 El conjunto R2 , el vector ~0 y un vector cualquiera ~v ∈ R2 cuyas
componentes son escalares positivos. . . . . . . . . . . . . . . . 5
1.3 Ejemplo de vectores en R2 . . . . . . . . . . . . . . . . . . . . . 5
1.4 Mientras que un punto P se dibuja usando como referencia el
origen, un vector ~v puede dibujarse usando como referencia cual-
quier punto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 El conjunto R3 con sus ejes x, y y z. . . . . . . . . . . . . . . . 8
1.6 El conjunto R3 con sus ejes x, y y z en un orden distinto al
proporcionado en la figura 1.5. . . . . . . . . . . . . . . . . . . 8
1.7 El vector ~v sin eje de coordenadas. . . . . . . . . . . . . . . . . 9
1.8 Suma geométrica de vectores en R2 . . . . . . . . . . . . . . . . 10
1.9 El vector λ~v + µw ~ si ~v y w
~ no son múltiplos. . . . . . . . . . . 16
1.10 El vector λ~v +µw~ +ν~u, si ~v , w
~ y ~u no son coplanares o colineales,
esto es, si no están en el mismo plano o recta. . . . . . . . . . . 16
193