Sei sulla pagina 1di 55

Apuntes de Álgebra Lineal

Grado en Ingenierı́a de Telecomunicación, UAH

Juan Gerardo Alcázar


2
Índice general

1. Matrices y Sistemas Lineales. 5


1.1. Matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Rango de una matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Método de eliminación de Gauss. . . . . . . . . . . . . . . . . . . . . . . . 14
1.5. Matriz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6. Sistemas Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2. Espacios vectoriales. 23
2.1. Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2. Dependencia lineal. Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3. Subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Ecuaciones de un subespacio vectorial. . . . . . . . . . . . . . . . . . . . . 35
2.5. Cambio de base en un espacio vectorial. . . . . . . . . . . . . . . . . . . . . 37

3. Aplicaciones lineales. 39
3.1. Nociones básicas sobre aplicaciones lineales . . . . . . . . . . . . . . . . . . 39
3.2. Eucación matricial de una aplicación lineal. . . . . . . . . . . . . . . . . . 42
3.3. Matrices semejantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4. Núcleo e Imagen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4. Diagonalización 51
4.1. Autovalores, autovectores, autoespacios . . . . . . . . . . . . . . . . . . . . 51
4.2. Diagonalizabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5. Ecuaciones diferenciales lineales. 57


5.1. Conceptos generales sobre ecuaciones diferenciales. . . . . . . . . . . . . . 59
5.2. Ecuaciones diferenciales lineales. . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3. Sistemas de ecuaciones diferenciales. . . . . . . . . . . . . . . . . . . . . . 68
5.4. Sistemas lineales con coeficientes constantes. . . . . . . . . . . . . . . . . . 71

6. Espacios Euclı́deos. 79
6.1. Producto escalar. Ortogonalidad. . . . . . . . . . . . . . . . . . . . . . . . 81

3
4 ÍNDICE GENERAL

6.2. Proyección sobre un subespacio vectorial. . . . . . . . . . . . . . . . . . . . 89


6.3. El método de mı́nimos cuadrados. . . . . . . . . . . . . . . . . . . . . . . . 92

7. Álgebra de Boole 97
7.1. Operadores lógicos y Álgebras de Boole . . . . . . . . . . . . . . . . . . . . 97
7.2. Funciones booleanas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.3. Formas normales disyuntiva y conjuntiva . . . . . . . . . . . . . . . . . . . 103
7.4. Puertas lógicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.5. Simplificación de funciones booleanas . . . . . . . . . . . . . . . . . . . . . 108
Capı́tulo 1

Matrices y Sistemas Lineales.

Un circuito eléctrico es una red eléctrica cerrada formada por la conexión de varios
componentes, como por ejemplo fuentes de alimentación, resistencias, condensadores, so-
lenoides, etc. Habitualmente, los circuitos eléctricos constan de diferentes mallas (caminos
cerrados dentro del circuito), y la intensidad de la corriente que circula por diferentes tra-
mos del circuito es diferente. Para determinar la intensidad de cada tramo se aplican las
leyes de Kirchoff: (1) en cada nodo (punto del circuito donde concurren varios conducto-
res), la suma de las intensidades que entran es igual a la suma de las intensidades que
salen; (2) la suma de los voltajes en cada malla es 0. Aplicando estas leyes a un circuito
como el de abajo (que sólo contiene resistencias),

i1 i2
1Ω

25 Ω 30 Ω

1Ω
10 v
i3

50 Ω 55 Ω

obtenemos el siguiente sistema de ecuaciones, donde las incógnitas son las intensidades de
corriente i1 , i2 , i3 :

 76i1 − 25i2 − 50i3 = 10
−25i1 + 56i2 − i3 = 0
−50i1 − i2 + 106i3 = 0

5
6 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

El sistema anterior es lineal en las incónitas i1 , i2 , i3 . Circuitos más complicados (con


más mallas, etc.) dan lugar a sistemas lineales mayores, con más incógnitas y más ecuacio-
nes. Aunque en el caso de pequeños sistemas se puede encontrar la solución simplemente
manipulando las ecuaciones, es necesario disponer de un método general que pueda apli-
carse a sistemas más grandes, difı́ciles o incluso imposibles de resolver “a mano”. Para
desarrollar este sistema necesitamos dos herramientas útiles tanto en este contexto como
en otros campos de las Matemáticas y las Ciencias: las matrices y los determinantes.

1.1. Matrices.
Una matriz Am×n es una colección de números (elementos) ordenados en filas y co-
lumnas:  
a11 a12 · · · a1n → r1
 a21 a22
 · · · a2n  → r2
 .. .. ... ..  ..
 . . .  .
am1 am2 · · · amn → rm
↓ ↓ ↓
c1 c2 · · · cn
Las matrices se suelen representar por letras mayúsculas A, B, . . . Los aij ’s se llaman ele-
mentos de la matriz. Decimos que la dimensión de A es m × n, donde m representa el
número de filas, y n el número de columnas. Si m = n, decimos que A es cuadrada, y
que n es el orden de A. Las matrices cuadradas se representan a veces en la forma An
para explicitar cuál es su orden. Si m 6= n, decimos que A es rectangular. Si A es una
matriz cuadrada de dimensión n, los elementos de la forma aii , con i = 1, . . . , n, forman la
diagonal principal de la matriz; la suma de estos elementos se llama traza de la matriz:

tr(A) = a11 + a22 + · · · + ann .

La transpuesta de una matriz A es la matriz At que se obtiene al intercambiar las filas


y las columnas de A; por lo tanto, si la dimensión de A es m × n, la de At es n × m.
Podemos distinguir los siguientes tipos de matrices, según su forma; salvo que se diga
explı́citamente otra cosa, en cada caso se entiende que la matriz es cuadrada.

Matriz diagonal: todos los elementos fuera de la diagonal principal son 0.


 
a11 0 · · · 0
 0 a22 · · · 0 
 
 .. .. . . .. 
 . . . . 
0 0 · · · ann

La matriz identidad de orden n es la matriz diagonal en la que a11 = a22 = · · · =


ann = 1.
1.1. MATRICES. 7

Si todos los elementos por debajo (resp. por encima) de la diagonal principal son 0,
decimos que la matriz es triangular superior (resp. inferior).

La matriz nula de dimensión m × n es una matriz cuyos elementos son, todos ellos,
nulos.

Una matriz fila es una matriz de dimensión 1 × n. Una matriz columna es una
matriz de dimensión m × 1. Las matrices B, C de abajo son matrices fila y columna,
respectivamente.
 
a11
  a21 
B= a11 a12 · · · a1n , C= 
 ··· 
am1

La opuesta de una matriz (rectangular o cuadrada) A, que se representa como −A,


es la matriz que se obtiene a partir de A cambiando el signo de todos sus elementos.

Una matriz cuadrada es simétrica si At = A. Los elementos de una matriz simétrica


situados a ambos lados de la diagonal principal, son iguales. Un ejemplo de matriz
simétrica es:
 
−3 2 −1
A= 2 5 0 
−1 0 4

Una matriz cuadrada es anti-simétrica o hemisimétrica si At = −A. Los elemen-


tos de una matriz hemisimétrica situados a ambos lados de la diagonal principal son
opuestos, y los elementos de la diagonal principal son nulos. Un ejemplo de matriz
hemisimétrica es:
 
0 2 −1
A =  −2 0 −3 
1 3 0

Las matrices proporcionan un ejemplo, en Matemáticas, de objetos que no siendo núme-


ros, sin embargo pueden sumarse, restarse y multiplicarse. Obviamente las reglas para estas
operaciones son algo más complicadas que en el caso de los números; de hecho, no todo par
de matrices se puede sumar, restar o multiplicar. A continuación vamos a describir estas
operaciones, comenzando con la suma de matrices: dadas dos matrices A, B de la misma
dimensión, A + B es la matriz que se obtiene sumando los elementos correspondientes en
8 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

A, B:    
a11 · · · a1n
a12 b11 b12 · · · b1n
 a21 · · · a2n 
a22 
 b21 b22 · · ·
 b2n 
A= ..  , B =  .. ⇒
 
.. . ... .. . . ..
 . .. .   . . . . 
am1 am2 · · · amn bm1 bm2 · · · bmn
a11 + b11 a12 + b12 · · · a1n + b1n
 a21 + b21 a22 + b22 · · · a2n + b2n 
⇒A+B =
 
.. .. ... .. 
 . . . 
am1 + bm1 am2 + bm2 · · · amn + bmn
La suma de matrices satisface las siguientes propiedades:

Conmutativa: A + B = B + A.
Asociativa: A + (B + C) = (A + B) + C. Por lo tanto, tiene sentido escribir A + B + C.
Elemento neutro: para toda matriz A existe una matrix 0, tal que A + 0 = 0 + A = A
(0 es la matriz nula de la misma dimensión que A)
Elemento inverso: para toda matriz A existe otra matriz, la opuesta de A, −A, tal
que A + (−A) = (−A) + A = 0 (el elemento neutro).

A partir de la suma, la resta o diferencia de dos matrices A, B se define como la suma


de la primera matriz más la opuesta de la segunda; esto es equivalente a restar los elementos
de ambas matrices que ocupan igual lugar. La multiplicación de una matriz A por un
número λ es la matriz λ · A que se obtiene multiplicando por λ todos los elementos de A.
Esta operación satisface las siguientes propiedades: para dos matrices A, B cualesquiera de
la misma dimensión y para dos números cualesquiera λ, µ, se tiene:
λ · (A + B) = λ · A + λ · B
(λ + µ) · A = λ · A + µ · A
λ · (µ · A) = (λ · µ) · A
1 · A = A.
El producto de dos matrices A, B es más complicado; de hecho, hasta que no veamos
la noción de aplicación lineal, en el Tema 3, no entenderemos la razón de que esta operación
se defina del modo que vamos a describir. Definimos primero el producto de dos matrices
especiales: sean A, B una matriz fila y una matriz columna, respectivamente, con el mismo
número de elementos en cada caso; el producto de A, B es el número:
 
b11
  b21 
A · B = a11 a12 · · · a1n ·   · · ·  = a11 · b11 + a12 · b21 + · · · + a1n · bn1

bn1
1.1. MATRICES. 9

Con mayor generalidad, dadas Am×n , Bn×p (obsérvese que el número de columnas de A es
igual al número de filas de B; de lo contrario, el producto A · B no existe) el producto
A · B es otra matriz de dimensión m × p (es decir, con el mismo número de filas que A, y el
mismo número de columnas que B) donde el elemento i, j es el resultado de multiplicar la
fila i-ésima de A por la columna j-ésima de B; para realizar dicha multiplicación, se aplica
la regla anterior para el producto de una matriz fila por una matriz columna. Por lo tanto,

(A · B)ij = ai1 b1j + ai2 b2j + · · · + aim bmj

El producto de matrices verifica las siguientes propiedades:

En general, no es conmutativo1 ; por lo tanto, en general A · B 6= B · A (de hecho, ni


siquiera está garantizado que B · A exista).

Asociativa: A · (B · C) = (A · B) · C. Por lo tanto, tiene sentido escribir A · B · C.

Distributiva: A · (B + C) = A · B + A · C.

Elemento neutro para las matrices cuadradas: la matriz identidad del mismo orden,
que se representa por I. En otras palabras, si A es una matriz cuadrada de orden n,
e I es la matriz identidad de orden n, A · I = I · A = A.

(A · B)t = B t · At .

Obsérvese que mientras que resulta inmediato definir la diferencia de matrices a partir
de la suma y de la noción de matriz opuesta, no está claro cómo definir la división de
matrices a partir de la multiplicación. De hecho, la división de matrices no está definida;
en lugar de esto, se utiliza la inversa de una matriz. Sin embargo, esta noción es más
sutil que en el caso de la división numérica: sólo se aplica a matrices cuadradas, y ni siquiera
todas las matrices cuadradas tienen inversa. De momento, introduciremos la definición, y
daremos algunas de sus propiedades; veremos cómo calcular matrices inversas más tarde.
Dada una matriz inversa A, la inversa de A, si existe, es la matriz A−1 que cumple:

A · A−1 = A−1 · A = I.

Algunas propiedades:

1. A−1 no siempre existe. Daremos una caracterización para su existencia más adelante,
cuando hayamos introducido la noción de determinante.

2. (A−1 )t = (At )−1 .

3. (A · B)−1 = B −1 · A−1
1
Puede pasar que dos matrices conmuten; pero esto no sucede en general para dos matrices cualesquiera.
10 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

1.2. Determinantes.
Dada una matriz cuadrada A, el determinante de A, que se representa por det(A) o,
más habitualmente, por |A|, es un número que se asocia con A. Si el orden de A es n, se
dice también que el orden de |A| es n. Los determinantes se definen de forma recursiva:
primero se define el determinante de una matriz de orden 2, a partir de ahı́ se define el
determinante de una matriz de orden 3, a continuación y a partir de éste el de una matriz
de orden 4, etc. Si A es 2 × 2, entonces |A| se define del siguiente modo:

a11 a12
|A| =
= a11 · a22 − a12 · a21
a21 a22

Los determinantes de orden 3 requieren un poco más de trabajo. En primer lugar, se define
el menor correspondiente al elemento aij , αij , como el determinante de orden 2 obtenido
al eliminar la fila y la columna a las que pertenece el elemento aij . El adjunto o menor
complementario de aij , Aij , es el menor correspondiente a aij multiplicado por 1, si la suma
de los subı́ndices i, j es par, o por −1, si la suma de los subı́ndices i, j es impar:

Aij = (−1)i+j · αij .

Finalmente, se define el determinante de una matriz cuadrada A de orden 3, como la suma


de los productos de los elementos de cualquier fila o columna por sus adjuntos:

|A| = ap1 Ap1 + ap2 Ap2 + ap3 Ap3 ,

con p = 1, 2, 3. En este caso decimos que hemos desarrollado el determinante por la fila p.
El valor de |A| no depende de la fila por la cuál se desarrolla. Además, se puede desarrollar
también por una columna

|A| = a1q A1q + a2q A2q + a3q A3q ,

y de nuevo el resultado no depende de la elección de la columna por la cuál se desarrolla.


Habitualmente, uno desarrolla por una fila o columna que tenga muchos ceros, de modo
que no sea necesario calcular demasiado.
La idea de desarrollar por una fila o una columna permite generalizar el cálculo de
determinantes a cualquier orden. En concreto, si A es una matriz cuadrada de orden n,
entonces
|A| = ap1 Ap1 + ap2 Ap2 + · · · + apn Apn
donde los Aij ’s son los adjuntos de los aij ’s, o

|A| = a1q A1q + a2q A2q + · · · + apn Anq

Obsérvese que si |A| tiene orden n, entonces los Aij ’s son determinantes de orden n − 1.
Por lo tanto, si sabemos calcular determinantes de orden 3 entonces podemos calcular
determinantes de orden 4, a partir de éstos los de orden 5, etc.
1.2. DETERMINANTES. 11

En el caso de los determinantes de orden 3, es útil conocer la regla de Sarrus:



a11 a12 b aE 13 a11 h a12Y a13


| |

v
|A| = a21
a22 6 a23 − a21
a22 < a23



a31 " " |  (

a32 a33 a31 a32 a33

La regla de Sarrus nos dice que valor de |A| es la suma de los productos que aparecen en
el primer determinante, menos la suma de los productos que aparecen en el segundo.
Los determinantes poseen muchas propiedades notables:

1. El determinante de una matriz cuadrada A coincide con el de su traspuesta: |A| =


|At |.

2. Si A y B son matrices cuadradas del mismo orden, entonces |A · B| = |A| · |B|.

3. Si todos los elementos de una fila o columna poseen un mismo factor, entonces dicho
factor se puede extraer fuera del determinante; por ejemplo,


a11 a12 a13 a11 a12 a13

α · a21 α · a22 α · a23 = α · a21 a22 a23

a31 a32 a33 a31 a32 a33

4. Si todos los elementos de una fila o columna pueden escribirse como suma de dos,
entonces el determinante también puede escribirse como suma de dos determinantes:


a 11 a 12 a 13
a11 a12 a13 a11 a12 a13

a21 + b21 a22 + b22 a23 + b23 = a21 a22 a23 + b21 b22 b23

a31 a32 a33 a31 a32 a33 a31 a32 a33

5. Si intercambiamos dos filas o dos columnas en un determinante, el determinante


cambia de signo.

6. Si A tiene una fila o una columna de ceros, entonces |A| = 0. Si A tiene dos filas o
dos columnas iguales o proporcionales, entonces |A| = 0.

Quedan aún dos propiedades, que de hecho son las más importantes. Para introducirlas
necesitamos la idea de combinación lineal, que resulta esencial en Álgebra Lineal. Si
r1 , r2 , . . . , r` son filas de una matriz A, decimos que otra fila r es combinación lineal de
r1 , r2 , . . . , r` si existen números λ1 , λ2 , . . . , λ` tales que

r = λ1 · r1 + λ2 · r2 + · · · + λ` · r`
12 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

En ese caso, se dice que r depende linealmente de r1 , r2 , . . . , r` . Además, se dice que varias
filas son linealmente dependientes si una de ellas depende linealmente de las demás. De
forma similar se pueden definir las combinaciones lineales de columnas, o la dependencia
lineal entre columnas. Si varias filas/columnas no son linealmente dependientes, entonces
se dice que son linealmente independientes.
Con estas ideas, ya estamos en condiciones de introducir las dos últimas propiedades
de los determinantes:

7. |A| = 0 si y sólo si las filas/columnas son linealmente dependientes. En otras palabras,


los determinantes permiten detectar la dependencia lineal.

8. El valor del determinante no cambia si a una fila o columna se le suma una combi-
nación lineal de otras filas o columnas.

La propiedad número 8 puede utilizarse para calcular determinantes de manera eficiente:


utilizando esta propiedad podemos hacer ceros a lo largo de una fila o columna, de modo que
al desarrollar por ella la mayor parte de los productos sean 0. De hecho, si conseguimos una
fila o columna de ceros, el valor del determinante es directamente 0; si todos los elementos
de una fila o columna son 0 salvo uno, entonces el determinante es igual al producto de
dicho elemento por su adjunto.

1.3. Rango de una matriz.


Dada una matriz no necesariamente cuadrada Am×n , el rango por filas es el número de
filas de A que son linealmente independientes; el rango por columnas se puede definir de
forma análoga. Se puede demostrar que el rango por filas es igual al rango por columnas, y
por lo tanto simplemente se habla del rango de A, rg(A). Hay una definición alternativa de
rango, en términos de determinantes. Antes de dar esta definición necesitamos introducir
la noción de menor: un menor de una matriz A es un determinante obtenido a partir de
A, eliminando una o varias filas y/o columnas. El rango de A se puede definir también
como el mayor de los órdenes de los menores no nulos de A.
Veamos algunas observaciones sobre rg(A). En lo que sigue, llamaremos transforma-
ciones elementales por filas a las siguientes operaciones: (i) intercambiar dos filas; (ii)
multiplicar o dividir los elementos de una fila por un número; (iii) sumar a una fila una
combinación lineal de otras filas. De forma análoga pueden definirse las transformaciones
elementales por columnas.

Se dice que una matriz cuadrada de orden n tiene rango completo si rg(A) = n.
Por definición de rango, esto sucede si y sólo si |A| =
6 0.

rg(A) = rg(At ).

Si la dimensión de A es m × n, entonces rg(A) ≤ min(m, n).


1.3. RANGO DE UNA MATRIZ. 13

Una matriz tiene rango 0 si y sólo si todos sus elementos son 0.

Una fila/columna de 0’s no cuenta para el cálculo del rango de A. Asimismo, una
fila/columna que es múltiplo de otra fila/columna, o combinación lineal de varias
filas/columnas, no cuenta tampoco.

El rango no cambia si realizamos transformaciones elementales por filas o columnas


en la matriz A.

El cálculo de rg(A) es una operación importante en Álgebra Lineal. Cuando realizamos


este cálculo, no sólo estamos determinando el número máximo de filas o columnas indepen-
dientes, sino que de hecho estamos detectando cuáles de ellas son independientes. Hay dos
métodos para determinar rg(A): el método de los determinantes, y el método de Gauss. El
primero puede ser útil en algunas circunstancias, en particular cuando tenemos matrices
no demasiado grandes, o matrices con parámetros, pero el método más eficiente, y el que se
usa cuando se desea implementar este cálculo en un ordenador, es el segundo. De hecho, el
método de Gauss (o la eliminación gaussiana, como se llama a veces) es tan importante que
dedicaremos enteramente a él la próxima sección. A continuación describimos el método
de determinantes para el cálculo del rango:

(i) Si A es cuadrada y |A| =


6 0, entonces rg(A) es el orden de A.

(ii) Si A no es cuadrada, o es cuadrada pero |A| = 0, se puede calcular rg(A) empezando


desde rango 1, y ampliando rangos. Si todos los elementos son nulos sabemos (por las
propiedades del rango) que el rango es 0, y hemos terminado. Por lo tanto, suponga-
mos que hay algún elemento no nulo, en cuyo caso rg(A) es al menos 1. Escogemos
un elemento no nulo; se dice que dicho elemento da rango 1. item [(iii)] Ampliamos
ahora a rango 2. Para ello, tomando el elemento que nos dio rango 1, comprobamos si
hay algún menor de A de orden 2 conteniendo el elemento anterior, que no sea nulo.
Si todos son nulos, entonces el rango de A es 1, y hemos terminado. De lo contrario,
el rango de A es al menos 2. Elegimos uno de dichos menores no nulos. Es importante
observar que no hace falta probar con todos los menores de orden 2, sino sólo con
aquellos que contienen el elemento no nulo que nos dio rango 1.

(iii) Ampliamos ahora a rango 3. Para ello, buscamos menores de orden 3 que contengan el
menor de orden 2 que nos dio rango 2, y que sean no nulos. Si no podemos encontrar
ninguno, entonces rg(A) = 2; de lo contrario, el rango de A es al menos 3, etc.

(iv) El proceso anterior obviamente termina en algún momento: como rg(A) ≤ min(m, n),
en un cierto momento no podemos ampliar más el rango. La clave de este método
está en que no tenemos que probar con todos los menores de un cierto orden, sino
sólo con aquellos que contienen el menor no nulo que encontramos en el paso anterior.
14 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

1.4. Método de eliminación de Gauss.


El método de eliminación de Gauss permite transformar una matriz A, donde por
simplicidad supondremos que no hay ninguna columna de ceros2 , en una matriz triangular
A0 utilizando transformaciones elementales por filas, que fueron introducidas en el punto
anterior. Alternativamente se pueden utilizar también transformaciones elementales por
columnas, pero esto es menos habitual; además, cuando se aplica este método a sistemas
lineales, como veremos más adelante, lo habitual es utilizar transformaciones por filas. El
método produce como salida una matriz A0 en forma escalonada:
 
• ? ? ? ? ? ? ?
 0 0 • ? ? ? ? ? 
 
 0 0 0 0 0 • ? ? 
 
0  0 0 0 0 0 0 • ? 
A = 
 0 0 0 0 0 0 0 0 
 
 .. .. .. .. .. .. .. .. 
 . . . . . . . . 
0 0 0 0 0 0 0 0

Los • representan elementos no nulos. Los ? representan números que pueden o no ser 0.
Obsérvese que en cada fila los elementos a la izquierda de • son nulos, y en cada columna
los elementos por debajo de • son también nulos. El proceso que lleva de A a A0 se llama
triangulación, y los • se llaman pivotes.
Para triangular (a veces se habla también de escalonar) una matriz, se parte de la
matriz A y se trabaja por columnas de la siguiente manera (representamos la fila i-ésima
por ri ):

(1) El primer objetivo es conseguir que el primer elemento de la primera fila (es decir,
el • de la primera fila) sea no nulo. Si a11 6= 0, no hay nada que hacer y pasamos
a (2). Si a11 = 0, buscamos el primer elemento no nulo de la primera columna por
debajo de a11 , es decir el primer ai1 6= 0 con i > 1, e intercambiamos la fila i-ésima,
en la que se encuentra ai1 , con la fila 1; en ese momento, a11 = 0.

(2) Hacemos ceros en la primera columna, por debajo del elemento a11 . Para ello, para
cada i = 2, . . . , n sumamos a la fila i-ésima la fila 1 multiplicada por − aa11
i1
, es decir:
ai1
ri → ri − · r1 .
a11

(3) Nos movemos al elemento a22 , es decir, en diagonal, a partir del elemento a11 . Ahora
querremos que el segundo elemento de la segunda fila sea no nulo. Si a22 6= 0, pasamos
a (4). Si a22 = 0 buscamos el primer elemento no nulo de la columna 2 por debajo de
a22 , es decir el primer ai2 6= 0 con i > 2, e intercambiamos la fila i-ésima, en la que se
2
Si la hubiera, basta con empezar a trabajar con la primera columna no nula.
1.4. MÉTODO DE ELIMINACIÓN DE GAUSS. 15

encuentra ai2 , con la fila 2; en ese momento, a22 = 0. Si algún elemento de la segunda
columna, además de a12 , es no nulo, podremos conseguirlo. Si no podemos conseguirlo,
en cuyo caso a22 = 0 y todos los elementos de la segunda columna por debajo de a22
son 0, nos movemos en horizontal, es decir, al elemento a23 , y repetimos el proceso: si
a23 6= 0 pasamos a (4), si a23 = 0 buscamos el primer elemento no nulo de la tercera
columna por debajo de a23 , e intercambiamos la fila en la que se encuentra dicho
elemento con la fila 2, etc. Eventualmente o bien llegamos a a2j 6= 0, donde todos los
elementos de la fila 2 a la izquierda de a2j son nulos, o bien nuestra matriz cumple
que todas las filas por debajo de la primera son nulas. En el primer caso, el • de la
segunda fila es a2j , y en el segundo la matriz ya está escalonada, y hemos terminado.
Si no hemos terminado:

(4) Hacemos ceros en la segunda columna, por debajo del elemento a22 ; en su caso, si
no hemos podido conseguir a22 = 0, hacemos ceros en la columna j-ésima por debajo
del elemento a2j . Para ello, para cada i = 3, . . . , n sumamos a la fila i-ésima la fila 2
multiplicada por − aa22i2
; en su caso, si no hemos podido conseguir a22 = 0, para cada
aij
i = 3, . . . , n sumamos a la fila i-ésima la fila 2 multiplicada por − a2j . Es decir,

ai2
ri → ri − · r2
a22

o, en su caso,
aij
ri → ri − · r2 .
a2j

(5) Nos movemos de nuevo en diagonal a partir del elemento anterior, y procedemos de
nuevo como antes: si el elemento que obtenemos es no nulo hacemos ceros por debajo
de él, y si es nulo buscamos el primer elemento en su columna, y por debajo de él,
que no lo sea...

(6) etc.

Por lo tanto, en general primero conseguimos el • de cada fila, después hacemos ceros por
debajo de él, y a continuación nos movemos en diagonal, para conseguir el próximo •, o en
horizontal, si moviéndonos en diagonal no conseguimos nada. Una vez determinada la forma
escalonada de la matriz A, rg(A) es el número de filas no nulas. En efecto, por definición
de rango ese es el rango de A0 ; pero como hemos obtenido A0 aplicando transformaciones
elementales por filas a A, y el rango no cambia cuando se aplican transformaciones por
filas, rg(A0 ) = rg(A).
Para otras aplicaciones, en lugar de la forma escalonada de la matriz se utiliza la forma
escalonada reducida:
16 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

 
1 ? 0 ? ? 0 0 ?

 0 0 1 ? ? 0 0 ? 


 0 0 0 0 0 1 0 ? 

00
A =
 0 0 0 0 0 0 1 ? 


 0 0 0 0 0 0 0 0 

 .. .. .. .. .. .. .. .. 
 . . . . . . . . 
0 0 0 0 0 0 0 0

La diferencia entre la forma escalonada reducida y la no reducida es que en esta última


el elemento más a la izquierda de una fila no nula, es decir el pivote, es un 1; además, en las
columnas que contienen un pivote, el único elemento no nulo es, precisamente, el pivote.
Para llegar a esta forma, una vez que hemos alcanzado la forma escalonada, dividimos
cada fila no nula por el pivote (para obtener los 1) y después hacemos ceros por encima de
cada 1 sumando a las filas correspondientes, la fila del pivote multiplicada por la cantidad
adecuada.

1.5. Matriz inversa.


La noción de inversa de una matriz cuadrada A fue introducida al final de la Sección
1.1, pero aún no hemos dado ningún método para calcularla. Dijimos también que la
inversa A−1 no siempre existe. Ahora podemos precisar cuándo existe: A−1 existe si y sólo
si |A| =
6 0, o, equivalentemente, si y sólo si A tiene rango completo. Si A tiene inversa
decimos que es regular, de lo contario decimos que es singular. Si A−1 existe hay dos
métodos para calcularla. Uno de ellos utiliza determinantes, y el otro utiliza el método de
eliminación de Gauss.
Comenzamos con el método que utiliza determinantes. Definimos la matriz adjunta de
A, Adj(A), como la matriz que resulta al reemplazar cada elemento aij por su adjunto Aij .
Entonces,
1
A−1 = · Adjt (A).
|A|
La condición |A| =
6 0 es esencial para que la expresión anterior tenga sentido. Esta fórmula
resulta cómoda si A tiene un orden bajo y contiene varios 0, de modo que el cálculo de
Adj(A) no resulte demasiado tedioso. Sin embargo, tanto para su implementación en un
ordenador como para matrices de orden superior a 3, el mejor método es el método de
Gauss, que proporcionamos sin demostración a continuación:

1. Escribir

A | I

donde I representa la matriz identidad del mismo orden que A.


1.6. SISTEMAS LINEALES 17

2. Aplicar el método de eliminación gaussiana sobre A, hasta alcanzar la matriz iden-


tidad. Esto es equivalente a determinar la forma escalonada reducida de A (que, en
cualquier matriz regular, corresponde a la matriz identidad).

3. Mientras se ejecuta el paso 2, realizar sobre I (a la izquierda) las mismas operaciones


que se realicen sobre A (a la derecha).

4. Cuando se alcanza la matriz identidad a la izquierda, la matriz que se tiene a la


derecha es la inversa de A, es decir

I | A−1
 
A | I ⇒

1.6. Sistemas Lineales


Un sistema de ecuaciones lineales, o simplemente un sistema lineal, es un conjunto
de ecuaciones del tipo


 a11 · x1 + a12 · x2 + · · · a1n · xn = b1
 a21 · x1 + a22 · x2 + · · · a2n · xn = b2

.. .. ..


 . . .
 a · x + a · x + ···a · x = b
m1 1 m2 2 mn n m

donde los xi ’s son las incógnitas, los aij ’s son los coeficientes, y los bj ’s son los términos
independientes. Al principio del tema vimos un ejemplo de un sistema de este tipo en el
contexto de los circuitos eléctricos. Estos sistemas se pueden resolver de un modo rápido
y seguro, desde el punto de vista computacional, incluso aunque el número de ecuaciones
o de incógnitas sea muy grande; de hecho, los sistemas que encontramos en la práctica
tienen cientos de ecuaciones e incógnitas, y el número de ecuaciones y de incógnitas no es
necesariamente el mismo. Si bien cuando el sistema es pequeño resulta posible encontrar
la solución manipulando sin más las ecuaciones, para poder resolver sistemas grandes es
necesario disponer de un procedimiento claro y sistemático, que pueda programarse en un
ordenador. Este procedimiento es el método de Gauss, que veremos más adelante en esta
sección.
Para analizar y resolver un sistema lineal se definen dos matrices relacionadas con el
sistema. La primera es la matriz de coeficientes, cuyos elementos son los coeficientes de
las incógnitas:  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A =  ..
 
.. . . .. 
 . . . . 
am1 am2 · · · amn
La segunda, llamada la matriz ampliada, es el resultado de añadir a la matriz de coefi-
cientes la columna formada por los términos independientes:
18 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
B=
 
.. .. ... .. .. 
 . . . . 
am1 am2 · · · amn bm
Obsérvese que las filas de estas matrices corresponden a las distintas ecuaciones, mien-
tras que las columnas corresponden a las diferentes incógnitas. Además, haciendo uso del
producto de matrices se puede escribir el sistema en forma matricial:
     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
..  ·  ..  =  ..  ,
     
 .. .. ..
 . . . .   .   . 
am1 am2 · · · amn xn bm
| {z } | {z } | {z }
A x b
o de forma abreviada, A · x = b. En ocasiones, x y b reciben los nombres de vector de
incógnitas y vector de términos independientes, respectivamente.
Lo primero que queremos saber es si el sistema tiene o no solución; en caso afirmativo,
además deseamos averiguar cuántas soluciones tiene. Se puede probar que si un sistema
de este tipo tiene más de una solución, de hecho tiene infinitas. Decimos que el sistema
es incompatible si no tiene solución. Si tiene solución, se dice que es compatible, y en
ese caso puede tener solución única, o infinitas soluciones; en el primer caso, diremos que
es compatible determinado, y en el segundo caso, compatible indeterminado. El
siguiente teorema permite clasificar un sistema, es decir, identificarlo como compatible o
incompatible, y en caso de compatibilidad, detectar si es determinado o indeterminado. En
el teorema resulta clave la noción de rango de una matriz.
Teorema 1 (Teorema de Rouche-Fröbenius). Sea A · x = b un sistema lineal de m ecua-
ciones y n incógnitas, y sea B la matriz ampliada del sistema. El sistema es compatible si y
sólo si rg(A) = rg(B); además, si el sistema es compatible entonces es compatible determi-
nado cuando rg(A) = rg(B) = n, y compatible indeterminado cuando rg(A) = rg(B) < n.
Demostración. Únicamente probaremos la primera parte. La clave está en escribir el siste-
ma en la siguiente forma:
       
a11 a12 a1n b1
 a21   a22   a2n   b2 
x1 ·  ..  +x2 ·  ..  + · · · + xn ·  ..  =  ..  ,
       
 .   .   .   . 
am1 am2 amn bm
| {z } | {z } | {z } | {z }
c1 c2 cn b

donde los ci ’s representan las columnas de A. Por lo tanto, el sistema es compatible si y


sólo si la columna de términos independientes es combinación lineal de las columnas de A.
Pero por la definición de B, esto sucede si y sólo si rg(A) = rg(B).
1.6. SISTEMAS LINEALES 19

Si rg(A) = rg(B) < n, la diferencia n − rg(A) es el número de grados de libertad del


sistema, es decir el número de parámetros de los que dependen las soluciones.
Para resolver sistemas lineales existen, como en la determinación de rangos o el cálculo
de inversas, dos métodos, en los que se utilizan determinantes y eliminación gaussiana,
respectivamente. El primero se conoce como el método de Cramer. Para aplicar este
método a partir del sistema original debe obtenerse un sistema donde la matriz de coefi-
cientes sea cuadrada y regular (es decir, con determinante distinto de cero). Dicho sistema
recibe el nombre de sistema de Cramer. Para conseguir un sistema ası́, calculamos primero
rg(A), eliminamos las ecuaciones correspondientes a las filas que no dan rango, y pasamos a
la derecha, es decir al lado de los términos independientes, las incógnitas correspondientes
a las columnas que no dan rango; estas últimas incógnitas, si las hay, corresponderán a
los parámetros de los cuáles dependerán las soluciones. Suponiendo que A · x = b cumple
|A| =
6 0, la incógnita xj , i = j, 2, . . . , n es igual a:

a11 · · · a1,j−1 b1 a1,j+1 · · · a1n

1 a21 · · · a2,j−1 b2 a2,j+1 · · · a2n
xj = · . .. .. .. ..
|A| .. · · · . . . · · · .

am1 · · · am,j−1 bm am,j+1 · · · amn

Por lo tanto, la incógnita j-ésima es el cociente de dos determinantes: el determinante que


resulta tras reemplazar la columna j-ésima de A por la columna de términos independientes,
y el determinante de la matriz de coeficientes.
El método anterior es útil para sistemas pequeños y para sistemas en los que los coe-
ficientes dependen de parámetros. Pero en general, y desde luego desde el punto de vista
computacional, el problema se puede resolver de modo mucho más eficiente haciendo uso
de la elminación gaussiana. Aquı́ hay dos posibilidades, llamadas método de Gauss y
método de Gauss-Jordan, respectivamente. La idea en ambos casos es transformar el
sistema dado en un sistema triangular, equivalente al primero, donde decimos que dos sis-
temas son equivalentes si tienen las mismas soluciones, y que un sistema es triangular si
la matriz de coeficientes correspondiente lo es también. Para obtener el sistema triangu-
lar equivalente se realizan operaciones elementales sobre el sistema original, en concreto:
(i) intercambiar dos ecuaciones; (ii) multiplicar o dividir una ecuación por un número;
(iii) añadir a una ecuación una combinación lineal de otras ecuaciones. Se puede obser-
var que estas operaciones coinciden con lo que en el contexto de la eliminación gaussiana
llamábamos “transformaciones elementales”. De hecho, aplicar operaciones elementales a
las ecuaciones de un sistema es equivalente a aplicar las transformaciones correspondientes
sobre las filas de la matriz ampliada. El aspecto de un sistema triangular es:


 a11 · x1 + a12 · x2 + · · · + a1,n−1 · xn−1 + a1n · xn = b1
a · x + · · · + a · x + a 2n · xn = b2



 22 2 2,n−1 n−1
.. .. ..
 . . = .



 an−1,n−1 · xn−1 + an−1,n · xn = bn−1
 ann · xn = bn
20 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

Resolver un sistema ası́ es inmediato: a partir de la ecuación n-ésima se calcula el valor


de xn ; después se sustituye este valor en la ecuación (n − 1)-ésima, para obtener xn−1 ; a
continuación sustituimos xn , xn−1 en la (n − 2)-ésima ecuación para obtener xn−2 , etc. En
el caso del método de Gauss-Jordan, llevamos la misma idea un poco más allá, a fin de
producir un sistema equivalente, diagonal, de modo que cada ecuación sea del tipo akk ·xk =
bk , que es aún más sencillo de resolver. Nótese que obtener un sistema equivalente de este
tipo aplicando transformaciones elementales sobre las ecuaciones originales es equivalente
a aplicar la eliminación gaussiana sobre la matriz ampliada.
Veamos los métodos en detalle. Comenzamos con el método de Gauss. En este caso,
trabajamos a partir de la matriz ampliada, dispuesta como

A | b ,

donde la matriz de coeficientes A está a la izquierda, y el vector de términos independientes


b está a la derecha. Después aplicamos la eliminación gaussiana a la matriz A, realizando
sobre b las mismas operacions que llevamos a cabo sobre A. Si, por ejemplo, partimos de
un sistema con 8 incógnitas y m ecuaciones, finalmente llegamos a

x1 x2 x3 x4 x5 x6 x7 x8 b
↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
a
1 → •1 • 2 ? ? ? ? ? ? ?
2a → 0 0 •3 •4 •5 ? ? ? ?
3a → 0 0 0 0 0 •6 ? ? ?
4a → 0 0 0 0 0 0 •7 •8 ?
5a → 0 0 0 0 0 0 0 0 ?
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
a
m → 0 0 0 0 0 0 0 0 ?

Los •k ’s corresponden a coeficientes no nulos, mientras que los términos ?’s pueden ser
igual a 0, o no. Además, las columnas corresponden a los coeficientes de cada incógnita en
las nuevas ecuaciones, mientras que las filas corresponden a las nuevas ecuaciones 1a , 2a ,
3a , etc. Estos coeficientes definen un nuevo sistema, equivalente al original:



 • 1 · x1 + • 2 · x2 + ? · x3 + ? · x4 + ? · x 5 + ? · x6 + ? · x7 + ? · x8 = ?
•3 · x3 + •4 · x4 + •5 · x5 + ? · x6 + ? · x7 + ? · x8 = ?




•6 · x6 + ? · x7 + ? · x8 = ?




•7 · x 7 + • · x8 = ?


 0 = ?

 ..



 .
 0 = ?

Las ecuaciones, al final del sistema, del tipo 0 = ? nos permiten decidir si el sistema es
compatible o no: si algún ? es no nulo en alguna de esas ecuaciones, entonces el sistema
1.6. SISTEMAS LINEALES 21

es incompatible porque 0 no puede ser igual a un número no nulo; en cambio, si todos


esos ? son 0, el sistema es compatible. Para encontrar la solución, primero observamos
que el sistema de arriba puede no ser triangular, es decir, puede haber varios •’s en un
mismo escalón (ecuación): por ejemplo, en la primera ecuación tenemos dos, •1 , •2 , en la
segunda hay tres, •3 , •4 , •5 , etc. Por tanto, para obtener un sistema triangular debemos
dejar un único • en cada ecuación; los términos correspondientes a los demás • pasan
al lado derecho, donde juegan el papel de parámetros. Nótese que hay varias posibilidades
aquı́ (por ejemplo, en la primera ecuación podrı́mos enviar x1 ó x2 a la derecha, etc.), lo cuál
da lugar a soluciones aparentemente distintas, que en realidad son la misma. Procediendo
de este modo, y eliminando las filas nulas, obtendrı́amos, en el mismo ejemplo,
 
•1 ? ? ? ˆ?1
 0 •3 ? ? ˆ?2 
 
 0 0 •6 ? ˆ?3 
0 0 0 •7 ˆ?4

Obsérvese que ahora los ˆ? han absorbido algunas incógnitas; por ejemplo, x2 ha sido absor-
bida en la primera fila, x4 , x5 en la segunda, etc. Por lo tanto, el sistema correspondiente
es: 

 •1 · x1 + ? · x3 + ? · x6 + ? · x7 = ˆ?1
•3 · x3 + ? · x6 + ? · x7 = ˆ?2


 •6 · x6 + ? · x7 = ˆ?3
•7 · x7 = ˆ?4

Como los •k ’s son no nulos, de la última ecuación obtenemos x7 . Sustituyendo su valor en


la tercera ecuación, calculamos x6 . Sustituyendo x6 , x7 en la segunda ecuación obtenemos
x3 , y finalmente de la primera ecuación deducimos el valor de x1 . En general, primero se
resuelve la última ecuación, y después procedemos de abajo hacia arriba, sustituyendo las
incógnitas por los valores que ya han sido determinados.
El método se puede llevar más allá, lo cuál da lugar al método de Gauss-Jordan. Para
ello, en vez de la forma escalonada de A, buscamos la forma escalonada reducida de A,
 
1 0 0 0 ˜?1
 0 1 0 0 ˜?2 
 
 0 0 1 0 ˜?3 
0 0 0 1 ˜?4
que es equivalente al sistema


 x1 = ˜?1
x3 = ˜?2


 x6 = ˜?3
x7 = ˜?4

Ası́, los términos independientes ˜?k son de hecho los valores de las incógnitas. Este es el
método que se utiliza en los paquetes de software matemático. Con este método, sistemas
22 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.

lineales de cientos de ecuaciones y cientos de incógnitas se pueden resolver en cuestión de


segundos.
También se puede observar que si A es cuadrada y |A| = 6 0, la solución de A · x = b se
puede expresar como x = A−1 · b, lo cuál sugiere otro método para resolver el sistema, en
concreto calcular primero la inversa A−1 y después multiplicarla por b. Sin embargo, este
método no se suele utilizar en la práctica.
Finalmente, consideremos un tipo especial de sistemas lineales, que sin embargo apare-
cen una y otra vez en Álgebra Lineal. Decimos que un sistema lineal es homogéneo si el
vector de términos independientes es cero, es decir


 a11 · x1 + a12 · x2 + · · · a1n · xn = 0
 a21 · x1 + a22 · x2 + · · · a2n · xn = 0

.. .. ..


 . . .
 a · x + a · x + ···a · x = 0
m1 1 m2 2 mn n

Como en este caso la matriz ampliada y la matriz de coeficientes difieren sólo en una
columna de ceros, sus rangos coinciden. Por lo tanto, por el Teorema de Rouche-Fröbenius
estos sistemas siempre son compatibles. De hecho, cualquier sistema homogéneo admite lo
que llamamos solución trivial, x1 = x2 = · · · = xn = 0. Lo interesante en un sistema
homogéneo es si éste admite otras soluciones, además de la trivial. De hecho, si admite otras
soluciones además de la trivial significa que la solución no es única, y por lo tanto el sistema
admite infinitas soluciones. Si rg(A) = n, por el Teorema de Rouche-Fröbenius el sistema
tiene solución única, y puesto que la solución trivial siempre está ahı́, la única solución
es la trivial. Si rg(A) < n hay infinitas soluciones distintas de la trivial. Si el sistema es
cuadrado, es decir si tiene tantas incógnitas como ecuaciones, entonces el sistema tiene
soluciones no triviales si y sólo si |A| = 0.
Capı́tulo 2

Espacios vectoriales.

Las matrices, los polinomios y las funciones tienen algo en común, además del hecho
de ser habitantes del “universo matemático”. En los tres conjuntos podemos definir dos
operaciones, suma y producto por un número, que dan lugar a otros elementos del mismo
conjunto. Para ser más precisos, consideremos el conjunto de las matrices Am×n . Dadas
dos matrices A, B ∈ Am×n sabemos cómo calcular A + B; además, A + B ∈ Am×n . Por
otra parte, dado λ ∈ R sabemos también calcular λ · A, y λ · A ∈ Am×n . Análogamente, la
suma de dos polinomios (resp. dos funciones) produce otro polinomio (resp. otra función),
y el producto de un polinomio (resp. una función) por un número proporciona, de nuevo,
un polinomio (resp. una función). Podemos resumir todo esto diciendo que en cualquiera
de estos casos, dados dos elementos A, B del conjunto y dos números λ, µ ∈ R, la expresión
λ · A + µ · B tiene sentido, y corresponde a otro elemento del mismo conjunto. La operación
λ · A + µ · B apareció ya en el Tema 1, Sección 1.2: la llamamos combinación lineal. Por
lo tanto, podemos decir que en el conjunto de matrices de una cierta dimensión, en el
conjunto de los polinomios o en el de las funciones, la noción de combinación lineal tiene
sentido, y produce un nuevo elemento dentro del mismo conjunto.
Para ver que la idea anterior es más profunda de lo que podrı́a pensarse, consideremos
ahora un ejemplo ligeramente más complicado. Del mismo modo que una ecuación como
x2 − 4 = 0 representa una relación satisfecha por determinados números que queremos
encontrar (en este caso, aquellos cuyo cuadrado es igual a 4), una ecuación diferencial es
una relación satisfecha por una cierta función o funciones desconocidas, y algunas de sus
derivadas. Por ejemplo, la ecuación diferencial
y 00 (t) + y(t) = 0,
representa a aquellas funciones cuya derivada segunda es igual al opuesto de la propia
funcón. Una función que satisface esta ecuación, y que por lo tanto es una solución de la
misma, es y(t) = cos(t) (porque y 0 (t) = −sin(t) y por tanto y 00 (t) = −cos(t) = −y(t)).
Pero no es la única. Se puede comprobar que sin(t) también satisface la ecuación, y de
hecho que como consecuencia de las propiedades de la derivada, dadas dos soluciones
y1 (t), y2 (t) cualesquiera de la ecuación y dados dos números reales cualesquiera λ, µ ∈ R,
λ · y1 (t) + µ · y2 (t), es decir cualquier combinación lineal de y1 (t), y2 (t), es también solución

23
24 CAPÍTULO 2. ESPACIOS VECTORIALES.

de la ecuación. En consecuencia, si uno considera el conjunto de funciones


V = {y(t)|y 00 (t) + y(t) = 0},
se tiene que la combinación lineal de dos elementos de V pertenece también V . Desde
luego, esto no sucede siempre: si consideramos la siguiente ecuación diferencial, ligeramente
diferente de la anterior,
y 00 (t) + y(t) = 1
entonces la combinación lineal de soluciones no es, sin embargo, solución de la ecuación.
Por ejemplo, si y100 (t) + y1 (t) = 1 y y200 (t) + y2 (t) = 1, entonces y1 (t) + y2 (t), que es una
combinación lineal de y1 (t), y2 (t), cumple
(y1 (t) + y2 (t))00 + (y1 (t) + y2 (t)) = y100 (t) + y1 (t) + y200 (t) + y2 (t) = 1 + 1 = 2 6= 1
Por lo tanto, si representamos por V 0 el conjunto de soluciones de la ecuación diferen-
cial anterior, no toda combinación lineal de elementos de V 0 (por ejemplo y1 (t) + y2 (t))
permanece en V 0 .
Si en un conjunto V tiene sentido la noción de combinación lineal, y además se cumple
que cualquier combinación lineal de elementos de V produce otro elemento de V , decimos
que V es un espacio vectorial. Los espacios vectoriales aparecen muy a menudo en dife-
rentes campos de las Matemáticas, y aunque se trata de un concepto abstracto, resulta
sin embargo muy útil para resolver problemas muy concretos. Por ejemplo, en el Tema 5
los utilizaremos para resolver ecuaciones diferenciales, y en el Tema 6 los usaremos para
desarrollar el método de mı́nimos cuadradados. Para dar una idea de la relevancia de es-
tos problemas, diremos que las ecuaciones diferenciales aparecen al estudiar circuitos con
elementos como condensadores o solenoides, y el método de mı́nimos cuadrados aparece
cuando queremos estudiar un sistema de ecuaciones lineales que es casi compatible; esta si-
tuación, que explicaremos en su momento, es muy habitual en Matemática Aplicada, donde
a menudo se trabaja con cantidades aproximadas, y aparece por ejemplo en el contexto de
la tecnologı́a GPS. El objetivo de este tema es presentar el concepto de espacio vectorial y
comenzar a entender sus aplicaciones.

2.1. Espacios vectoriales.


Para definir un espacio vectorial necesitamos cuatro ingredientes: (a) un conjunto V ,
cuyos elementos pueden tener una naturaleza muy variada (pueden ser vectores del plano
o del espacio, matrices, polinomios, funciones...); (b) otro conjunto, numérico, que en nues-
tro caso asumiremos igual a R (aunque también puede utilizarse C) a cuyos elementos
llamaremos escalares, y al que a veces nos referiremos como “cuerpo de escalares”; (c) una
operación +, que llamaremos suma, definida entre dos elementos cualesquiera de V ; (d)
otra operación · definida entre un elemento de V y un escalar, que llamaremos producto
por un número o producto por escalares. Decimos que V es un espacio vectorial,si
las operaciones +, · satisfacen propiedades muy concretas, como se precisa en la siguiente
definición.
2.1. ESPACIOS VECTORIALES. 25

Definición 2. Decimos que (V, +, ·) es un espacio vectorial sobre R (si estuviéramos


usando C en vez de R como cuerpo de escalares habları́amos de un espacio vectorial sobre
C) si se cumplen las siguientes propiedades:

(i) (V, +) es un grupo conmutativo1 , es decir, + verifica las siguientes propiedades:

• Es una ley interna: ∀ū, v̄ ∈ V , ū + v̄ ∈ V .


• Associativa: ∀ū, v̄, w̄ ∈ V , ū + (v̄ + w̄) = (ū + v̄) + w̄.
• Elemento neutro: existe 0̄ ∈ V tal que ū ∈ V , ū + 0̄ = ū.
• Elemento inverso: para todo ū ∈ V , existe −ū ∈ V such that ū + (−ū) = 0̄.
• Conmutativa: ∀ū, v̄ ∈ V , ū + v̄ = v̄ + ū.

(ii) La operación · verifica lo siguiente:

• ∀λ ∈ R, ∀ū, v̄ ∈ V , λ · (ū + v̄) = λū + λv̄.


• ∀λ, µ ∈ R, ∀ū, v̄ ∈ V , (λ + µ) · ū = λū + λv̄.
• ∀λ, µ ∈ R, ∀ū, v̄ ∈ V , λ · (µū) = (λ · µ) · ū.
• 1 · ū = ū.

Para precisar que el cuerpo de escalares es, por ejemplo, R, se escribe (V (R), +, ·) (si
fuera C, escribirı́amos (V (C), +, ·)). Son espacios vectoriales sobre los reales (y sobre los
complejos también) el conjunto de matrices de una dimensión fija, el de polinomios o el de
funciones. Además los conjuntos de vectores del plano R2 y de vectores del espacio R3 son
también espacios vectoriales. Estos últimos se pueden generalizar a cualquier dimensión,
no sólo 2 ó 3, dando lugar al conjunto Rn : los elementos de Rn , n ∈ N, son los conjuntos
de n-tuplas:
Rn = {(x1 , x2 , . . . , xn )|xi ∈ R ∀i = 1, 2, . . . , n}.
La suma en Rn se define de un modo natural,

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).

El producto por escalares también es natural:

λ · (x1 , x2 , . . . , xn ) = (λ · x1 , λ · x2 , . . . , λ · xn ).

En particular, si n = 2 o n = 3 tenemos las operaciones habituales en R2 o R3 . Se


puede comprobar que estas operaciones satisfacen las propiedades de la definición anterior,
de modo que (Rn , +, ·) es efectivamente un espacio vectorial. Para n ≥ 4 no es posible
1
Se dice que una operación ? da a un conjunto E estructura de grupo, y la operación ? es una ley
interna en el conjunto E, y satisface las propiedades asociativa, elemento neutro y elemento opuesto. Si
además ? es conmutativa, entonces se dice que (E, ?) es un grupo conmutativo.
26 CAPÍTULO 2. ESPACIOS VECTORIALES.

visualizar los elementos de Rn : sin embargo, a pesar de que no podamos visualizarlos es


posible operar con ellos, porque conocemos las reglas formales que definen dichos espacios.
Los elementos de V se llaman vectores. En particular, en el futuro, cuando hablemos
de vectores no debe asumirse que estemos hablando de elementos de R2 o R3 : un vector,
de ahora en adelante, será simplemente un elemento de un espacio vectorial. Por lo tanto,
decir que una matriz, un polinomio o una función es un vector no es incorrecto, ya que
todos ellos son elementos de espacios vectoriales.
En cualquier espacio vectorial se cumple el siguiente resultado.
Proposición 3. Sea (V (R), +, ·) un espacio vectorial sobre R. Entonces para todo λ ∈ R
y para todo ū ∈ V , se cumple que:
(1) λ · 0̄ = 0̄.
(2) 0 · ū = 0̄.
(3) λ · ū = 0̄ si y sólo si λ = 0 ó ū = 0̄.
(4) λ · (−ū) = (−λ) · ū = −(λ · ū).
Una propiedad notable de los espacios vectoriales es que en muchos casos el conjunto en-
tero se puede construir a partir de únicamente algunos elementos, mediante combinaciones
lineales de éstos. Esta idea es la que inspira la siguiente sección.

2.2. Dependencia lineal. Bases.


Aunque ya hemos introducido los conceptos de combinación lineal y dependencia e
independencia lineal en el tema anterior, los incluiremos aquı́ de nuevo en el contexto de
los espacios vectoriales. Una combinación lineal de vectores ū1 , ū2 , . . . , ūn es otro vector
de la forma
λ1 ū1 + λ2 ū2 + · · · + λn ūn
donde λi ∈ R para i = 1, . . . , n. Los coeficientes λ1 , . . . , λn se llaman coeficientes de la
combinación lineal. Se puede observar que el vector 0̄ se puede considerar combinación
lineal de cualesquiera vectores ū1 , ū2 , . . . , ūn , porque 0̄ = 0 · ū1 + 0 · ū2 + · · · + 0 · ūn .
Decimos que {ū1 , ū2 , . . . , ūn } son linealmente dependientes (l.d.) si uno de ellos es
combinación lineal del resto. Si {ū1 , ū2 , . . . , ūn } no son l.d., diremos que son linealmente
independientes. En particular, dos vectores son linealmente dependientes si y sólo si
uno de ellos es un múltiplo del otro. Comprobar si varios vectores son o no linealmente
independientes, o decidir cuántos de ellos son independientes, es un problema importante.
Si los vectores son elementos de Rn sabemos, de hecho, cómo resolver este problema a
partir de la Sección 1.3 del Tema 1: construimos una matriz que tenga como columnas
a los vectores, y determinamos su rango. Esta idea se puede generalizar a otros espacios
vectoriales distintos de Rn , pero requiere la idea de coordenadas respecto a una base, que
introduciremos al final de la sección.
El siguiente resultado está relacionado con la detección de la dependencia lineal.
2.2. DEPENDENCIA LINEAL. BASES. 27

Teorema 4. Los vectores {ū1 , ū2 , . . . , ūn } son linealmente independientes si y sólamente
si la única combinación lineal λ1 ū1 + · · · + λn ūn de estos vectores que proporciona el vector
~0, es aquella cuyos coeficientes son, todos ellos, iguales a cero: es decir,

λ1 ū1 + · · · + λn ūn = ~0 ⇒ λ1 = · · · = λn = 0.
Demostración. Para comprobar (⇒), supongamos por reducción al absurdo que {ū1 , ū2 , . . . , ūn }
son independientes, pero existen λi ’s, no todos cero, tales que λ1 ū1 + · · · + λūn = ~0. Su-
pongamos sin pérdida de generalidad que λ1 6= 0. Entonces podemos escribir
λ2 λn
ū1 = − ū2 − . . . − ūn ,
λ1 λ1
con lo cuál {ū1 , ū2 , . . . , ūn } son linealmente dependientes, lo cuál contradice la hipótesis
de que eran independientes. En la dirección (⇐), de nuevo por reducción al absurdo, si
{ū1 , ū2 , . . . , ūn } son linealmente independientes, entonces uno de ellos, por ejemplo ū1 ,
depende linealmente de los demás. Por lo tanto existen µ2 , . . . , µn ∈ R tales que ū1 =
µ2 · ū2 + · · · + µn · ūn . Sin embargo, en ese caso 1 · ū1 − µ2 · ū2 − · · · − µn · ūn = 0̄; y como
1 6= 0, deducimos que existe una combinación lineal de los vectores, con coeficientes no
todos nulos, que proporciona el vector 0̄.
Nos planteamos ahora si es posible encontrar algunos vectores que puedan generar
cualquier otro vector del espacio, por medio de combinaciones lineales. En caso afirmativo,
nos preguntamos qué condiciones deben cumplir esos vectores, y cuál es el mı́nimo número
de vectores que necesitamos. En la respuesta a estas preguntas las nociones de dependencia
e independencia lineal serán importantes. Las siguientes dos definiciones tienen que ver con
estas preguntas.
Definición 5. Decimos que S = {ū1 , . . . , ūn } es un sistema de generadores de V si
cualquier vector de V se puede escribir como combinación lineal de vectores de S.
Definición 6. Decimos que B = {ū1 , . . . , ūn } es una base de V si es un sistema de
generadores de V y los vectores de B son linealmente independientes.
Para ilustrar estos conceptos, consideremos el conjunto R2 y los vectores de R2 siguien-
tes: ū1 = (1, 0), ū2 = (0, 1), ū3 = (−1, 2). Se puede comprobar que S = {ū1 , ū2 , ū3 } es
un sistema de generadores de R2 : en efecto, dado cualquier vector ū = (u1 , u2 ) ∈ R2 , se
cumple que
ū = u1 · (1, 0) + u2 · (0, 1) + 0 · (−1, 2)
Por lo tanto, cualquier ū se puede escribir como combinación lineal de ū1 , ū2 , ū3 . Sin
embargo, S no es una base, porque ū3 = (−1) · (1, 0) + 2 · (0, 1); por lo tanto ū3 depende
linealmente de ū1 , ū2 y en consecuencia los vectores de S no son linealmente independientes.
Por otra parte, S 0 = {ū1 , ū2 } es una base de R2 : los vectores de S 0 son también sistema de
generadores de R2 , y no son linealmente dependientes porque ū1 y ū2 no son múltiplos el
uno del otro. Observemos que no decimos que {(0, 1), (1, 0)} sea la base de R2 , sino una
base de R2 , porque hay otras bases; por ejemplo, {(1, 1), (1, −1)} es otra base de R2 , y de
hecho hay infinitas. Otros ejemplos:
28 CAPÍTULO 2. ESPACIOS VECTORIALES.

En Rn , se puede comprobar que

Bc = {(1, 0, . . . , 0), (0, 1, . . . , 0), . n. ., (0, 0, . . . , 1)}


| {z } | {z } | {z }
ē1 ē2 ēn

es una base. Esta base recibe el nombre de base canónica de Rn .

En Rn [t], es decir, el espacio vectorial de los polinomios de grado a lo sumo n,

{1, t, t2 , . . . , tn }

es una base (también llamada base canónica de Rn [t]).

En A2×2 , el espacio vectorial de las matrices cuadradas de orden 2,


         
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1

es también una base.

La diferencia entre una base y un sistema de generadores es que en un sistema de


generadores puede haber elementos superfluos, en concreto aquellos que se puedan generar a
partir de otros elementos del sistema. De hecho, si quitamos todos esos elementos superfluos
del sistema de generadores, obtendremos una base. En una base, sin embargo, todos los
elementos son necesarios.
En todos los ejemplos anteriores las bases que hemos dado tienen una cantidad finita de
vectores. Decimos que un espacio vectorial tiene dimensión finita si admite una base con
una cantidad finita de vectores. Los conjuntos Rn , Rn [t], ó Am×n son ejemplos de espacios
de dimensión finita. Pero no todos los espacios vectoriales son ası́: por ejemplo, el espacio
vectorial de las funciones reales de variable real no tiene dimensión finita, lo que significa
que no podemos generar todas las funciones a partir de unas pocas mediante combinaciones
lineales. Sin embargo, en lo que sigue nos restringiremos al caso de espacios vectoriales de
dimensión finita. Por otra parte, intuitivamente puede decirse que la dimensión de un
espacio vectorial es el número de variables que necesitamos para identificar un elemento
concreto del espacio. Por ejemplo, los elementos de Rn están definidos por n parámetros,
luego su dimensión es n; los elementos de Rn [t], que son los polinomios de grado a lo sumo
n,
p(t) = an tn−1 + · · · + a1 t + a0 ,
están definidos por n + 1 parámetros (los n + 1 coeficientes an , . . . , a1 , a0 ), y por lo tanto
la dimensión de este espacio vectorial es n + 1; un elemento de An×n queda fijado cuando
fijamos el valor de los n2 elementos de la matriz, y en consecuencia dim(An×n ) = n2 .
Ya hemos dicho que en general un espacio vectorial puede tener muchas bases diferentes.
De hecho, todos los espacios vectoriales que hemos mencionado hasta ahora tienen infinitas
bases. Sin embargo, el siguiente teorema, que damos sin demostración, afirma que todas
esas bases comparten algo.
2.2. DEPENDENCIA LINEAL. BASES. 29

Teorema 7. Si V tiene dimensión finita, entonces todas las bases de V tienen el mismo
número de vectores.

El teorema anterior justifica la siguiente definición.

Definición 8. Sea V un espacio vectorial de dimensión finita. La dimensión de V ,


dim(V ), es el número de vectores de que consta cualquier base de V .

Si dim(V ) = n, a veces escribimos Vn , para especificar la dimensión de V . El siguiente


resultado contiene algunas consecuencias importantes del concepto de dimensión.

Proposición 9. Sea V un espacio vectorial de dimensión finita, y sea dim(V ) = n. Las


siguientes afirmaciones son ciertas:

(i) Si S genera V , se puede extraer de S una base de V .

(ii) Todo conjunto de más de n vectores es linealmente dependiente.

(iii) Todo sistema de generadores contiene al menos n vectores.

(iv) Dado un conjunto de n vectores B = {ū1 , . . . , ūn } ⊂ V , son equivalente: (a) B es


base; (b) B es linealmente independiente; (iii) B es un sistema de generadores.

Finalmente, vamos a ver que siempre que trabajemos en un espacio de dimensión finita,
en un cierto sentido podemos actuar como si estuviéramos en Rn . La clave es el siguiente
concepto.

Definición 10. Sea B = {ū1 , . . . , ūn } una base de V , y sea v̄ ∈ V . Las coordenadas de
v̄ con respecto a B son los coeficientes λ1 , . . . , λn ∈ R tales que

v̄ = λ1 ū1 + . . . + λn ūn

Habitualmente escribimos
v̄ = (λ1 , . . . , λn ) en B

La noción anterior implica que todo vector de V viene representado por una n-tupla
(λ1 , . . . , λn ), que de hecho se puede identificar con un elemento de Rn . Podemos pregun-
tarnos si estas coordenadas son únicas. El siguiente teorema proporciona una respuesta
afirmativa.

Teorema 11. Sea V un espacio vectorial de dimensión finita n, y sea B = {ū1 , . . . , ūn }
una base de V . Las coordenadas de un vector v̄ ∈ V en B son únicas.

Demostración. Supongamos, por reducción al absurdo, que v̄ tiene coordenadas (λ1 , λ2 , . . . , λn )


y (µ1 , µ2 , . . . , µn ) con respecto a la base B. Por definición de coordenadas,

λ1 ū1 + λ2 ū2 + · · · + λn ūn = µ1 ū1 + µ2 ū2 + · · · + µn ūn


30 CAPÍTULO 2. ESPACIOS VECTORIALES.

Por lo tanto,
(λ1 − µ1 )ū1 + (λ2 − µ2 )ū2 + · · · + (λn − µn )ūn
Puesto que B es una base, en particular ū1 , . . . , ūn son linealmente independientes. Ası́,
por el Teorema 4 se tiene que λi − µi = 0 para i = 1, 2, . . . , n, y en consecuencia λi = µi
para todo i. Luego las coordenadas (λ1 , λ2 , . . . , λn ) y (µ1 , µ2 , . . . , µn ) son iguales.

Volvamos al problema de comprobar la independencia lineal de un conjunto de vectores.


Si trabajamos en un espacio vectorial de dimensión n, y fijamos una base B, entonces los
vectores están representados por n-tuplas, como dijimos antes. Por lo tanto, para comprobar
si son o no linealmente independientes, una posibilidad es calcular sus coordenadas respecto
a B, construir una matriz con dichas coordenadas, y finalmente calcular el rango de la
matriz. Este es un modo eficiente de resolver el problema.

2.3. Subespacios vectoriales.


Recordemos que un espacio vectorial es simplemente un conjunto V en el que tiene sen-
tido realizar combinaciones lineales, y en el que dichas combinaciones lineales permanecen
dentro del conjunto. Ahora consideremos un subconjunto W ⊂ V , es un decir un parte
más pequeña de V . Puesto que W está “dentro”de V , hereda las operaciones +, · (suma
de elementos de V , producto de los elementos de V por escalares) que dan a V estructura
de espacio vectorial, y por lo tanto la noción de combinación lineal tiene sentido dentro de
W . Si las combinaciones lineales de elementos de W permanecen en W , entonces (W, +, ·)
es también un espacio vectorial, que está contenido dentro de otro espacio vectorial mayor,
(V, +, ·): en ese caso, decimos que W es un subespacio vectorial de V .

Definición 12. Sea (V (R), +, ·) un espacio vectorial. Decimos que W ⊂ V es un subes-


pacio vectorial de V si (W (R), +, ·) tiene también estructura de espacio vectorial.

En la definición anterior consideramos R como el cuerpo de escalares, pero, como en


otras ocasiones, puede sustituirse R por C. Los subespacios vectoriales se pueden caracte-
rizar en términos de combinaciones lineales, como expresa el siguiente resultado.

Teorema 13. Sea V un espacio vectorial sobre R. W ⊂ V es un subespacio vectorial si y


sólo si ∀ ū, v̄ ∈ W , ∀λ, µ ∈ R, λū + µv̄ ∈ W (es decir, si y sólo si la combinación lineal de
dos vectores cualesquiera de W , permanece en W ).

La Figura 2.1 pretender sugerir geométricamente la idea de subespacio vectorial: en


esta figura tenemos un plano L que pasa por el origen. Sea W1 ⊂ R3 el conjunto de todos
los vectores del espacio que están contenidos en L, es decir los vectores cuyo origen está en
el origen de coordenadas2 , y cuyo extremo es un punto de L. Si tomamos dos vectores
cualesquiera ū, v̄ en W1 y consideramos cualquier combinación lineal de ellos, el vector
2
En Rn consideramos que todo vector posee un origen y un extremo, siendo el primero el origen de
coordenadas (0, 0, . . . , 0).
2.3. SUBESPACIOS VECTORIALES. 31

L w̄ = λū + µv̄


y

Figura 2.1: Un ejemplo de subespacio vectorial


Z
w̄ = λū + µv̄

M

Figura 2.2: No es subespacio vectorial

w̄ que resulta pertenece al plano L, y por lo tanto está en W1 ; en consecuencia W1 es un


subespacio vectorial de R3 . Sin embargo, no sucede lo mismo si consideramos un plano M
que no pase por el origen (véase la Figura 2.2, donde hemos dibujado el perfil del plano),
y el conjunto W2 de vectores del espacio cuyo extremo es un punto de M: en este caso,
cuando sumamos dos vectores de W2 obtenemos otro vector cuyo extremo no está en M;
por lo tanto W2 no es un subespacio vectorial de R3 .

En particular, si W es un subespacio vectorial de V tiene estructura de espacio vectorial


y debe tener un 0̄, de hecho el mismo 0̄ de V . Por lo tanto, si 0̄ no está dentro de W , lo
cuál se puede observar en la Figura 2.2, no puede ser subespacio vectorial. De hecho, en R2
las rectas que pasan por el origen dan lugar a subespacios vectoriales, y las rectas que no
pasan por el origen, no; de forma similar, en el espacio las rectas o los planos que pasan por
el origen dan lugar a subespacios vectoriales, mientras que los que no pasan por el origen,
no. Además, el conjunto que se reduce al vector cero, {0̄}, es un subsespacio vectorial
32 CAPÍTULO 2. ESPACIOS VECTORIALES.

que puede encontrarse en cualquier espacio vectorial; obviamente no es un ejemplo muy


interesante, razón por la cuál recibe el nombre de subespacio trivial.
Como los subespacios vectoriales son subconjuntos de donde no “escapan”las combina-
ciones lineales, un modo de generar un subespacio vectorial es, precisamente, tomar unos
cuántos vectores y considerar el conjunto formado por todas sus combinaciones lineales.
Definición 14. Sea S = {ū1 , . . . , ūn } un subconjunto de V . La variedad lineal generada
por S (o la clausura ó envoltura lineal de S) es el conjunto formado por todos los
vectores que son combinaciones lineales de los vectores de S, es decir,

L(S) = {x̄ ∈ V |x̄ = λ1 ū1 + · · · + λn ūn }

Resulta interesante observar que:

L(S) es un subespacio vectorial, y su dimensión es igual al rango del sistema S, es


decir, al número de vectores linealmente independientes de S.
En R2 , la clausura lineal de un vector es una recta.
En R3 , la clausura lineal de un vector es también una recta; la clausura lineal de dos
vectores linealmente independientes es un plano.
En Rn , n ≥ 4, un vector genera una recta, dos vectores independientes generan un
plano, tres vectores independientes generan un espacio, etc.

Algunas operaciones elementales con subespacios vectoriales dan lugar a otros subes-
pacios vectoriales. Consideremos en concreto las siguientes:
Definición 15. Sean S1 , S2 dos subespacios vectoriales de V . Se definen las siguientes
operaciones:
(i) La intersección S1 ∩ S2 de S1 , S2 :

S1 ∩ S2 = {x̄ ∈ V |x̄ ∈ S1 y x̄ ∈ S2 }

(ii) La suma S1 + S2 :

S1 + S2 = {x̄ ∈ V |x̄ = ū + v̄, ū ∈ S1 , v̄ ∈ S2 }

La intersección de subespacios S1 , S2 es el conjunto de todos los vectores que per-


tenecen simultáneamente a S1 , S2 . Por ejemplo, si S1 , S2 ⊂ R3 son dos planos que pasan
por el origen, S1 ∩ S2 es la recta que pertenece a ambos planos, es decir el conjunto de
todos los vectores paralelos a la recta intersección (véase la Figura 2.3). La intersección de
subespacios vectorial siempre es un subespacio vectorial. Dos subespacios S1 , S2 siempre
tienen al menos un vector en común, 0̄; ciertamente puede pasar que S1 ∩ S2 = {0̄}, y de
hecho este caso surgirá más adelante. Como hemos dicho que {0̄} es el subespacio trivial,
si S1 ∩ S2 = {0̄} se sigue cumpliendo que S1 ∩ S2 es subespacio vectorial.
2.3. SUBESPACIOS VECTORIALES. 33
z
S2

S1

S1 ∩ S2

Figura 2.3: Intersección de subespacios vectoriales.

La suma de subespacios vectoriales S1 , S2 es el conjunto de todos los vectores que pue-


den expresarse como un vector de S1 más otro de S2 . Si S1 , S2 son subespacios vectoriales,
S1 + S2 siempre es subespacio vectorial, y contiene a S1 , S2 (y por lo tanto, también a
S1 ∩ S2 ). Por ejemplo, si S1 , S2 ⊂ R3 son dos rectas diferentes que pasan por el origen,
S1 +S2 es el plano que las contiene y pasa por el origen. Si V es el espacio “ambiente”donde
viven S1 , S2 , resulta perfectamente posible que S1 + S2 = V ; por ejemplo, si tomamos dos
rectas que pasan por el origen en R2 , la suma de los subespacios correspondientes es R2 , y
si tomamos en R3 un plano que pasa por el origen y una recta que pasa por el origen, no
contenida en el plano, su suma será igual a R3 .
Como un subespacio vectorial W ⊂ V es de hecho un espacio vectorial, tiene sentido
hablar de la dimensión de W , dim(W ), o de una base de W , BW . Además, si V es de
dimensión finita entonces W es también de dimensión finita. Resulta que las dimensiones
de los espacios S1 , S2 , S1 ∩ S2 y S1 + S2 están relacionadas.
Teorema 16. Se verifica que:

dim(S1 + S2 ) = dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 )

El teorema anterior sugiere un modo de encontrar una base de S1 + S2 : tomar una base
de S1 , otra de S2 , poner los vectores de una y otra en común, y determinar de entre ellos los
que sean independientes. De hecho, los vectores que sean descartados estarán en S1 ∩ S2 ,
y tomando aquellos que sean independientes encontraremos una base de S1 ∩ S2 .
Regresemos ahora al caso S1 ∩ S2 = {0̄}. Comenzamos con la siguiente definición.
Definición 17. Se dice que dos subespacios vectoriales S1 , S2 son independientes si todo
vector x̄ ∈ S1 + S2 se puede expresar de forma única como suma de vectores de S1 y S2 , es
decir, si la descomposición x̄ = ū + v̄ donde ū ∈ S1 y v̄ ∈ S2 , es única.
L En esta situación,
se dice también que la suma es directa, lo cuál se representa S1 S2 .
Cabe preguntarse por qué resulta interesante la definición anterior. En Matemáticas
no es infrecuente descomponer, si es posible, un objeto como suma de otros dos objetos
34 CAPÍTULO 2. ESPACIOS VECTORIALES.

de naturaleza “especial”. En ese caso, es importante saber si la descomposición es única


o no. Hay diferentes razones para esto: por un lado, si hay diferentes descomposiciones
de un mismo objeto es posible que queramos encontrarlas todas. Por otro lado, podrı́a
ser que alguna fuera “la mejor”, en algún sentido. Por ejemplo, se sabe que dada una
matriz cuadrada A, siempre se pueden encontrar una matriz simétrica S y una matriz
hemisimétrica T tales que A = S + T , lo cuál resulta interesante porque las matrices
simétricas y hemisimétricas poseen propiedades especiales que podemos aprovechar. Se
t t
puede comprobar que S = A+A 2
, T = A−A
2
para cualquier matriz A. Si esta descomposición
es única, entonces no necesitamos pensar más, pero si no lo es deberı́amos buscar otras
posibilidades. El concepto de suma directa tiene que ver con este problema de unicidad/no
unicidad en la descomposición: si W = S1 + S2 entonces todo elemento de W se puede
descomponer como suma de un elemento de S1 y un elemento de S2 , y si la suma es
directa, dicha descomposición es única. Por lo tanto, volviendo al problema de descomponer
una matriz cuadrada, resulta que el subconjunto de matrices simétricas y el subconjunto
de matrices hemisimétricas son subespacios vectorialesL de An , el conjunto de matrices
cuadradas de orden dado n. Por consiguiente, si An = S T (como es, de hecho, el caso),
se tiene entonces que la descomposición matricial anterior A = S + T es única. En el Tema
6 aparecerán otros ejemplos de esta misma situación.
Parece entonces interesante abordar el problema de detectar si una suma es o no directa.
Esto puede hacerse utilizando el siguiente resultado.
L
Teorema 18. S1 S2 si y sólo si S1 ∩ S2 = {0̄}.
L
Demostración. Empezamos con (⇒). Por tanto, supongamos que S1 S2 , y supongamos
también por reducción al absurdo que existe ū ∈ S1 ∩ S2 , ū 6= 0̄. Entonces

ū = |{z}
ū + |{z}
0̄ ,
∈S1 ∈S2


ū = |{z} ū ,
0̄ + |{z}
∈S1 ∈S2

lo cuál contradice que ū se pueda escribir de forma única como un elemento de S1 más un
elemento de S2 . Por lo tanto se cumple (⇒). Veamos ahora (⇐). Para ello, supongamos
que S1 ∩ S2 = {0̄} y supongamos además, por reducción al absurdo, que la suma de S1 , S2
no es directa. Por lo tanto, existe v̄ ∈ V tal que

v̄ = v̄1 + v̄2 = v̄10 + v̄20 ,

donde v̄1 , v̄10 ∈ S1 , v̄1 6= v̄10 , v̄2 , v̄20 ∈ S2 , v̄2 6= v̄20 . Sin embargo, en este caso tenemos que
v̄1 − v̄10 = −(v̄2 − v̄20 ). Nótese que el vector de la izquierda es un elemento de S1 , porque es
el resultado de restar dos elementos de S1 , que es un subespacio vectorial; por la misma
razón, el vector de la derecha es un elemento de S2 . Por lo tanto, tenemos que un elemento
de S1 es igual a un elemento de S2 , y en consecuencia dicho elemento pertenece a S1 ∩ S2 .
2.4. ECUACIONES DE UN SUBESPACIO VECTORIAL. 35

Pero como S1 ∩ S2 = {0̄}, deducimos que v̄1 − v̄10 = 0, v̄2 − v̄20 = 0, luego v̄1 = v̄10 , v̄2 = v̄20 .
Sin embargo, esto es una contradicción porque habı́amos supuesto que v̄1 6= v̄10 , v̄2 6= v̄20 .
Por consiguiente se cumple (⇐).

2.4. Ecuaciones de un subespacio vectorial.


Cuando hablamos de ecuaciones en Geometrı́a Analı́tica (la ecuación de una recta,
de un plano, etc.) nos referimos a una expresión matemática que identifica el objeto del
que estamos hablando, y que permite realizar dos tareas fundamentales: comprobar si
un punto pertenece o no al objeto de nuestro interés, y generar tantos puntos del objeto
como queramos (por ejemplo, para poder visualizarlo en una pantalla de ordenador). Otras
tareas adicionales donde las ecuaciones resultan útiles tienen que ver con realizar ciertas
operaciones sobre ese objeto o de hecho sobre varios objetos a la vez: intersecar dos de
ellos (dos rectas, una recta y un plano, etc.), construir un objeto por condiciones (un plano
paralelo a otro por un punto dado), etc.
Queremos desarrollar algo similar para subespacios vectoriales, y de hecho con fines muy
parecidos (identificar si un vector pertenece o no a un cierto subespacio, generar tantos
vectores del subespacio como queramos, realizar operaciones sobre el subespacio). Como
sucede también en Geometrı́a Analı́tica, hay diferentes tipos de ecuaciones: ecuaciones pa-
ramétricas, ecuaciones implı́citas, ecuaciones explı́citas, etc. En lo que sigue describiremos
los distintos tipos, y explicaremos cómo determinarlas en la práctica. Para ello, sea V un
espacio vectorial de dimensión n, y sea B = {ū1 , . . . , ūn } una base de V . Además, sea
W ⊂ V un espacio vectorial de dimensión m ≤ n, y sea BW = {v̄1 , . . . , v̄m } una base de
W , donde 

 v̄1 = a11 ū1 + a12 ū2 + · · · + a1n ūn
 v̄2 = a21 ū1 + a22 ū2 + · · · + a2n ūn

..


 .
m = am1 ū1 + am2 ū2 + · · · + amn ūn
 v̄

Consideramos entonces los siguientes tipos de ecuaciones.

1. Ecuación vectorial. Por definición de base, sabemos que W puede verse como el
conjunto de todas las combinaciones lineales de vectores de los vectores de BW , es
decir el conjunto de todos los vectores

v̄ = λ1 · v̄1 + λ2 · v̄2 + · · · + λm · v̄m

con λ1 , λ2 , . . . , λm ∈ R. Si dejamos los λi ’s como parámetros, decimos que la expresión


anterior es la ecuación vectorial de W . En particular, si damos distintos valores a
los λi ’s, generamos distintos elementos de W .

2. Ecuaciones paramétricas. Si en la ecuación vectorial escribimos v̄ = x1 ·ū1 +x2 ·ū2 +


· · · + xn · ūn , y escribimos v̄1 , . . . , v̄m en la base B, identificando las correspondientes
36 CAPÍTULO 2. ESPACIOS VECTORIALES.

coordenadas tenemos


 x1 = λ1 · a11 + λ2 · a21 + · · · + λm · am1
 x2 = λ1 · a12 + λ2 · a22 + · · · + λm · am2

.. (2.1)


 .
 x = λ · a + λ · a + ··· + λ · a
n 1 1n 2 2n m mn

que reciben el nombre de ecuaciones paramétricas de W . De hecho, no hablamos


de las ecuaciones paramétricas, sino de unas ecuaciones paramétricas, porque la apa-
riencia de estas ecuaciones cambia según la base que se utilice (aunque el conjunto
que definimos es exactamente el mismo en todos los casos). Observemos que para
i = 1, 2, . . . , m cada λi multiplica a las coordenadas de v̄i en B. De nuevo, dando
distintos valores a los λi ’s generamos distintos elementos de W . Sin embargo, con
estas ecuaciones no resulta inmediato comprobar si un vector dado pertenece o no a
W (aunque puede hacerse). Este problema motiva la introducción del siguiente tipo
de ecuaciones.
3. Ecuaciones implı́citas. Las ecuaciones implı́citas de W tienen la siguiente forma:


 b11 · x1 + b12 · x2 + · · · + b1n · xn = 0
 b21 · x1 + b22 · x2 + · · · + b2n · xn = 0

.. (2.2)


 .
 b · x + b · x + ··· + b · x = 0
p1 1 p2 2 pn n

donde cada ecuación es linealmente independiente de las demás, es decir, ninguna de


ellas se puede obtener a partir de combinaciones lineales del resto. Nótese que estas
ecuaciones son lineales en las variables x1 , x2 , . . . , xn , y no dependen de los paráme-
tros λi ’s, que sı́ aparecı́an en las ecuaciones paramétricas. Por ello resultan útiles para
comprobar rápidamente si un vector (c1 , c2 , . . . , cn ) pertenece o no a W : basta con
sustituir xj = cj para j = 1, . . . , n y comprobar si obtenemos 0 en todos los casos.
Estas ecuaciones resultan de eliminar los parámetros λi ’s de las ecuaciones paramétri-
cas, y de hecho definen un sistema (homogéneo!) de ecuaciones lineales cuya solución
es, precisamente, el conjunto de vectores definido por las ecuaciones paramétricas.
Para hallar en la práctica estas ecuaciones, se puede utilizar lo siguiente: si (2.2) es el
sistema lineal cuya solución es (2.1), entonces para cada (x1 , x2 , . . . , xn ) en W existen
λ1 , λ2 , . . . , λm que satisfacen (2.1). Por lo tanto, si vemos (2.1) como un sistema lineal
donde los λi ’s son las incógnitas y los xj ’s son los parámetros, ese sistema debe ser
compatible. Esto sucede si y sólo si los rangos de las matrices (aij ) y (aij |x) coinciden,
lo cuál, a su vez, implica que ciertos determinantes (que dependen de las coordena-
das de x) sean nulos. De todos modos, en la práctica y siempre que la dimensión del
problema sea manejable, a menudo es más sencillo eliminar simplemente los λi ’s de
las ecuaciones paramétricas con manipulaciones sencillas.
Si tenemos las ecuaciones implı́citas y queremos obtener las ecuaciones paramétricas,
basta ver el conjunto de ecuaciones implı́citas como un sistema lineal homogéneo, y resol-
verlo: el conjunto solución corresponde a unas ecuaciones paramétricas.
2.5. CAMBIO DE BASE EN UN ESPACIO VECTORIAL. 37

2.5. Cambio de base en un espacio vectorial.


Sea V un espacio vectorial de dimensión n, y sean B1 = {ū1 , ū2 , . . . , ūn }, B2 =
{ū01 , ū02 , . . . , ū0n }
dos bases diferentes de V . Además, supongamos que conocemos las coor-
denadas de los vectores de B2 en la base B1 , es decir,


 ū01 = a11 ū1 + a12 ū2 + · · · + a1n ūn
 ū0 = a21 ū1 + a22 ū2 + · · · + a2n ūn

2
..

 .
 ū0 = a ū + a ū + · · · + a ū

n n1 1 n2 2 nn n

lo cuál puede escribirse en forma matricial como


     
ū01 a11 a12 · · · a1n ū1
 ū0   a21 a22 · · · a2n   ū2 
 2  
 ..  =  .. ..  ·  (2.3)
  
.. . . .. 
 .   . . . .   . 
0
ūn an1 an2 · · · ann ūn
| {z }
A

Sea ahora x un vector cualquiera de V , y sean (x1 , x2 , . . . , xn ) las coordenadas de x


en B1 . Queremos encontrar las coordenadas (x01 , x02 , . . . , x0n ) de x in B2 . Por definición de
coordenadas respecto a una base, tenemos que
 
ū01
0 
0 0 0 0 0 0 0 0 0  ū2 

x = x1 ū1 +x2 ū2 +· · ·+xn ūn = {en forma matricial} = x1 x2 · · · xn ·  ..  (2.4)
 . 
ū0n

Por lo tanto, de (2.3) tenemos


   
a11 a12 · · · a1n ū1
  a21 a22 · · · a2n   ū2 
x= x01 x02 ··· x0n · · (2.5)
   
.. .. . . . ..  .. 
 . . .   . 
an1 an2 · · · ann ūn
Por otra parte, de la definición de coordenadas respecto a la base B1 deducimos que
 
ū1
 ū2 

x = x1 ū1 +x2 ū2 +· · ·+xn ūn = {en forma matricial} = x1 x2 · · · xn ·  ..  (2.6)
 . 
ūn

Por lo tanto, de (2.5) y (2.6) tenemos que

(x01 , x02 , . . . , x0n ) · A = (x1 , x2 , . . . , xn )


38 CAPÍTULO 2. ESPACIOS VECTORIALES.

o equivalentemente, después de trasponer la igualdad anterior,


   
x01 x1
 x0   x2 
t  2  
A · ..  =  ..  (2.7)

|{z}   .   . 
P
x0n xn

La matriz P = At se llama matriz de cambio de base de B1 a B2 , y cumple las


siguientes propiedades:

(i) Las columnas de P son las coordenadas de los vectores de B2 (la nueva base) en B1
(la base anterior).

(ii) La matriz P siempre es invertible: la razón es que A es invertible porque B2 es una


base (y por lo tanto los ū0i ’s son independientes, con lo cuál las columnas de A son
también independientes).

(iii) El nombre es engañoso: si queremos calcular las nuevas coordenadas de x, es decir


las coordenadas en B2 , entonces de (2.7),
   
x01 x1
 x0   x2 
 2 
 ..  = P −1 ·  (2.8)
 
.. 
 .   . 
0
xn xn

Por tanto, para determinar las nuevas coordenadas multiplicamos P −1 por las coor-
denadas originales.

(iv) P −1 es la matriz de cambio de base de B2 a B1 . Las columnas de la matriz corres-


ponden a las coordenadas de los vectores de B − 1 en la base B2 .
Capı́tulo 3

Aplicaciones lineales.

En el primer tema definimos las matrices como “colecciones de números ordenados en


filas y columnas”, lo cuál es correcto. Sin embargo, en este tema veremos que las matrices
poseen una conexión más profunda con la idea de espacio vectorial. A la luz de esa conexión
será posible entender mejor la multiplicación de matrices, o el concepto de matriz inversa.

3.1. Nociones básicas sobre aplicaciones lineales


El concepto de aplicación es esencial en Matemáticas. Una aplicación entre dos con-
juntos S y S 0 es una regla que permite asignar a cada elemento de un conjunto S uno y
sólo un elemento de otro conjunto S 0 ; si la regla asigna a un elemento a ∈ S otro elemento
a0 ∈ S 0 , se dice que a0 es la imagen de a mediante f , y escribimos

f (a) = a0

La figura 3.1 ilustra este concepto: nótese que se trata de un concepto muy general, puesto
que no estamos precisando la naturaleza de los elementos de S o de S 0 . Si S = S 0 =
R, el conjunto de los números reales, tenemos entonces la noción familiar de función,
fundamental en Cálculo. Además, decimos que una aplicación f es (véase la figura 3.2):
(i) inyectiva, si no hay dos elementos diferentes de S que tengan la misma imagen (es
decir, distintos elementos de S tienen imágenes distintas. f (x) = f (y) implica x = y); (ii)
sobreyectiva, o simplemente “sobre”, si todo elemento de S 0 es la imagen de algún elemento
de S mediante f ; (iii) biyectiva, si es tanto inyectiva como sobreyectiva. Decimos además
que S es el conjunto inicial, y S 0 el conjunto final.
En lo que sigue nos centraremos en un tipo especial de aplicaciones entre espacios vecto-
riales; por lo tanto, en particular los conjuntos inicial y final serán espacios vectoriales, que
pueden ser diferentes, o no. Puesto que el concepto que motivó la definición de espacio vec-
torial es el de combinación lineal, nos centraremos en aplicaciones que se comporten “bien”,
en lo que respecta a las combinaciones lineales, en concreto aplicaciones que preserven las
combinaciones lineales.

39
40 CAPÍTULO 3. APLICACIONES LINEALES.

a’

a
b
c’
c

f (a) = a0

Figura 3.1: Una aplicación entre dos conjuntos.

Definición 19. Sean V, V 0 dos espacios vectoriales, y sea f : V → V 0 una aplicación de


V a V 0 . Decimos que f es lineal si ∀ū, v̄ ∈ V , ∀α, β ∈ R, se tiene

f (αū + βv̄) = αf (ū) + βf (v̄)

Por lo tanto, una aplicación f : V → V 0 entre espacios vectoriales es lineal si y sólo si


la imagen de cualquier combinación lineal es igual a la combinación lineal de las imágenes.
Veamos algunos ejemplos:

1. Sea f : R2 → R2 , f (x, y) = (x − y, 2x + y). Para comprobar si es lineal o no,


debemos comprobar su comportamiento con respecto a las combinaciones lineales.
Por lo tanto, sean ū = (u1 , u2 ), v̄ = (v1 , v2 ), y sea cualquier combinación lineal
αū + βv̄ = (αu1 + βv1 , αu2 + βv2 ). Entonces,

f (αū + βv̄) = f (αu1 + βv1 , αu2 + βv2 ) =


| {z } | {z }
x y
= ((αu1 + βv1 ) − (αu2 + βv2 ), 2(αu1 + βv1 ) + (αu2 + βv2 )) =
| {z } | {z }
x−y 2x+y
= α · (u1 − u2 , 2u1 + u2 ) +β · (v1 − v2 , 2v1 + v2 ) =
| {z } | {z }
f (ū) f (v̄)
= αf (ū) + βf (v̄).

Por consiguiente f es lineal.

2. Sea f : A2×2 (R) → R (es decir, f va del espacio de las matrices cuadradas de orden
2, que es un espacio vectorial de dimensión 4, al conjunto de los números reales, que
es un espacio vectorial de dimensión 1), definida como f (A) = |A|. Es decir, f lleva
cada matriz cuadrada de orden 2 en su determinante. La aplicación f es lineal si
3.1. NOCIONES BÁSICAS SOBRE APLICACIONES LINEALES 41

f inyectiva f sobreyectiva

f biyectiva

Figura 3.2: Aplicaciones inyectivas, sobreyectivas y biyectivas.


42 CAPÍTULO 3. APLICACIONES LINEALES.

f (αA + βB) = αf (A) + βf (B), es decir, si los determinantes de orden 2 satisfacen


la siguiente propiedad: |αA + βB| = α|A| + β|B|. Sin embargo, esto no es cierto en
general: si tomamos A = I (la matriz identidad), B = −I, y α = β = 1, entonces
αA + βB = 0, y por tanto f (αA + βB) = |αA + βB| = 0. Pero αf (A) + βf (B) =
α|A| + β|B| = |A| + |B| = 1 + 1 = 2 6= 0. Por lo tanto f no es lineal.

Toda aplicación lineal satisface las siguientes propiedades. En particular, las propieda-
des 2 y 3 implican que las aplicaciones lineales no sólo respetan combinaciones lineales,
sino también la dependencia lineal, y los subespacios vectoriales.

Proposición 20. Sea f : V → V 0 una aplicación lineal. Entonces:

(1) f (0̄) = 0̄.

(2) Si {ū1 , . . . , ūn } son linealmente independientes, entonces {f (ū1 ), . . . , f (ūn )} también
son linealmente independientes.

(3) Si S ⊂ V es un subespacio vectorial de V , entonces f (S) es un subespacio vectorial


de V 0 .

Sin embargo, en general las aplicaciones lineales no preservan la independencia lineal, y


en consecuencia no transforman necesariamente una base de V en una base de V 0 ; a veces
lo hacen, y más tarde veremos cuándo, pero no siempre.

Definición 21. Una aplicación lineal f : V → V 0 se llama

(i) Monoformismo, si es inyectiva.

(ii) Epimorfismo, si es sobreyectiva.

(iii) Isomorfismo, si es biyectiva.

(iv) Endomorfismo, si V = V 0 , es decir si f : V → V .

3.2. Eucación matricial de una aplicación lineal.


Llamamos ecuación de una aplicación lineal a una expresión que, a partir de las coor-
denadas de un vector x, proporciona las coordenadas de su imagen y mediante una cierta
aplicación lineal f . Para poder encontrar esta expresión es necesario fijar previamente tan-
to una base del espacio de partida como una base del espacio de llegada. De hecho, la
ecuación de la aplicación lineal depende de dichas bases. Por lo tanto, sea f : V → V 0 una
aplicación lineal, sea B = {ū1 , . . . , ūn } una base de V , y sea B 0 = {ū01 , . . . , ū0m } una base
3.2. EUCACIÓN MATRICIAL DE UNA APLICACIÓN LINEAL. 43

de V 0 . Puesto que la aplicación lineal f es conocida, supondremos también conocidas las


coordenadas de las imágenes f (ū1 ), f (ū2 ), . . . , f (ūn ) de los vectores de B, en la base B 0 :
f (ū1 ) = a11 ū01 + a21 ū02 + · · · + am1 ū0m
f (ū2 ) = a12 ū01 + a22 ū02 + · · · + am2 ū0m
.. (3.1)
.
f (ūn ) = a1n ū01 + a2n ū02 + · · · + amn ū0m
La información anterior basta para determinar la imagen de cualquier vector x ∈ V . En
efecto, escribamos x en la base B como
x = x1 ū1 + x2 ū2 + · · · + xn ūn
Queremos encontrar y = f (x) en la base B 0 , lo que equivale a encontrar y1 , y2 , . . . , ym tales
que y = f (x) = y1 ū01 + y2 ū02 + · · · + ym ū0m . Como f es lineal, se tiene que
(?)
f (x) = f (x1 ū1 + x2 ū2 + · · · + xn ūn ) = {f linear} = x1 f (ū1 ) + x2 f (ū2 ) + · · · + xn f (ūn ) =
(3.2)
Escribiendo (3.2) en forma matricial, y usando (3.1),
    
f (ū1 ) a11 a21 · · · am1 ū01
 f (ū2 )   a12 a22 · · · am2   ū0 
(?)  2 
= (x1 , x2 , . . . , xn )· ..  = (x1 , x2 , . . . , xn )· .. .. · ..  (3.3)
  
.. . .
 .   . . . .  . 
f (ūn ) a1n a2n · · · amn ū0m
Esto es igual a
 
ū01
 ū02 
y = f (x) = y1 ū01 + y2 ū02 + · · · + ym ū0m = (y1 , y2 , . . . , ym ) ·  (3.4)
 
.. 
 . 
ū0m
De (3.3) y (3.4), se tiene que
 
a11 a21 · · · am1
 a12 a22 · · · am2 
(y1 , y2 , . . . , ym ) = (x1 , x2 , . . . , xn ) ·  (3.5)
 
.. .. ... .. 
 . . . 
a1n a2n · · · amn
Finalmente, transponiendo la igualdad anterior,
     
y1 a11 a12 · · · a1n x1
 y2   a21 a22 · · · a2n   x2 
 =  .. · (3.6)
     
 .. .. .. .. .. 
 .   . . . .   . 
ym am1 am2 · · · amn xn
| {z } | {z } | {z }
y A x

Observaciones:
44 CAPÍTULO 3. APLICACIONES LINEALES.

(i) En notación compacta, la igualdad (3.6) se escribe y = A · x, ó f (x) = A · x. La


matriz A se llama la matriz asociada con la aplicación lineal en las bases B, B 0 ,
o simplemente la matriz de f en las bases B, B 0 . Para precisar las bases con que
trabajamos, a veces se denota A = M(f ; B, B 0 ). Para encontrar A basta escribir las
imágenes de los vectores de B como columnas de la matriz A. Una vez que están
fijadas las bases, la matriz A define f completamente. Especificar las bases con que
trabajamos resulta esencial: si las bases no se especifican, por defecto entenderemos
que trabajamos con las bases canónicas de los espacios inicial y final.

(ii) Si cambiamos las bases en el espacio de partida, B → B1 , en el de llegada, B 0 → B10 ,


o en ambos,la matriz que define la aplicación lineal cambia también; es decir, se tiene
A → A0 , donde A0 = M(f ; B1 , B10 ). En el siguiente apartado estudiaremos la relación
que existe entre A y A0 .

(iii) Si la dimensión del espacio de partida es n y la dimensión del espacio de llegada es


m, entonces A tiene dimensión m × n. En particular, si f es un endomorfismo de un
espacio de dimensión n, entonces A es una matriz cuadrada de orden n.

(iv) Nótese la analogı́a entre y = A · x y las funciones lineales habituales en Cálculo, que
responden a la expresión y = ax.

(v) Cada coordenada de y es lineal en las variables x1 , . . . , xn : para todo i = 1, . . . , m,

yi = ai1 x1 + ai2 x2 + · · · + ain xn

Esta propiedad permite a veces distinguir entre aplicaciones lineales y otras que no lo
son: por ejemplo, f (x, y) = (x2 , x − y) no es lineal porque en la primera componente
hay un cuadrado; g(x, y) = (2x + 3y, 3x − 2y + 5) no es lineal porque en la segunda
componente aparece una constante; h(x, y) = (sin(xy), x − y) no es lineal porque en
la primera componente aparece una función seno. Sin embargo, j(x, y, z) = (x − y +
2z, −x + z) es una aplicación lineal de R3 a R2 .

(vi) Si escribimos f (x) = (f1 (x), f2 (x), . . . , fm (x)), se cumple que f es lineal si y sólo
si fi es lineal para i = 1, 2, . . . , m, es decir, si y sólo si cada fi es de la forma
fi (x) = ai1 x1 + ai2 x2 + · · · + ain xn .

Dada una aplicación lineal f y bases B, B 0 , la matriz que define f en las bases B, B 0 es
única. Al revés, si elegimos dos bases B, B 0 de Rn y Rm , respectivamente, para cada matriz
A ∈ Am×n existe una única aplicación lineal f : Rn → Rm tal que A es la matriz asociada
a f en esas bases. Por lo tanto, existe una correspondencia biyectiva:

Matrices ↔ Aplicaciones lineales

Además, en el caso de las matrices cuadradas, se tiene una biyección:

Matrices cuadradas ↔ Endomorfismos


3.2. EUCACIÓN MATRICIAL DE UNA APLICACIÓN LINEAL. 45

Por lo tanto, las matrices y las aplicaciones lineales son, desde el punto de vista del Álgebra,
la misma cosa: si tenemos una matriz tenemos una aplicación lineal asociada a ella, y
viceversa. Esta es la conexión, prometida al comienzo del tema, entre matrices y espacios
vectoriales. El siguiente resultado profundiza en esta conexión.
Proposición 22. Sean f : Vn → Vm0 , g : Vn → Vm0 dos aplicaciones lineales con matrices
asociadas Af y Ag , respectivamente, y sea k ∈ R. Se verifica entonces:
(1) f + g también es lineal, y su matriz asociada es Af + Ag .
(2) k · f también es lineal, y su matriz asociada es k · Af .
La siguiente proposición continúa explorando la conexión entre matrices y aplicaciones
lineales, y explica por qué el producto de matrices se define de un modo tan “peculiar”.
Proposición 23. Sean f : Vn → Vm0 , g : Vm0 → Vp00 dos aplicaciones lineales, con matrices
asociadas Af y Ag , respectivamente. Entonces la composición g ◦ f : Vn → Vp00 también es
lineal, y la matriz asociada a g ◦ f es Ag · Af .
Es decir, que el producto de matrices está definido de modo que corresponda a la com-
posición de las aplicaciones lineales correspondientes. Esta proposición merece un ejemplo
(obsérvese que lo que sigue no es una demostración de la proposición, sino simplemente
una comprobación en un ejemplo particular). Consideremos el siguiente diagrama:

R2 f R g R3

g◦f

donde f : R2 → R, f (x, y) = x + y, g : R → R3 , g(x) = (3x, 2x, −x). Luego g ◦ f : R2 → R3


y
(g ◦ f )(x, y) = g[f (x, y)] = g(x + y) = (3x + 3y, 2x + 2y, −x − y)
Por tanto,  
3 3
Ag◦f = 2 2 
−1 −1
Por otra parte, se cumple que
 
3
Af = (1, 1), Ag =  1 
−1
y se tiene    
3 3 3
 2  · (1, 1) =  2 2 
−1 −1 −1
| {z }
| {z } Af | {z }
Ag Ag◦f

Por lo tanto, la igualdad Ag◦f = Ag · Af se satisface, en este caso.


46 CAPÍTULO 3. APLICACIONES LINEALES.

3.3. Matrices semejantes.


Antes dijimos que la matriz asociada a una aplicación lineal cambia cuando cambian
las bases con las que trabajamos. Vamos a utilizar el resultado de la Proposición 23 para
ver cómo cambia. Sea f : V → V 0 una aplicación lineal; sean B, B1 dos bases de V , y sea
P
P la matriz de cambio de base de B a B1 , B → B1 . Sean también B 0 , B10 dos bases de
Q
V 0 , y sea Q la matriz de cambio de base de B 0 a B10 , B 0 → B10 . Ffinalmente, sean A =
M(f ; B, B 0 ), y A0 = M(f ; B1 , B10 ). Queremos determinar la relación entre A0 , A, Q, P . Para
ello, representamos por idV , idV 0 a las identidades en V, V 0 , respectivamente1 . Consideramos
entonces la siguiente secuencia de aplicaciones:

idV / f
/
idV 0 / 0
VO VO VO 0 V
O

B1 B B0 B10

En la primera fila aparece la aplicación que actúa en cada momento; en la segunda fila,
la base que se considera en cada paso. Por lo tanto, en el primer paso la aplicación que
actúa es la identidad, pero la base cambia de B1 a B, lo que equivale a un cambio de base,
que puede ser considerado, también, como una aplicación lineal cuya matriz asociada es
P ; en el segundo paso actúa f , y consideramos la base B en V , y la base B 0 en V 0 ; en
el tercer y último paso la matriz es la identidad en V 0 , pero la base cambia de B 0 a B10 ,
lo que equivale a otro cambio de base cuya matriz asociada es Q−1 . Componiendo estas
aplicaciones lineales y aplicando Proposición 22, tenemos que

M(f ; B1 , B10 ) = M(idV 0 ; B 0 , B10 ) · M(f ; B, B 0 ) ·M(idV ; B1 , B)


| {z } | {z }
A0 A

Como M(idV 0 ; B 0 , B10 ) = Q−1 , M(idV ; B1 , B) = P , se tiene

A0 = Q−1 · A · P (3.7)

Lo anterior motiva la siguiente definición.

Definición 24. Dos matrices A, A0 se llaman equivalentes si existen dos matrices regu-
lares P, Q tales que
A0 = Q−1 · A · P

Las matrices equivalentes cumplen las siguientes propiedades:

Si dos matrices representan la misma aplicación lineal pero en diferentes bases, en-
tonces son equivalentes, y las matrices Q, P de la definición anterior son las matrices
de cambio de base entre las bases.
1
La identidad idV en V es la aplicación f (v̄) = v̄; en particular, es una aplicación lineal.
3.4. NÚCLEO E IMAGEN. 47

Recı́procamente, dos matrices equivalentes representan una misma aplicación lineal


en dos bases distintas, cuyas matrices de cambio de base son Q, P .
Si dos matrices son equivalentes, tienen el mismo rango.

Además, si f es un endomorfismo, cuando consideramos la misma base B tanto en el


espacio de partida como en el de llegada, de (3.7) se tiene que
A0 = P −1 · A · P (3.8)
Definición 25. Dos matrices cuadradas A, A0 son semejantes si existe una matriz regular
P tal que
A0 = P −1 · A · P
Por tanto, las matrices que representan un mismo endomorfismo en bases distintas
son semejantes; además, la matriz P de la definición anterior define el cambio de base
entre ambas bases. Recı́procamente, dos matrices semejantes cualesquiera representan la
misma aplicación lineal en dos bases diferentes. En particular dos matrices semejantes son
equivalentes (con P = Q), y por lo tanto tienen el mismo rango.

3.4. Núcleo e Imagen.


Las ideas en esta sección son útiles, como veremos al final de la misma, para detectar si
una aplicación lineal es inyectiva, sobreyectiva, o biyectiva. Comenzamos con la siguiente
definición:
Definición 26. Sea f : V → V 0 una aplicación lineal.
(i) El núcleo de f , Ker(f ) ó N (f ), es el conjunto de todos los vectores de V que se
transforman en el vector 0̄ ∈ V 0 .
(ii) La imagen de f , Im(f ), es el conjunto de todos los vectores de V 0 que son imagen
de algún vector de V .
Obsérvese que Ker(f ) vive en el espacio de partida V , mientras que Im(f ) vive en
el espacio de llegada V 0 . En los siguientes resultados veremos que Ker(f ) y Im(f ) son
subespacios vectoriales de los conjuntos en los que habitan.
Proposición 27. Ker(f ) es un subespacio vectorial de V .
Demostración. Para demostrar que Ker(f ) es un subespacio vectorial, debemos ver que
toda combinación lineal de vectores de Ker(f ) permanece en Ker(f ). Sean por tanto ū, v̄ ∈
Ker(f ), y sean α, β ∈ R. Queremos ver que αū + βv̄ ∈ Ker(f ). Por definición de Ker(f ),
un vector w̄ ∈ Ker(f ) si y sólo si f (w̄) = 0̄. Por tanto, consideremos f (αū + βv̄); como f
es lineal, entonces f (αū + βv̄) = αf (ū) + βf (v̄); y como ū, v̄ ∈ Ker(f ), entonces f (ū) =
f (v̄) = 0̄. Por lo tanto, f (αū + βv̄) = α · 0̄ + β · 0̄ = 0̄, lo que implica que αū + βv̄ ∈ Ker(f ).
48 CAPÍTULO 3. APLICACIONES LINEALES.

Proposición 28. Las siguientes afirmaciones son ciertas:

(i) Im(f ) es un subespacio vectorial de V 0 .

(ii) Im(f ) = L({f (ū1 ), . . . , f (ūn )}), donde B = {u1 , . . . , ūn } es una base de V .

(iii) La dimensión de Im(f ) es rg(A), donde A es la matriz asociada a f en alguna base.

Demostración. Veamos primero (i). Para ello, sea ū0 , v̄ 0 ∈ Im(f ); por tanto existen ū, v̄ ∈ V
tales que f (ū) = ū0 , f (v̄) = v̄ 0 . Nos preguntamos si dados α, β ∈ R, αū0 + βv̄ 0 ∈ Im(f ).
Como f es lineal, se tiene que

f (αū + βv̄) = α f (ū) + βf (v̄) = αū0 + βv̄ 0


|{z} | {z }
ū0 v̄ 0

Por tanto αū0 + βv̄ 0 es la imagen de αū + βv̄, y en consecuencia pertenece a Im(f ). Veamos
ahora (ii). Para demostrar Im(f ) = L({f (ū1 ), . . . , f (ūn )}), demostraremos que Im(f ) ⊂
L({f (ū1 ), . . . , f (ūn )}) y que L({f (ū1 ), . . . , f (ūn )}) ⊂ Im(f ), también. Si w̄0 ∈ Im(f ) en-
tonces existe w̄ ∈ V tal que f (w̄) = w̄0 . Escribiendo w̄ = w1 ū1 +· · ·+wn ūn , como f es lineal
se tiene que f (w̄) = w1 f (ū1 ) + · · · + wn f (ūn ), y por tanto f (w̄) ∈ L({f (u1 ), . . . , f (un )}),
con lo que Im(f ) ⊂ L({f (ū1 ), . . . , f (ūn )}). Por otra parte, si w̄0 ∈ L({f (ū1 ), . . . , f (ūn )})
entonces podemos escribir w̄0 = w10 f (ū1 ) + · · · + wn0 f (ūn ). Como f es lineal, entonces
w̄0 = f (w10 ū1 +· · ·+wn0 ūn ) y por lo tanto vemos que w̄0 es la imagen de w10 ū1 +· · ·+wn0 ūn me-
diante la aplicación f ; ası́, w̄0 ∈ Im(f ), y L({f (ū1 ), . . . , f (ūn )}) ⊂ Im(f ). Finalmente, (iii)
se obtiene a partir de (ii) teniendo en cuenta que las columnas de A son f (ū1 ), . . . , f (ūn ).

El siguiente resultado, que damos sin demostración, muestra la relación existente entre
las dimensiones de Ker(f ) y Im(f ).

Teorema 29. Si V es un espacio vectorial de dimensión finita y f : V → V 0 es una


aplicación lineal, se tiene que:

dimV = dim(Ker(f )) + dim(Im(f ))

El corolario siguiente se deduce de Teorema 29 y la afirmación (iii) de Proposición 28.

Corolario 30. Sea f : V → V 0 una aplicación lineal, sea A = M(f ; B, B 0 ) donde B, B 0 son
bases de V, V 0 respectivamente, y sea dim(V ) = n. Se cumple entonces que dim(Ker(f )) =
n − rg(A).

Veamos ahora cómo caracterizar la inyectividad y la sobreyectividad a partir de Ker(f )


y Im(f ).

Teorema 31. Sea f : V → V 0 una aplicación lineal. Las siguientes afirmaciones son
ciertas:
3.4. NÚCLEO E IMAGEN. 49

(1) f es inyectiva si y sólo si Ker(f ) = {0̄}.

(2) f es sobreyectiva si y sólo si Im(f ) = V 0 .

Demostración. Veamos (1), y empecemos con (⇒). Si f es inyectiva entonces f (ū) = f (v̄)
implica ū = v̄. Si w̄ ∈ Ker(f ) entonces f (w̄) = 0̄; sin embargo, como f es lineal entonces de
la afirmación (1) de Proposición 20, se tiene que f (0̄) = 0̄. Por tanto, f (w̄) = f (0̄) y como
f es inyectiva w̄ = 0̄, lo que implica que Ker(f ) = {0̄}. Recı́procamente, supongamos que
Ker(f ) = {0̄} y supongamos también, por reducción al absurdo, que existen ū, v̄ ∈ V, ū 6= v̄
tales que f (ū) = f (v̄). Por lo tanto f (ū) − f (v̄) = 0̄ y como f es lineal, f (ū − v̄) = 0̄,
lo que implica que ū − v̄ ∈ Ker(f ). Como ū 6= v̄ entonces ū − v̄ 6= 0̄, lo que contradice
Ker(f ) = {0̄}. La afirmación (2) se deduce de la definición de aplicación sobreyectiva.

El corolario siguiente, que proporciona una herramienta muy práctica para estudiar el
carácter inyectivo o sobreyectivo de una aplicación, se deduce de Teorema 31, Teorema 29
y de la afirmación (iii) de Proposición 28.

Corolario 32. Sea f : Vn → Vm una aplicación lineal, y sea A ∈ Am×n la matriz asociada
a f en las bases B, B 0 . Las siguientes afirmaciones son ciertas:

(i) f es inyectiva si y sólo si rg(A) = n.

(ii) f es sobreyectiva si y sólo si rg(A) = m.

(iii) f es biyectiva si y sólo si m = n y A es una matriz cuadrada regular.

Las aplicaciones lineales biyectivas, también llamadas isomorfismos (véase Definición


21) son importantes porque transforman bases de V en bases de V 0 (recuérdese que esto
no es cierto, en general, para cualquier aplicación lineal).

Teorema 33. Si f : V → V 0 es un isomorfismo y {ū1 , . . . , ūn } es una base de V , entonces


{f (ū1 ), . . . , f (ūn )} es una base de V 0 .

Terminamos con algunas ideas sobre endomorfismos, es decir, sobre aplicaciones lineales
f : V → V . En este caso, la matriz A asociada con f en cualquier base es cuadrada. De
Corolario 32 se deduce que:

(1) Si |A| =
6 0 entonces f es bijyectiva. En ese caso, se dice que f es un automorfismo
(endomorfismo biyectivo).

(2) Si |A| = 0 entonces f no es inyectiva ni sobreyectiva.

Si f es un automorfismo, entonces f −1 existe. Veamos un ejemplo: consideremos f :


R → R2 , f (x, y) = (x + y, −x + y). Para encontrar f −1 hacemos x0 := x + y, y 0 := −x + y;
2
0 0 0 0
entonces x = x −y
2
, y = x +y
2
, y por tanto f −1 : R2 → R2 , f −1 (x0 , y 0 ) = ( 21 x0 − 21 y 0 , 12 x0 + 12 y 0 ).
50 CAPÍTULO 3. APLICACIONES LINEALES.

Observemos que f −1 también es lineal. Como f, f −1 son ambas lineales, podemos comparar
sus matrices asociadas:
   1 1

1 1 −
Af = Af −1 = 2
1
2
1
−1 1 2 2

Observamos que Af −1 = A−1f . De hecho se tiene el siguiente resultado, que justifica el


nombre “inversa”para la matriz inversa.

Proposición 34. Sea f : V → V un automorfismo, y sea Af la matriz de f . La inversa


f −1 : V → V es lineal, y su matriz asociada es A−1 .
Capı́tulo 4

Diagonalización

En el Tema 3 hemos visto que las matrices asociadas a un mismo endomorfismo en


diferentes bases son semejantes. Es decir, si A, A0 son las matrices asociadas a una aplicación
lineal f : V → V en dos bases distintas, y P es la matriz de cambio de base entre dichas
bases, entonces
A0 = P −1 · A · P.
Podemos preguntarnos si existe alguna base en la cuál la matriz A0 tenga una forma
especialmente sencilla, en particular una base en la que sea diagonal. Queremos averiguar
si existe una base ası́, y en caso afirmativo queremos encontrar un método para calcular
dicha base, y la matriz A0 . Este es el problema que estudiaremos en este tema. Ahora
mismo, esta cuestión puede parecer un tanto abstracta o teórica, pero en el siguiente tema
veremos que resulta muy útil para resolver cuestiones muy concretas.

4.1. Autovalores, autovectores, autoespacios


Comenzamos con la siguiente definición:
Definición 35. Sea f : V → V un endomorfismo. Decimos que λ ∈ R ó C es un autovalor
de f si existe v̄ ∈ V , v̄ 6= 0̄, tal que f (v̄) = λv̄. Además, en ese caso decimos que v̄ es un
autovector asociado al autovalor λ. Si A es la matriz de f en una cierta base, a menudo
se habla de los autovalores o los autovectores de A, para referirse a los autovalores o
autovectores del endomorfismo f (v̄) = Av̄ definido por A.
Veamos un ejemplo. Sea f : R2 → R2 , f (x, y) = (x + 2y, 2x + y) en la base canónica. Se
puede ver que f (1, −1) = (−1, 1) = (−1) · (1, −1); por lo tanto, λ = −1 es un autovalor, y
(1, −1) es un autovector asociado a λ = −1. La matriz asociada con f en la base canónica
es  
1 2
A=
2 1
Por tanto, se dice también que λ = −1 es un autovalor de A, y que (−1, 1) es un autovector
de A.

51
52 CAPÍTULO 4. DIAGONALIZACIÓN

Los autovalores de una matriz, como consta en la definición de autovalor, pueden ser
reales o complejos. Determinar los autovalores complejos puede ser útil en determinadas
circunstancias, como veremos en el próximo tema. Además, si un autovalor de una matriz
A con elementos reales es complejo, sus autovectores son complejos también (es decir, sus
coordenadas son números complejos).
Para determinar los autovalores observamos lo siguiente:

f (v̄) = λ · v̄ ⇔ A · v̄ = λ · v̄ ⇔ (A − λ · I)v̄ = 0,

donde I es la matriz identidad. Como por definición v̄ 6= 0, buscamos λ tal que el sistema
homogéno (A − λ · I)v̄ = 0 tenga soluciones distintas de la trivial. Sin embargo, esto sucede
si y sólo si |A − λ · I| = 0. Se dice que

p(λ) = |A − λ · I|

es el polinomio caracterı́stico de la matriz A (o del endomorfismo f ). Por lo tanto, los


autovalores de A son las raı́ces, reales o complejas, de p(λ). Observemos que el grado de
p(λ) es el orden de la matriz cuadrada A (es decir, la dimensión del espacio vectorial V
donde está definido el endomorfismo f ). Además, si λ = λi es una raı́z de multiplicidad ni
de p(λ), es decir si se cumple que

p(λ) = (λ − λi )ni · q(λ),

decimos que ni es la multiplicidad algebraica de λi . Si ni = 1 decimos que el autovalor


es simple, y si ni 6= 1, que es múltiple.
Los subespacios vectoriales aparecen también en este contexto.
Proposición 36. El conjunto de todos los autovectores asociados a un mismo autovalor λ
de una matriz A forma un subespacio vectorial.
Demostración. Sea λ un autovalor de una matriz A, y sea f el endomorfismo asociado a
A. Además, sea Lλ el conjunto de todos los vectores asociados con λ, es decir el conjunto
de todos los w̄ ∈ V tales que f (w̄) = λ · w̄. Sean además ū, v̄ ∈ Lλ , y sean α, β ∈ R; nos
preguntamos si αū + βv̄ ∈ Lλ . Como f es lineal entonces

f (αū + βv̄) = αf (ū) + βf (v̄) = α · λū + β · λv̄ = λ · (αū + βv̄)

Por lo tanto, αū + βv̄ ∈ Lλ y se verifica el resultado.


La Proposición 36 justifica la definición siguiente.
Definición 37. Para cada autovalor λi , el subespacio vectorial de todos los autovectores
asociados con λi recibe el nombre de autoespacio de λi . Lo representamos por Lλi . La
dimensión de Lλi se llama multiplicidad geométrica de λi .
Los autoespacios satisfacen las siguientes propiedades, que se deducen de las definiciones
anteriores:
4.2. DIAGONALIZABILIDAD. 53

(1) Lλi es el conjunto de soluciones de (A − λi I) · v̄ = 0̄.


(2) dim(Lλi ) = n − rg(A − λi I), donde n es el orden de A.

Además, los siguientes resultados, que utilizaremos más adelante, se verifican también.
Teorema 38. Sea ni la multiplicidad algebraica de un autovalor λi . Se cumple que

1 ≤ dim(Lλi ) ≤ ni

Teorema 39. Sea f : V → V una aplicación lineal con p autovalores distintos λ1 , . . . , λp .


Entonces, los autovectores v̄1 , . . . , v̄p asociados a ellos son linealmente independientes.
En particular, si la matriz A tiene n autovalores distintos, del teorema anterior se
deduce que hay n autovectores linealmente independientes, y por lo tanto una base de
autovectores. Veremos que conseguir una base de autovectores es precisamente la clave
para resolver nuestro problema.

4.2. Diagonalizabilidad.
En este apartado estudiamos el problema propuesto al principio del tema. Dada una
matriz A, que corresponde a un cierto endomorfismo f , nos preguntamos si existe alguna
base en la que la matriz sea diagonal (es decir, tal que la matriz asociada al endomorfismo
f definido por A sea diagonal). Esto equivale a preguntarse si A es semejante a alguna
matriz diagonal, es decir, si existen alguna matriz diagonal D y alguna matriz regular P
tales que
D = P −1 · A · P (4.1)
Definición 40. Sea A una matriz cuadrada, y sea f el endomorfismo que representa.
Decimos que A (ó f ) es diagonalizable si existe alguna base tal que la matriz asociada a
f en dicha base sea diagonal, es decir, si la matriz A es semejante a alguna matriz diagonal
D.
El siguiente teorema proporciona una primera caracterización de las matrices (o equi-
valentemente de los endomorfismos) diagonalizables.
Teorema 41. Un endomorfismo f : V → V es diagonalizable si y sólo si V tiene una base
de autovectores.
Demostración. Veamos (⇒). Si f : V → V es diagonalizable, entonces existe una base
B = {ū1 , ū2 , . . . , ūn } donde la matriz de f es diagonal, es decir, donde la matriz tiene el
siguiente aspecto:  
λ1 0 · · · 0
 0 λ2 · · · 0 
 
 .. .. . . .. 
 . . . . 
0 0 · · · λn
54 CAPÍTULO 4. DIAGONALIZACIÓN

Como las columnas de esta matriz son las imágenes de los vectores de la base B, se tiene
que f (ūi ) = λi · ūi para i = 1, 2, . . . , n. Por lo tanto, cada vector de B es un autovctor.
Veamos ahora (⇐). Si hay una base B = {ū1 , ū2 , . . . , ūn } de autovectores, entonces para
i = 1, 2, . . . , n se cumple que f (ūi ) = λi · ūi ; como las columnas de la matriz de f en la base
B son los f (ūi )’s escritos en la base B, deducimos que la matriz en esa base es diagonal.
El teorema anterior sugiere que si existe una matriz diagonal D equivalente a A, enton-
ces los elementos de la diagonal principal de D son los autovalores de la matriz A. Si dichos
elementos son reales, se dice que A es diagonalizable sobre los reales. Además, la base en
la que A es diagonalizable es precisamente la base formada por los autovectores; en otras
palabras, las columnas de la matriz P son los vectores de esa base. Aunque el Teorema 41
ya proporciona una herramienta útil para identificar si A es diagonalizable o no, podemos
hacerlo aún mejor.
Teorema 42. Sea V un espacio vectorial sobre R de dimensión n, y sea f : Vn → Vn
un endomorfismo. Entonces f es diagonalizable sobre los reales si y sólo si se cumplen las
siguientes dos condiciones:
(i) El número total de autovalores reales, contando multiplicidades, es n.
(ii) La multiplicidad geométrica de cada autovalor es igual a su multiplicidad algebraica.
Demostración. Veamos (⇒). Sea p(λ) = an (λ − λ1 )n1 · · · (λ − λp )np · q(λ), donde λi ∈ R y
q(λ) tiene únicamente raı́ces complejas conjugadas. Como el grado de p(λ) es igual a n, se
tiene que n1 + · · · + np + deg(q(λ)) = n, donde deg(q(λ)) representa el grado de q(λ). Como
por el Teorema 38 se cumple que 1 ≤ dim(Lλi ) ≤ ni para i = 1, . . . , p, se puede ver que si
q(λ) no es constante, es decir si existen autovalores complejos, entonces n1 + · · · + np < n
y no podemos conseguir una base de autovectores; por lo tanto la condición (i) se deduce
del Teorema 41. Además, si todos los autovalores son reales entonces n1 + · · · + np = n,
pero como 1 ≤ dim(Lλi ) ≤ ni para i = 1, . . . , p la única forma de conseguir una base de
autovectores es que dim(Lλi ) = ni para i = 1, . . . , p. La implicación (⇐) se deduce del
Teorema 39.
El siguiente corolario se deduce del Teorema 42 y el Teorema 38.
Corolario 43. Si todos los autovalores de una matriz A son reales y distintos, entonces A
es diagonalizable.
Se puede probar, aunque la demostración no es trivial, que toda matriz simétrica es
diagonalizable.
Terminamos con una aplicación al cálculo de potencias de matrices, que será de
utilidad en el siguiente tema. Supongamos que A es diagonalizable. Queremos calcular de
manera eficiente el valor de la potencia An , donde n es un entero positivo, es decir, el
resultado de multiplicar A por sı́ misma n veces. De (4.1), sabemos que A = P · D · P −1 .
Por tanto,
n n (?)
An = A · A · · · A = (P · D · P −1 ) · (P · D · P −1 ) · · · (P · D · P −1 ) =
4.2. DIAGONALIZABILIDAD. 55

Como el producto de matrices es asociativo y P −1 · P = I (la matriz identidad), se tiene


que
(?) n
= P · D · (P −1 · P ) ·D · · · D (P −1 · P ) ·D · P −1 = P · Dn · P −1
| {z } | {z }
I I
n
Finalmente, como D es diagonal, D es también una matriz diagonal, cuyos elementos son
las potencias n-ésimas de los elementos de D, es decir, las potencias λni ’s; por lo tanto, una
vez que conocemos D y P , podemos calcular An fácilmente. Resumimos estas ideas en el
siguiente resultado.

Proposición 44. Sea A una matriz diagonalizable, A = P · D · P −1 . Entonces,

An = P · Dn · P −1

Potrebbero piacerti anche