Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
2. Espacios vectoriales. 23
2.1. Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2. Dependencia lineal. Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3. Subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Ecuaciones de un subespacio vectorial. . . . . . . . . . . . . . . . . . . . . 35
2.5. Cambio de base en un espacio vectorial. . . . . . . . . . . . . . . . . . . . . 37
3. Aplicaciones lineales. 39
3.1. Nociones básicas sobre aplicaciones lineales . . . . . . . . . . . . . . . . . . 39
3.2. Eucación matricial de una aplicación lineal. . . . . . . . . . . . . . . . . . 42
3.3. Matrices semejantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4. Núcleo e Imagen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4. Diagonalización 51
4.1. Autovalores, autovectores, autoespacios . . . . . . . . . . . . . . . . . . . . 51
4.2. Diagonalizabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6. Espacios Euclı́deos. 79
6.1. Producto escalar. Ortogonalidad. . . . . . . . . . . . . . . . . . . . . . . . 81
3
4 ÍNDICE GENERAL
7. Álgebra de Boole 97
7.1. Operadores lógicos y Álgebras de Boole . . . . . . . . . . . . . . . . . . . . 97
7.2. Funciones booleanas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.3. Formas normales disyuntiva y conjuntiva . . . . . . . . . . . . . . . . . . . 103
7.4. Puertas lógicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.5. Simplificación de funciones booleanas . . . . . . . . . . . . . . . . . . . . . 108
Capı́tulo 1
Un circuito eléctrico es una red eléctrica cerrada formada por la conexión de varios
componentes, como por ejemplo fuentes de alimentación, resistencias, condensadores, so-
lenoides, etc. Habitualmente, los circuitos eléctricos constan de diferentes mallas (caminos
cerrados dentro del circuito), y la intensidad de la corriente que circula por diferentes tra-
mos del circuito es diferente. Para determinar la intensidad de cada tramo se aplican las
leyes de Kirchoff: (1) en cada nodo (punto del circuito donde concurren varios conducto-
res), la suma de las intensidades que entran es igual a la suma de las intensidades que
salen; (2) la suma de los voltajes en cada malla es 0. Aplicando estas leyes a un circuito
como el de abajo (que sólo contiene resistencias),
i1 i2
1Ω
25 Ω 30 Ω
1Ω
10 v
i3
50 Ω 55 Ω
obtenemos el siguiente sistema de ecuaciones, donde las incógnitas son las intensidades de
corriente i1 , i2 , i3 :
76i1 − 25i2 − 50i3 = 10
−25i1 + 56i2 − i3 = 0
−50i1 − i2 + 106i3 = 0
5
6 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.
1.1. Matrices.
Una matriz Am×n es una colección de números (elementos) ordenados en filas y co-
lumnas:
a11 a12 · · · a1n → r1
a21 a22
· · · a2n → r2
.. .. ... .. ..
. . . .
am1 am2 · · · amn → rm
↓ ↓ ↓
c1 c2 · · · cn
Las matrices se suelen representar por letras mayúsculas A, B, . . . Los aij ’s se llaman ele-
mentos de la matriz. Decimos que la dimensión de A es m × n, donde m representa el
número de filas, y n el número de columnas. Si m = n, decimos que A es cuadrada, y
que n es el orden de A. Las matrices cuadradas se representan a veces en la forma An
para explicitar cuál es su orden. Si m 6= n, decimos que A es rectangular. Si A es una
matriz cuadrada de dimensión n, los elementos de la forma aii , con i = 1, . . . , n, forman la
diagonal principal de la matriz; la suma de estos elementos se llama traza de la matriz:
Si todos los elementos por debajo (resp. por encima) de la diagonal principal son 0,
decimos que la matriz es triangular superior (resp. inferior).
La matriz nula de dimensión m × n es una matriz cuyos elementos son, todos ellos,
nulos.
Una matriz fila es una matriz de dimensión 1 × n. Una matriz columna es una
matriz de dimensión m × 1. Las matrices B, C de abajo son matrices fila y columna,
respectivamente.
a11
a21
B= a11 a12 · · · a1n , C=
···
am1
A, B:
a11 · · · a1n
a12 b11 b12 · · · b1n
a21 · · · a2n
a22
b21 b22 · · ·
b2n
A= .. , B = .. ⇒
.. . ... .. . . ..
. .. . . . . .
am1 am2 · · · amn bm1 bm2 · · · bmn
a11 + b11 a12 + b12 · · · a1n + b1n
a21 + b21 a22 + b22 · · · a2n + b2n
⇒A+B =
.. .. ... ..
. . .
am1 + bm1 am2 + bm2 · · · amn + bmn
La suma de matrices satisface las siguientes propiedades:
Conmutativa: A + B = B + A.
Asociativa: A + (B + C) = (A + B) + C. Por lo tanto, tiene sentido escribir A + B + C.
Elemento neutro: para toda matriz A existe una matrix 0, tal que A + 0 = 0 + A = A
(0 es la matriz nula de la misma dimensión que A)
Elemento inverso: para toda matriz A existe otra matriz, la opuesta de A, −A, tal
que A + (−A) = (−A) + A = 0 (el elemento neutro).
bn1
1.1. MATRICES. 9
Con mayor generalidad, dadas Am×n , Bn×p (obsérvese que el número de columnas de A es
igual al número de filas de B; de lo contrario, el producto A · B no existe) el producto
A · B es otra matriz de dimensión m × p (es decir, con el mismo número de filas que A, y el
mismo número de columnas que B) donde el elemento i, j es el resultado de multiplicar la
fila i-ésima de A por la columna j-ésima de B; para realizar dicha multiplicación, se aplica
la regla anterior para el producto de una matriz fila por una matriz columna. Por lo tanto,
Distributiva: A · (B + C) = A · B + A · C.
Elemento neutro para las matrices cuadradas: la matriz identidad del mismo orden,
que se representa por I. En otras palabras, si A es una matriz cuadrada de orden n,
e I es la matriz identidad de orden n, A · I = I · A = A.
(A · B)t = B t · At .
Obsérvese que mientras que resulta inmediato definir la diferencia de matrices a partir
de la suma y de la noción de matriz opuesta, no está claro cómo definir la división de
matrices a partir de la multiplicación. De hecho, la división de matrices no está definida;
en lugar de esto, se utiliza la inversa de una matriz. Sin embargo, esta noción es más
sutil que en el caso de la división numérica: sólo se aplica a matrices cuadradas, y ni siquiera
todas las matrices cuadradas tienen inversa. De momento, introduciremos la definición, y
daremos algunas de sus propiedades; veremos cómo calcular matrices inversas más tarde.
Dada una matriz inversa A, la inversa de A, si existe, es la matriz A−1 que cumple:
A · A−1 = A−1 · A = I.
Algunas propiedades:
1. A−1 no siempre existe. Daremos una caracterización para su existencia más adelante,
cuando hayamos introducido la noción de determinante.
3. (A · B)−1 = B −1 · A−1
1
Puede pasar que dos matrices conmuten; pero esto no sucede en general para dos matrices cualesquiera.
10 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.
1.2. Determinantes.
Dada una matriz cuadrada A, el determinante de A, que se representa por det(A) o,
más habitualmente, por |A|, es un número que se asocia con A. Si el orden de A es n, se
dice también que el orden de |A| es n. Los determinantes se definen de forma recursiva:
primero se define el determinante de una matriz de orden 2, a partir de ahı́ se define el
determinante de una matriz de orden 3, a continuación y a partir de éste el de una matriz
de orden 4, etc. Si A es 2 × 2, entonces |A| se define del siguiente modo:
a11 a12
|A| =
= a11 · a22 − a12 · a21
a21 a22
Los determinantes de orden 3 requieren un poco más de trabajo. En primer lugar, se define
el menor correspondiente al elemento aij , αij , como el determinante de orden 2 obtenido
al eliminar la fila y la columna a las que pertenece el elemento aij . El adjunto o menor
complementario de aij , Aij , es el menor correspondiente a aij multiplicado por 1, si la suma
de los subı́ndices i, j es par, o por −1, si la suma de los subı́ndices i, j es impar:
con p = 1, 2, 3. En este caso decimos que hemos desarrollado el determinante por la fila p.
El valor de |A| no depende de la fila por la cuál se desarrolla. Además, se puede desarrollar
también por una columna
Obsérvese que si |A| tiene orden n, entonces los Aij ’s son determinantes de orden n − 1.
Por lo tanto, si sabemos calcular determinantes de orden 3 entonces podemos calcular
determinantes de orden 4, a partir de éstos los de orden 5, etc.
1.2. DETERMINANTES. 11
La regla de Sarrus nos dice que valor de |A| es la suma de los productos que aparecen en
el primer determinante, menos la suma de los productos que aparecen en el segundo.
Los determinantes poseen muchas propiedades notables:
3. Si todos los elementos de una fila o columna poseen un mismo factor, entonces dicho
factor se puede extraer fuera del determinante; por ejemplo,
a11 a12 a13 a11 a12 a13
α · a21 α · a22 α · a23 = α · a21 a22 a23
a31 a32 a33 a31 a32 a33
4. Si todos los elementos de una fila o columna pueden escribirse como suma de dos,
entonces el determinante también puede escribirse como suma de dos determinantes:
a 11 a 12 a 13
a11 a12 a13 a11 a12 a13
a21 + b21 a22 + b22 a23 + b23 = a21 a22 a23 + b21 b22 b23
a31 a32 a33 a31 a32 a33 a31 a32 a33
6. Si A tiene una fila o una columna de ceros, entonces |A| = 0. Si A tiene dos filas o
dos columnas iguales o proporcionales, entonces |A| = 0.
Quedan aún dos propiedades, que de hecho son las más importantes. Para introducirlas
necesitamos la idea de combinación lineal, que resulta esencial en Álgebra Lineal. Si
r1 , r2 , . . . , r` son filas de una matriz A, decimos que otra fila r es combinación lineal de
r1 , r2 , . . . , r` si existen números λ1 , λ2 , . . . , λ` tales que
r = λ1 · r1 + λ2 · r2 + · · · + λ` · r`
12 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.
En ese caso, se dice que r depende linealmente de r1 , r2 , . . . , r` . Además, se dice que varias
filas son linealmente dependientes si una de ellas depende linealmente de las demás. De
forma similar se pueden definir las combinaciones lineales de columnas, o la dependencia
lineal entre columnas. Si varias filas/columnas no son linealmente dependientes, entonces
se dice que son linealmente independientes.
Con estas ideas, ya estamos en condiciones de introducir las dos últimas propiedades
de los determinantes:
8. El valor del determinante no cambia si a una fila o columna se le suma una combi-
nación lineal de otras filas o columnas.
Se dice que una matriz cuadrada de orden n tiene rango completo si rg(A) = n.
Por definición de rango, esto sucede si y sólo si |A| =
6 0.
rg(A) = rg(At ).
Una fila/columna de 0’s no cuenta para el cálculo del rango de A. Asimismo, una
fila/columna que es múltiplo de otra fila/columna, o combinación lineal de varias
filas/columnas, no cuenta tampoco.
(iii) Ampliamos ahora a rango 3. Para ello, buscamos menores de orden 3 que contengan el
menor de orden 2 que nos dio rango 2, y que sean no nulos. Si no podemos encontrar
ninguno, entonces rg(A) = 2; de lo contrario, el rango de A es al menos 3, etc.
(iv) El proceso anterior obviamente termina en algún momento: como rg(A) ≤ min(m, n),
en un cierto momento no podemos ampliar más el rango. La clave de este método
está en que no tenemos que probar con todos los menores de un cierto orden, sino
sólo con aquellos que contienen el menor no nulo que encontramos en el paso anterior.
14 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.
Los • representan elementos no nulos. Los ? representan números que pueden o no ser 0.
Obsérvese que en cada fila los elementos a la izquierda de • son nulos, y en cada columna
los elementos por debajo de • son también nulos. El proceso que lleva de A a A0 se llama
triangulación, y los • se llaman pivotes.
Para triangular (a veces se habla también de escalonar) una matriz, se parte de la
matriz A y se trabaja por columnas de la siguiente manera (representamos la fila i-ésima
por ri ):
(1) El primer objetivo es conseguir que el primer elemento de la primera fila (es decir,
el • de la primera fila) sea no nulo. Si a11 6= 0, no hay nada que hacer y pasamos
a (2). Si a11 = 0, buscamos el primer elemento no nulo de la primera columna por
debajo de a11 , es decir el primer ai1 6= 0 con i > 1, e intercambiamos la fila i-ésima,
en la que se encuentra ai1 , con la fila 1; en ese momento, a11 = 0.
(2) Hacemos ceros en la primera columna, por debajo del elemento a11 . Para ello, para
cada i = 2, . . . , n sumamos a la fila i-ésima la fila 1 multiplicada por − aa11
i1
, es decir:
ai1
ri → ri − · r1 .
a11
(3) Nos movemos al elemento a22 , es decir, en diagonal, a partir del elemento a11 . Ahora
querremos que el segundo elemento de la segunda fila sea no nulo. Si a22 6= 0, pasamos
a (4). Si a22 = 0 buscamos el primer elemento no nulo de la columna 2 por debajo de
a22 , es decir el primer ai2 6= 0 con i > 2, e intercambiamos la fila i-ésima, en la que se
2
Si la hubiera, basta con empezar a trabajar con la primera columna no nula.
1.4. MÉTODO DE ELIMINACIÓN DE GAUSS. 15
encuentra ai2 , con la fila 2; en ese momento, a22 = 0. Si algún elemento de la segunda
columna, además de a12 , es no nulo, podremos conseguirlo. Si no podemos conseguirlo,
en cuyo caso a22 = 0 y todos los elementos de la segunda columna por debajo de a22
son 0, nos movemos en horizontal, es decir, al elemento a23 , y repetimos el proceso: si
a23 6= 0 pasamos a (4), si a23 = 0 buscamos el primer elemento no nulo de la tercera
columna por debajo de a23 , e intercambiamos la fila en la que se encuentra dicho
elemento con la fila 2, etc. Eventualmente o bien llegamos a a2j 6= 0, donde todos los
elementos de la fila 2 a la izquierda de a2j son nulos, o bien nuestra matriz cumple
que todas las filas por debajo de la primera son nulas. En el primer caso, el • de la
segunda fila es a2j , y en el segundo la matriz ya está escalonada, y hemos terminado.
Si no hemos terminado:
(4) Hacemos ceros en la segunda columna, por debajo del elemento a22 ; en su caso, si
no hemos podido conseguir a22 = 0, hacemos ceros en la columna j-ésima por debajo
del elemento a2j . Para ello, para cada i = 3, . . . , n sumamos a la fila i-ésima la fila 2
multiplicada por − aa22i2
; en su caso, si no hemos podido conseguir a22 = 0, para cada
aij
i = 3, . . . , n sumamos a la fila i-ésima la fila 2 multiplicada por − a2j . Es decir,
ai2
ri → ri − · r2
a22
o, en su caso,
aij
ri → ri − · r2 .
a2j
(5) Nos movemos de nuevo en diagonal a partir del elemento anterior, y procedemos de
nuevo como antes: si el elemento que obtenemos es no nulo hacemos ceros por debajo
de él, y si es nulo buscamos el primer elemento en su columna, y por debajo de él,
que no lo sea...
(6) etc.
Por lo tanto, en general primero conseguimos el • de cada fila, después hacemos ceros por
debajo de él, y a continuación nos movemos en diagonal, para conseguir el próximo •, o en
horizontal, si moviéndonos en diagonal no conseguimos nada. Una vez determinada la forma
escalonada de la matriz A, rg(A) es el número de filas no nulas. En efecto, por definición
de rango ese es el rango de A0 ; pero como hemos obtenido A0 aplicando transformaciones
elementales por filas a A, y el rango no cambia cuando se aplican transformaciones por
filas, rg(A0 ) = rg(A).
Para otras aplicaciones, en lugar de la forma escalonada de la matriz se utiliza la forma
escalonada reducida:
16 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.
1 ? 0 ? ? 0 0 ?
0 0 1 ? ? 0 0 ?
0 0 0 0 0 1 0 ?
00
A =
0 0 0 0 0 0 1 ?
0 0 0 0 0 0 0 0
.. .. .. .. .. .. .. ..
. . . . . . . .
0 0 0 0 0 0 0 0
1. Escribir
A | I
I | A−1
A | I ⇒
donde los xi ’s son las incógnitas, los aij ’s son los coeficientes, y los bj ’s son los términos
independientes. Al principio del tema vimos un ejemplo de un sistema de este tipo en el
contexto de los circuitos eléctricos. Estos sistemas se pueden resolver de un modo rápido
y seguro, desde el punto de vista computacional, incluso aunque el número de ecuaciones
o de incógnitas sea muy grande; de hecho, los sistemas que encontramos en la práctica
tienen cientos de ecuaciones e incógnitas, y el número de ecuaciones y de incógnitas no es
necesariamente el mismo. Si bien cuando el sistema es pequeño resulta posible encontrar
la solución manipulando sin más las ecuaciones, para poder resolver sistemas grandes es
necesario disponer de un procedimiento claro y sistemático, que pueda programarse en un
ordenador. Este procedimiento es el método de Gauss, que veremos más adelante en esta
sección.
Para analizar y resolver un sistema lineal se definen dos matrices relacionadas con el
sistema. La primera es la matriz de coeficientes, cuyos elementos son los coeficientes de
las incógnitas:
a11 a12 · · · a1n
a21 a22 · · · a2n
A = ..
.. . . ..
. . . .
am1 am2 · · · amn
La segunda, llamada la matriz ampliada, es el resultado de añadir a la matriz de coefi-
cientes la columna formada por los términos independientes:
18 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.
a11 a12 · · · a1n b1
a21 a22 · · · a2n b2
B=
.. .. ... .. ..
. . . .
am1 am2 · · · amn bm
Obsérvese que las filas de estas matrices corresponden a las distintas ecuaciones, mien-
tras que las columnas corresponden a las diferentes incógnitas. Además, haciendo uso del
producto de matrices se puede escribir el sistema en forma matricial:
a11 a12 · · · a1n x1 b1
a21 a22 · · · a2n x2 b2
.. · .. = .. ,
.. .. ..
. . . . . .
am1 am2 · · · amn xn bm
| {z } | {z } | {z }
A x b
o de forma abreviada, A · x = b. En ocasiones, x y b reciben los nombres de vector de
incógnitas y vector de términos independientes, respectivamente.
Lo primero que queremos saber es si el sistema tiene o no solución; en caso afirmativo,
además deseamos averiguar cuántas soluciones tiene. Se puede probar que si un sistema
de este tipo tiene más de una solución, de hecho tiene infinitas. Decimos que el sistema
es incompatible si no tiene solución. Si tiene solución, se dice que es compatible, y en
ese caso puede tener solución única, o infinitas soluciones; en el primer caso, diremos que
es compatible determinado, y en el segundo caso, compatible indeterminado. El
siguiente teorema permite clasificar un sistema, es decir, identificarlo como compatible o
incompatible, y en caso de compatibilidad, detectar si es determinado o indeterminado. En
el teorema resulta clave la noción de rango de una matriz.
Teorema 1 (Teorema de Rouche-Fröbenius). Sea A · x = b un sistema lineal de m ecua-
ciones y n incógnitas, y sea B la matriz ampliada del sistema. El sistema es compatible si y
sólo si rg(A) = rg(B); además, si el sistema es compatible entonces es compatible determi-
nado cuando rg(A) = rg(B) = n, y compatible indeterminado cuando rg(A) = rg(B) < n.
Demostración. Únicamente probaremos la primera parte. La clave está en escribir el siste-
ma en la siguiente forma:
a11 a12 a1n b1
a21 a22 a2n b2
x1 · .. +x2 · .. + · · · + xn · .. = .. ,
. . . .
am1 am2 amn bm
| {z } | {z } | {z } | {z }
c1 c2 cn b
x1 x2 x3 x4 x5 x6 x7 x8 b
↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
a
1 → •1 • 2 ? ? ? ? ? ? ?
2a → 0 0 •3 •4 •5 ? ? ? ?
3a → 0 0 0 0 0 •6 ? ? ?
4a → 0 0 0 0 0 0 •7 •8 ?
5a → 0 0 0 0 0 0 0 0 ?
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
a
m → 0 0 0 0 0 0 0 0 ?
Los •k ’s corresponden a coeficientes no nulos, mientras que los términos ?’s pueden ser
igual a 0, o no. Además, las columnas corresponden a los coeficientes de cada incógnita en
las nuevas ecuaciones, mientras que las filas corresponden a las nuevas ecuaciones 1a , 2a ,
3a , etc. Estos coeficientes definen un nuevo sistema, equivalente al original:
• 1 · x1 + • 2 · x2 + ? · x3 + ? · x4 + ? · x 5 + ? · x6 + ? · x7 + ? · x8 = ?
•3 · x3 + •4 · x4 + •5 · x5 + ? · x6 + ? · x7 + ? · x8 = ?
•6 · x6 + ? · x7 + ? · x8 = ?
•7 · x 7 + • · x8 = ?
0 = ?
..
.
0 = ?
Las ecuaciones, al final del sistema, del tipo 0 = ? nos permiten decidir si el sistema es
compatible o no: si algún ? es no nulo en alguna de esas ecuaciones, entonces el sistema
1.6. SISTEMAS LINEALES 21
Obsérvese que ahora los ˆ? han absorbido algunas incógnitas; por ejemplo, x2 ha sido absor-
bida en la primera fila, x4 , x5 en la segunda, etc. Por lo tanto, el sistema correspondiente
es:
•1 · x1 + ? · x3 + ? · x6 + ? · x7 = ˆ?1
•3 · x3 + ? · x6 + ? · x7 = ˆ?2
•6 · x6 + ? · x7 = ˆ?3
•7 · x7 = ˆ?4
Ası́, los términos independientes ˜?k son de hecho los valores de las incógnitas. Este es el
método que se utiliza en los paquetes de software matemático. Con este método, sistemas
22 CAPÍTULO 1. MATRICES Y SISTEMAS LINEALES.
Como en este caso la matriz ampliada y la matriz de coeficientes difieren sólo en una
columna de ceros, sus rangos coinciden. Por lo tanto, por el Teorema de Rouche-Fröbenius
estos sistemas siempre son compatibles. De hecho, cualquier sistema homogéneo admite lo
que llamamos solución trivial, x1 = x2 = · · · = xn = 0. Lo interesante en un sistema
homogéneo es si éste admite otras soluciones, además de la trivial. De hecho, si admite otras
soluciones además de la trivial significa que la solución no es única, y por lo tanto el sistema
admite infinitas soluciones. Si rg(A) = n, por el Teorema de Rouche-Fröbenius el sistema
tiene solución única, y puesto que la solución trivial siempre está ahı́, la única solución
es la trivial. Si rg(A) < n hay infinitas soluciones distintas de la trivial. Si el sistema es
cuadrado, es decir si tiene tantas incógnitas como ecuaciones, entonces el sistema tiene
soluciones no triviales si y sólo si |A| = 0.
Capı́tulo 2
Espacios vectoriales.
Las matrices, los polinomios y las funciones tienen algo en común, además del hecho
de ser habitantes del “universo matemático”. En los tres conjuntos podemos definir dos
operaciones, suma y producto por un número, que dan lugar a otros elementos del mismo
conjunto. Para ser más precisos, consideremos el conjunto de las matrices Am×n . Dadas
dos matrices A, B ∈ Am×n sabemos cómo calcular A + B; además, A + B ∈ Am×n . Por
otra parte, dado λ ∈ R sabemos también calcular λ · A, y λ · A ∈ Am×n . Análogamente, la
suma de dos polinomios (resp. dos funciones) produce otro polinomio (resp. otra función),
y el producto de un polinomio (resp. una función) por un número proporciona, de nuevo,
un polinomio (resp. una función). Podemos resumir todo esto diciendo que en cualquiera
de estos casos, dados dos elementos A, B del conjunto y dos números λ, µ ∈ R, la expresión
λ · A + µ · B tiene sentido, y corresponde a otro elemento del mismo conjunto. La operación
λ · A + µ · B apareció ya en el Tema 1, Sección 1.2: la llamamos combinación lineal. Por
lo tanto, podemos decir que en el conjunto de matrices de una cierta dimensión, en el
conjunto de los polinomios o en el de las funciones, la noción de combinación lineal tiene
sentido, y produce un nuevo elemento dentro del mismo conjunto.
Para ver que la idea anterior es más profunda de lo que podrı́a pensarse, consideremos
ahora un ejemplo ligeramente más complicado. Del mismo modo que una ecuación como
x2 − 4 = 0 representa una relación satisfecha por determinados números que queremos
encontrar (en este caso, aquellos cuyo cuadrado es igual a 4), una ecuación diferencial es
una relación satisfecha por una cierta función o funciones desconocidas, y algunas de sus
derivadas. Por ejemplo, la ecuación diferencial
y 00 (t) + y(t) = 0,
representa a aquellas funciones cuya derivada segunda es igual al opuesto de la propia
funcón. Una función que satisface esta ecuación, y que por lo tanto es una solución de la
misma, es y(t) = cos(t) (porque y 0 (t) = −sin(t) y por tanto y 00 (t) = −cos(t) = −y(t)).
Pero no es la única. Se puede comprobar que sin(t) también satisface la ecuación, y de
hecho que como consecuencia de las propiedades de la derivada, dadas dos soluciones
y1 (t), y2 (t) cualesquiera de la ecuación y dados dos números reales cualesquiera λ, µ ∈ R,
λ · y1 (t) + µ · y2 (t), es decir cualquier combinación lineal de y1 (t), y2 (t), es también solución
23
24 CAPÍTULO 2. ESPACIOS VECTORIALES.
Para precisar que el cuerpo de escalares es, por ejemplo, R, se escribe (V (R), +, ·) (si
fuera C, escribirı́amos (V (C), +, ·)). Son espacios vectoriales sobre los reales (y sobre los
complejos también) el conjunto de matrices de una dimensión fija, el de polinomios o el de
funciones. Además los conjuntos de vectores del plano R2 y de vectores del espacio R3 son
también espacios vectoriales. Estos últimos se pueden generalizar a cualquier dimensión,
no sólo 2 ó 3, dando lugar al conjunto Rn : los elementos de Rn , n ∈ N, son los conjuntos
de n-tuplas:
Rn = {(x1 , x2 , . . . , xn )|xi ∈ R ∀i = 1, 2, . . . , n}.
La suma en Rn se define de un modo natural,
λ · (x1 , x2 , . . . , xn ) = (λ · x1 , λ · x2 , . . . , λ · xn ).
Teorema 4. Los vectores {ū1 , ū2 , . . . , ūn } son linealmente independientes si y sólamente
si la única combinación lineal λ1 ū1 + · · · + λn ūn de estos vectores que proporciona el vector
~0, es aquella cuyos coeficientes son, todos ellos, iguales a cero: es decir,
λ1 ū1 + · · · + λn ūn = ~0 ⇒ λ1 = · · · = λn = 0.
Demostración. Para comprobar (⇒), supongamos por reducción al absurdo que {ū1 , ū2 , . . . , ūn }
son independientes, pero existen λi ’s, no todos cero, tales que λ1 ū1 + · · · + λūn = ~0. Su-
pongamos sin pérdida de generalidad que λ1 6= 0. Entonces podemos escribir
λ2 λn
ū1 = − ū2 − . . . − ūn ,
λ1 λ1
con lo cuál {ū1 , ū2 , . . . , ūn } son linealmente dependientes, lo cuál contradice la hipótesis
de que eran independientes. En la dirección (⇐), de nuevo por reducción al absurdo, si
{ū1 , ū2 , . . . , ūn } son linealmente independientes, entonces uno de ellos, por ejemplo ū1 ,
depende linealmente de los demás. Por lo tanto existen µ2 , . . . , µn ∈ R tales que ū1 =
µ2 · ū2 + · · · + µn · ūn . Sin embargo, en ese caso 1 · ū1 − µ2 · ū2 − · · · − µn · ūn = 0̄; y como
1 6= 0, deducimos que existe una combinación lineal de los vectores, con coeficientes no
todos nulos, que proporciona el vector 0̄.
Nos planteamos ahora si es posible encontrar algunos vectores que puedan generar
cualquier otro vector del espacio, por medio de combinaciones lineales. En caso afirmativo,
nos preguntamos qué condiciones deben cumplir esos vectores, y cuál es el mı́nimo número
de vectores que necesitamos. En la respuesta a estas preguntas las nociones de dependencia
e independencia lineal serán importantes. Las siguientes dos definiciones tienen que ver con
estas preguntas.
Definición 5. Decimos que S = {ū1 , . . . , ūn } es un sistema de generadores de V si
cualquier vector de V se puede escribir como combinación lineal de vectores de S.
Definición 6. Decimos que B = {ū1 , . . . , ūn } es una base de V si es un sistema de
generadores de V y los vectores de B son linealmente independientes.
Para ilustrar estos conceptos, consideremos el conjunto R2 y los vectores de R2 siguien-
tes: ū1 = (1, 0), ū2 = (0, 1), ū3 = (−1, 2). Se puede comprobar que S = {ū1 , ū2 , ū3 } es
un sistema de generadores de R2 : en efecto, dado cualquier vector ū = (u1 , u2 ) ∈ R2 , se
cumple que
ū = u1 · (1, 0) + u2 · (0, 1) + 0 · (−1, 2)
Por lo tanto, cualquier ū se puede escribir como combinación lineal de ū1 , ū2 , ū3 . Sin
embargo, S no es una base, porque ū3 = (−1) · (1, 0) + 2 · (0, 1); por lo tanto ū3 depende
linealmente de ū1 , ū2 y en consecuencia los vectores de S no son linealmente independientes.
Por otra parte, S 0 = {ū1 , ū2 } es una base de R2 : los vectores de S 0 son también sistema de
generadores de R2 , y no son linealmente dependientes porque ū1 y ū2 no son múltiplos el
uno del otro. Observemos que no decimos que {(0, 1), (1, 0)} sea la base de R2 , sino una
base de R2 , porque hay otras bases; por ejemplo, {(1, 1), (1, −1)} es otra base de R2 , y de
hecho hay infinitas. Otros ejemplos:
28 CAPÍTULO 2. ESPACIOS VECTORIALES.
{1, t, t2 , . . . , tn }
Teorema 7. Si V tiene dimensión finita, entonces todas las bases de V tienen el mismo
número de vectores.
Finalmente, vamos a ver que siempre que trabajemos en un espacio de dimensión finita,
en un cierto sentido podemos actuar como si estuviéramos en Rn . La clave es el siguiente
concepto.
Definición 10. Sea B = {ū1 , . . . , ūn } una base de V , y sea v̄ ∈ V . Las coordenadas de
v̄ con respecto a B son los coeficientes λ1 , . . . , λn ∈ R tales que
v̄ = λ1 ū1 + . . . + λn ūn
Habitualmente escribimos
v̄ = (λ1 , . . . , λn ) en B
La noción anterior implica que todo vector de V viene representado por una n-tupla
(λ1 , . . . , λn ), que de hecho se puede identificar con un elemento de Rn . Podemos pregun-
tarnos si estas coordenadas son únicas. El siguiente teorema proporciona una respuesta
afirmativa.
Teorema 11. Sea V un espacio vectorial de dimensión finita n, y sea B = {ū1 , . . . , ūn }
una base de V . Las coordenadas de un vector v̄ ∈ V en B son únicas.
Por lo tanto,
(λ1 − µ1 )ū1 + (λ2 − µ2 )ū2 + · · · + (λn − µn )ūn
Puesto que B es una base, en particular ū1 , . . . , ūn son linealmente independientes. Ası́,
por el Teorema 4 se tiene que λi − µi = 0 para i = 1, 2, . . . , n, y en consecuencia λi = µi
para todo i. Luego las coordenadas (λ1 , λ2 , . . . , λn ) y (µ1 , µ2 , . . . , µn ) son iguales.
L w̄ = λū + µv̄
ū
v̄
y
M
v̄
ū
Algunas operaciones elementales con subespacios vectoriales dan lugar a otros subes-
pacios vectoriales. Consideremos en concreto las siguientes:
Definición 15. Sean S1 , S2 dos subespacios vectoriales de V . Se definen las siguientes
operaciones:
(i) La intersección S1 ∩ S2 de S1 , S2 :
S1 ∩ S2 = {x̄ ∈ V |x̄ ∈ S1 y x̄ ∈ S2 }
(ii) La suma S1 + S2 :
S1
S1 ∩ S2
El teorema anterior sugiere un modo de encontrar una base de S1 + S2 : tomar una base
de S1 , otra de S2 , poner los vectores de una y otra en común, y determinar de entre ellos los
que sean independientes. De hecho, los vectores que sean descartados estarán en S1 ∩ S2 ,
y tomando aquellos que sean independientes encontraremos una base de S1 ∩ S2 .
Regresemos ahora al caso S1 ∩ S2 = {0̄}. Comenzamos con la siguiente definición.
Definición 17. Se dice que dos subespacios vectoriales S1 , S2 son independientes si todo
vector x̄ ∈ S1 + S2 se puede expresar de forma única como suma de vectores de S1 y S2 , es
decir, si la descomposición x̄ = ū + v̄ donde ū ∈ S1 y v̄ ∈ S2 , es única.
L En esta situación,
se dice también que la suma es directa, lo cuál se representa S1 S2 .
Cabe preguntarse por qué resulta interesante la definición anterior. En Matemáticas
no es infrecuente descomponer, si es posible, un objeto como suma de otros dos objetos
34 CAPÍTULO 2. ESPACIOS VECTORIALES.
ū = |{z}
ū + |{z}
0̄ ,
∈S1 ∈S2
ó
ū = |{z} ū ,
0̄ + |{z}
∈S1 ∈S2
lo cuál contradice que ū se pueda escribir de forma única como un elemento de S1 más un
elemento de S2 . Por lo tanto se cumple (⇒). Veamos ahora (⇐). Para ello, supongamos
que S1 ∩ S2 = {0̄} y supongamos además, por reducción al absurdo, que la suma de S1 , S2
no es directa. Por lo tanto, existe v̄ ∈ V tal que
donde v̄1 , v̄10 ∈ S1 , v̄1 6= v̄10 , v̄2 , v̄20 ∈ S2 , v̄2 6= v̄20 . Sin embargo, en este caso tenemos que
v̄1 − v̄10 = −(v̄2 − v̄20 ). Nótese que el vector de la izquierda es un elemento de S1 , porque es
el resultado de restar dos elementos de S1 , que es un subespacio vectorial; por la misma
razón, el vector de la derecha es un elemento de S2 . Por lo tanto, tenemos que un elemento
de S1 es igual a un elemento de S2 , y en consecuencia dicho elemento pertenece a S1 ∩ S2 .
2.4. ECUACIONES DE UN SUBESPACIO VECTORIAL. 35
Pero como S1 ∩ S2 = {0̄}, deducimos que v̄1 − v̄10 = 0, v̄2 − v̄20 = 0, luego v̄1 = v̄10 , v̄2 = v̄20 .
Sin embargo, esto es una contradicción porque habı́amos supuesto que v̄1 6= v̄10 , v̄2 6= v̄20 .
Por consiguiente se cumple (⇐).
1. Ecuación vectorial. Por definición de base, sabemos que W puede verse como el
conjunto de todas las combinaciones lineales de vectores de los vectores de BW , es
decir el conjunto de todos los vectores
coordenadas tenemos
x1 = λ1 · a11 + λ2 · a21 + · · · + λm · am1
x2 = λ1 · a12 + λ2 · a22 + · · · + λm · am2
.. (2.1)
.
x = λ · a + λ · a + ··· + λ · a
n 1 1n 2 2n m mn
(i) Las columnas de P son las coordenadas de los vectores de B2 (la nueva base) en B1
(la base anterior).
Por tanto, para determinar las nuevas coordenadas multiplicamos P −1 por las coor-
denadas originales.
Aplicaciones lineales.
f (a) = a0
La figura 3.1 ilustra este concepto: nótese que se trata de un concepto muy general, puesto
que no estamos precisando la naturaleza de los elementos de S o de S 0 . Si S = S 0 =
R, el conjunto de los números reales, tenemos entonces la noción familiar de función,
fundamental en Cálculo. Además, decimos que una aplicación f es (véase la figura 3.2):
(i) inyectiva, si no hay dos elementos diferentes de S que tengan la misma imagen (es
decir, distintos elementos de S tienen imágenes distintas. f (x) = f (y) implica x = y); (ii)
sobreyectiva, o simplemente “sobre”, si todo elemento de S 0 es la imagen de algún elemento
de S mediante f ; (iii) biyectiva, si es tanto inyectiva como sobreyectiva. Decimos además
que S es el conjunto inicial, y S 0 el conjunto final.
En lo que sigue nos centraremos en un tipo especial de aplicaciones entre espacios vecto-
riales; por lo tanto, en particular los conjuntos inicial y final serán espacios vectoriales, que
pueden ser diferentes, o no. Puesto que el concepto que motivó la definición de espacio vec-
torial es el de combinación lineal, nos centraremos en aplicaciones que se comporten “bien”,
en lo que respecta a las combinaciones lineales, en concreto aplicaciones que preserven las
combinaciones lineales.
39
40 CAPÍTULO 3. APLICACIONES LINEALES.
a’
a
b
c’
c
f (a) = a0
2. Sea f : A2×2 (R) → R (es decir, f va del espacio de las matrices cuadradas de orden
2, que es un espacio vectorial de dimensión 4, al conjunto de los números reales, que
es un espacio vectorial de dimensión 1), definida como f (A) = |A|. Es decir, f lleva
cada matriz cuadrada de orden 2 en su determinante. La aplicación f es lineal si
3.1. NOCIONES BÁSICAS SOBRE APLICACIONES LINEALES 41
f inyectiva f sobreyectiva
f biyectiva
Toda aplicación lineal satisface las siguientes propiedades. En particular, las propieda-
des 2 y 3 implican que las aplicaciones lineales no sólo respetan combinaciones lineales,
sino también la dependencia lineal, y los subespacios vectoriales.
(2) Si {ū1 , . . . , ūn } son linealmente independientes, entonces {f (ū1 ), . . . , f (ūn )} también
son linealmente independientes.
Observaciones:
44 CAPÍTULO 3. APLICACIONES LINEALES.
(iv) Nótese la analogı́a entre y = A · x y las funciones lineales habituales en Cálculo, que
responden a la expresión y = ax.
Esta propiedad permite a veces distinguir entre aplicaciones lineales y otras que no lo
son: por ejemplo, f (x, y) = (x2 , x − y) no es lineal porque en la primera componente
hay un cuadrado; g(x, y) = (2x + 3y, 3x − 2y + 5) no es lineal porque en la segunda
componente aparece una constante; h(x, y) = (sin(xy), x − y) no es lineal porque en
la primera componente aparece una función seno. Sin embargo, j(x, y, z) = (x − y +
2z, −x + z) es una aplicación lineal de R3 a R2 .
(vi) Si escribimos f (x) = (f1 (x), f2 (x), . . . , fm (x)), se cumple que f es lineal si y sólo
si fi es lineal para i = 1, 2, . . . , m, es decir, si y sólo si cada fi es de la forma
fi (x) = ai1 x1 + ai2 x2 + · · · + ain xn .
Dada una aplicación lineal f y bases B, B 0 , la matriz que define f en las bases B, B 0 es
única. Al revés, si elegimos dos bases B, B 0 de Rn y Rm , respectivamente, para cada matriz
A ∈ Am×n existe una única aplicación lineal f : Rn → Rm tal que A es la matriz asociada
a f en esas bases. Por lo tanto, existe una correspondencia biyectiva:
Por lo tanto, las matrices y las aplicaciones lineales son, desde el punto de vista del Álgebra,
la misma cosa: si tenemos una matriz tenemos una aplicación lineal asociada a ella, y
viceversa. Esta es la conexión, prometida al comienzo del tema, entre matrices y espacios
vectoriales. El siguiente resultado profundiza en esta conexión.
Proposición 22. Sean f : Vn → Vm0 , g : Vn → Vm0 dos aplicaciones lineales con matrices
asociadas Af y Ag , respectivamente, y sea k ∈ R. Se verifica entonces:
(1) f + g también es lineal, y su matriz asociada es Af + Ag .
(2) k · f también es lineal, y su matriz asociada es k · Af .
La siguiente proposición continúa explorando la conexión entre matrices y aplicaciones
lineales, y explica por qué el producto de matrices se define de un modo tan “peculiar”.
Proposición 23. Sean f : Vn → Vm0 , g : Vm0 → Vp00 dos aplicaciones lineales, con matrices
asociadas Af y Ag , respectivamente. Entonces la composición g ◦ f : Vn → Vp00 también es
lineal, y la matriz asociada a g ◦ f es Ag · Af .
Es decir, que el producto de matrices está definido de modo que corresponda a la com-
posición de las aplicaciones lineales correspondientes. Esta proposición merece un ejemplo
(obsérvese que lo que sigue no es una demostración de la proposición, sino simplemente
una comprobación en un ejemplo particular). Consideremos el siguiente diagrama:
R2 f R g R3
g◦f
idV / f
/
idV 0 / 0
VO VO VO 0 V
O
B1 B B0 B10
En la primera fila aparece la aplicación que actúa en cada momento; en la segunda fila,
la base que se considera en cada paso. Por lo tanto, en el primer paso la aplicación que
actúa es la identidad, pero la base cambia de B1 a B, lo que equivale a un cambio de base,
que puede ser considerado, también, como una aplicación lineal cuya matriz asociada es
P ; en el segundo paso actúa f , y consideramos la base B en V , y la base B 0 en V 0 ; en
el tercer y último paso la matriz es la identidad en V 0 , pero la base cambia de B 0 a B10 ,
lo que equivale a otro cambio de base cuya matriz asociada es Q−1 . Componiendo estas
aplicaciones lineales y aplicando Proposición 22, tenemos que
A0 = Q−1 · A · P (3.7)
Definición 24. Dos matrices A, A0 se llaman equivalentes si existen dos matrices regu-
lares P, Q tales que
A0 = Q−1 · A · P
Si dos matrices representan la misma aplicación lineal pero en diferentes bases, en-
tonces son equivalentes, y las matrices Q, P de la definición anterior son las matrices
de cambio de base entre las bases.
1
La identidad idV en V es la aplicación f (v̄) = v̄; en particular, es una aplicación lineal.
3.4. NÚCLEO E IMAGEN. 47
(ii) Im(f ) = L({f (ū1 ), . . . , f (ūn )}), donde B = {u1 , . . . , ūn } es una base de V .
Demostración. Veamos primero (i). Para ello, sea ū0 , v̄ 0 ∈ Im(f ); por tanto existen ū, v̄ ∈ V
tales que f (ū) = ū0 , f (v̄) = v̄ 0 . Nos preguntamos si dados α, β ∈ R, αū0 + βv̄ 0 ∈ Im(f ).
Como f es lineal, se tiene que
Por tanto αū0 + βv̄ 0 es la imagen de αū + βv̄, y en consecuencia pertenece a Im(f ). Veamos
ahora (ii). Para demostrar Im(f ) = L({f (ū1 ), . . . , f (ūn )}), demostraremos que Im(f ) ⊂
L({f (ū1 ), . . . , f (ūn )}) y que L({f (ū1 ), . . . , f (ūn )}) ⊂ Im(f ), también. Si w̄0 ∈ Im(f ) en-
tonces existe w̄ ∈ V tal que f (w̄) = w̄0 . Escribiendo w̄ = w1 ū1 +· · ·+wn ūn , como f es lineal
se tiene que f (w̄) = w1 f (ū1 ) + · · · + wn f (ūn ), y por tanto f (w̄) ∈ L({f (u1 ), . . . , f (un )}),
con lo que Im(f ) ⊂ L({f (ū1 ), . . . , f (ūn )}). Por otra parte, si w̄0 ∈ L({f (ū1 ), . . . , f (ūn )})
entonces podemos escribir w̄0 = w10 f (ū1 ) + · · · + wn0 f (ūn ). Como f es lineal, entonces
w̄0 = f (w10 ū1 +· · ·+wn0 ūn ) y por lo tanto vemos que w̄0 es la imagen de w10 ū1 +· · ·+wn0 ūn me-
diante la aplicación f ; ası́, w̄0 ∈ Im(f ), y L({f (ū1 ), . . . , f (ūn )}) ⊂ Im(f ). Finalmente, (iii)
se obtiene a partir de (ii) teniendo en cuenta que las columnas de A son f (ū1 ), . . . , f (ūn ).
El siguiente resultado, que damos sin demostración, muestra la relación existente entre
las dimensiones de Ker(f ) y Im(f ).
Corolario 30. Sea f : V → V 0 una aplicación lineal, sea A = M(f ; B, B 0 ) donde B, B 0 son
bases de V, V 0 respectivamente, y sea dim(V ) = n. Se cumple entonces que dim(Ker(f )) =
n − rg(A).
Teorema 31. Sea f : V → V 0 una aplicación lineal. Las siguientes afirmaciones son
ciertas:
3.4. NÚCLEO E IMAGEN. 49
Demostración. Veamos (1), y empecemos con (⇒). Si f es inyectiva entonces f (ū) = f (v̄)
implica ū = v̄. Si w̄ ∈ Ker(f ) entonces f (w̄) = 0̄; sin embargo, como f es lineal entonces de
la afirmación (1) de Proposición 20, se tiene que f (0̄) = 0̄. Por tanto, f (w̄) = f (0̄) y como
f es inyectiva w̄ = 0̄, lo que implica que Ker(f ) = {0̄}. Recı́procamente, supongamos que
Ker(f ) = {0̄} y supongamos también, por reducción al absurdo, que existen ū, v̄ ∈ V, ū 6= v̄
tales que f (ū) = f (v̄). Por lo tanto f (ū) − f (v̄) = 0̄ y como f es lineal, f (ū − v̄) = 0̄,
lo que implica que ū − v̄ ∈ Ker(f ). Como ū 6= v̄ entonces ū − v̄ 6= 0̄, lo que contradice
Ker(f ) = {0̄}. La afirmación (2) se deduce de la definición de aplicación sobreyectiva.
El corolario siguiente, que proporciona una herramienta muy práctica para estudiar el
carácter inyectivo o sobreyectivo de una aplicación, se deduce de Teorema 31, Teorema 29
y de la afirmación (iii) de Proposición 28.
Corolario 32. Sea f : Vn → Vm una aplicación lineal, y sea A ∈ Am×n la matriz asociada
a f en las bases B, B 0 . Las siguientes afirmaciones son ciertas:
Terminamos con algunas ideas sobre endomorfismos, es decir, sobre aplicaciones lineales
f : V → V . En este caso, la matriz A asociada con f en cualquier base es cuadrada. De
Corolario 32 se deduce que:
(1) Si |A| =
6 0 entonces f es bijyectiva. En ese caso, se dice que f es un automorfismo
(endomorfismo biyectivo).
Observemos que f −1 también es lineal. Como f, f −1 son ambas lineales, podemos comparar
sus matrices asociadas:
1 1
1 1 −
Af = Af −1 = 2
1
2
1
−1 1 2 2
Diagonalización
51
52 CAPÍTULO 4. DIAGONALIZACIÓN
Los autovalores de una matriz, como consta en la definición de autovalor, pueden ser
reales o complejos. Determinar los autovalores complejos puede ser útil en determinadas
circunstancias, como veremos en el próximo tema. Además, si un autovalor de una matriz
A con elementos reales es complejo, sus autovectores son complejos también (es decir, sus
coordenadas son números complejos).
Para determinar los autovalores observamos lo siguiente:
f (v̄) = λ · v̄ ⇔ A · v̄ = λ · v̄ ⇔ (A − λ · I)v̄ = 0,
donde I es la matriz identidad. Como por definición v̄ 6= 0, buscamos λ tal que el sistema
homogéno (A − λ · I)v̄ = 0 tenga soluciones distintas de la trivial. Sin embargo, esto sucede
si y sólo si |A − λ · I| = 0. Se dice que
p(λ) = |A − λ · I|
Además, los siguientes resultados, que utilizaremos más adelante, se verifican también.
Teorema 38. Sea ni la multiplicidad algebraica de un autovalor λi . Se cumple que
1 ≤ dim(Lλi ) ≤ ni
4.2. Diagonalizabilidad.
En este apartado estudiamos el problema propuesto al principio del tema. Dada una
matriz A, que corresponde a un cierto endomorfismo f , nos preguntamos si existe alguna
base en la que la matriz sea diagonal (es decir, tal que la matriz asociada al endomorfismo
f definido por A sea diagonal). Esto equivale a preguntarse si A es semejante a alguna
matriz diagonal, es decir, si existen alguna matriz diagonal D y alguna matriz regular P
tales que
D = P −1 · A · P (4.1)
Definición 40. Sea A una matriz cuadrada, y sea f el endomorfismo que representa.
Decimos que A (ó f ) es diagonalizable si existe alguna base tal que la matriz asociada a
f en dicha base sea diagonal, es decir, si la matriz A es semejante a alguna matriz diagonal
D.
El siguiente teorema proporciona una primera caracterización de las matrices (o equi-
valentemente de los endomorfismos) diagonalizables.
Teorema 41. Un endomorfismo f : V → V es diagonalizable si y sólo si V tiene una base
de autovectores.
Demostración. Veamos (⇒). Si f : V → V es diagonalizable, entonces existe una base
B = {ū1 , ū2 , . . . , ūn } donde la matriz de f es diagonal, es decir, donde la matriz tiene el
siguiente aspecto:
λ1 0 · · · 0
0 λ2 · · · 0
.. .. . . ..
. . . .
0 0 · · · λn
54 CAPÍTULO 4. DIAGONALIZACIÓN
Como las columnas de esta matriz son las imágenes de los vectores de la base B, se tiene
que f (ūi ) = λi · ūi para i = 1, 2, . . . , n. Por lo tanto, cada vector de B es un autovctor.
Veamos ahora (⇐). Si hay una base B = {ū1 , ū2 , . . . , ūn } de autovectores, entonces para
i = 1, 2, . . . , n se cumple que f (ūi ) = λi · ūi ; como las columnas de la matriz de f en la base
B son los f (ūi )’s escritos en la base B, deducimos que la matriz en esa base es diagonal.
El teorema anterior sugiere que si existe una matriz diagonal D equivalente a A, enton-
ces los elementos de la diagonal principal de D son los autovalores de la matriz A. Si dichos
elementos son reales, se dice que A es diagonalizable sobre los reales. Además, la base en
la que A es diagonalizable es precisamente la base formada por los autovectores; en otras
palabras, las columnas de la matriz P son los vectores de esa base. Aunque el Teorema 41
ya proporciona una herramienta útil para identificar si A es diagonalizable o no, podemos
hacerlo aún mejor.
Teorema 42. Sea V un espacio vectorial sobre R de dimensión n, y sea f : Vn → Vn
un endomorfismo. Entonces f es diagonalizable sobre los reales si y sólo si se cumplen las
siguientes dos condiciones:
(i) El número total de autovalores reales, contando multiplicidades, es n.
(ii) La multiplicidad geométrica de cada autovalor es igual a su multiplicidad algebraica.
Demostración. Veamos (⇒). Sea p(λ) = an (λ − λ1 )n1 · · · (λ − λp )np · q(λ), donde λi ∈ R y
q(λ) tiene únicamente raı́ces complejas conjugadas. Como el grado de p(λ) es igual a n, se
tiene que n1 + · · · + np + deg(q(λ)) = n, donde deg(q(λ)) representa el grado de q(λ). Como
por el Teorema 38 se cumple que 1 ≤ dim(Lλi ) ≤ ni para i = 1, . . . , p, se puede ver que si
q(λ) no es constante, es decir si existen autovalores complejos, entonces n1 + · · · + np < n
y no podemos conseguir una base de autovectores; por lo tanto la condición (i) se deduce
del Teorema 41. Además, si todos los autovalores son reales entonces n1 + · · · + np = n,
pero como 1 ≤ dim(Lλi ) ≤ ni para i = 1, . . . , p la única forma de conseguir una base de
autovectores es que dim(Lλi ) = ni para i = 1, . . . , p. La implicación (⇐) se deduce del
Teorema 39.
El siguiente corolario se deduce del Teorema 42 y el Teorema 38.
Corolario 43. Si todos los autovalores de una matriz A son reales y distintos, entonces A
es diagonalizable.
Se puede probar, aunque la demostración no es trivial, que toda matriz simétrica es
diagonalizable.
Terminamos con una aplicación al cálculo de potencias de matrices, que será de
utilidad en el siguiente tema. Supongamos que A es diagonalizable. Queremos calcular de
manera eficiente el valor de la potencia An , donde n es un entero positivo, es decir, el
resultado de multiplicar A por sı́ misma n veces. De (4.1), sabemos que A = P · D · P −1 .
Por tanto,
n n (?)
An = A · A · · · A = (P · D · P −1 ) · (P · D · P −1 ) · · · (P · D · P −1 ) =
4.2. DIAGONALIZABILIDAD. 55
An = P · Dn · P −1