Sei sulla pagina 1di 103

Índice general

1. Operadores en espacios de dimensión finita: Diagonalización 2

2. Operadores en espacios de dimensión finita: Forma de Jordan 15


2.1. ¿Qué es una matriz de Jordan? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. Construcción de la forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1. Para operadores nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.2. El caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4. Unicidad de la forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5. Polinomio minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3. Operadores en espacios con producto interno 38


3.1. Espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2. Operadores en espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3. El Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4. Isometrı́as . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

4. Formas multilineales 61
4.1. Formas multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3. Formas bilineales simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.5. Formas bilineales simétricas reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6. Formas multilineales alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5. Apéndices 86
5.1. Apéndice A: Acción de k[x] en L(V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2. Apéndice B: Las proyecciones de la descomposición espectral . . . . . . . . . . . . . . . . . . 88
5.2.1. Algunos resultados útiles sobre polinomios . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.2. El teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.3. Apéndice C: Divisibilidad en polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.4. Apéndice D: Diagrama de puntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.5. Apéndice E: Superficies cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.5.1. Ejemplos de superficies cuádricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.5.2. Clasificación de las superficies cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . 100

1
Capı́tulo 1

Operadores en espacios de dimensión


finita: Diagonalización

Notación básica: En todo este tema (capı́tulos 1 y 2), k es un cuerpo y V es un k-espacio vectorial
no nulo de dimensión finita n. Si B es una base de V , supondremos siempre que B es una base ordenada es
decir una base en la cual hemos elegido un orden para sus elementos.
Al espacio de las transformaciones lineales de V en V lo denotaremos por L(V ) y a la transformación lineal
identidad por id o id V . Al espacio de las matrices cuadradas de orden n con coeficientes en k lo denotaremos
por Mn (k) y a la matriz identidad por I o In . Al subespacio de V generado por el conjunto de vectores
{v1 , v2 , · · · , vn } ⊆ V lo denotaremos por [v1 , v2 , · · · , vn ].

Dado V un k-espacio vectorial no nulo de dimensión finita y T : V → V una transformación lineal, es


natural buscar una base de V que permita una representación matricial de V lo más simple posible. En este
sentido, lo óptimo serı́a obtener una matriz diagonal (las matrices diagonales son especialmente simples, en
particular porque operar con ellas facilita mucho el cálculo).
Cuando pueda obtenerse una base de vectores para la cual la matriz asociada es diagonal, diremos que la
transformación lineal es “diagonalizable”
Dedicaremos este capı́tulo al método de diagonalización. Este consiste en buscar los vectores “candidatos” a
formar dicha base adecuada (vectores propios) y estudiar en qué casos dichos vectores forman efectivamente
una base de V .

Si T ∈ L(V ) y B y C son bases de V , escribiremos C [T ]B a la matriz asociada a T de la base B en la


base C y [T ]B para B [T ]B . Si A ∈ Mn (k), escribiremos LA a la transformación lineal de kn en kn definida
por LA (v) = Av, ∀v ∈ kn . Observar que si C = {e1 , . . . , en } es la base canónica de kn y A ∈ Mn (k), es

[LA ]C = A.

Si v1 , . . . , vn ∈ kn , el sı́mbolo [v1 | · · · |vn ] denotará a la matriz cuadrada de orden n cuyas columnas son
v1 , . . . , vn .

Definición 1.0.1. Diremos que dos matrices A, B ∈ Mn (k) son semejantes si existe una matriz Q ∈ Mn (k)
invertible tal que A = Q−1 BQ. En esta situación escribimos A ≃ B.

Es un ejercicio verificar que la relación de semejanza es de equivalencia en Mn (k).


1
Notas redactadas por Andrés Abella, adaptadas por Mariana Haim para el curso 2007

2
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 3

Proposición 1.0.1. Sean T ∈ L(V ) y B una base de V .

1. Si B ′ es otra base de V , entonces [T ]B ≃ [T ]B′ . Explı́citamente, [T ]B = Q−1 [T ]B′ Q, siendo Q = B′ [id ]B .

2. Si A ∈ Mn (k) es tal que A ≃ [T ]B , entonces existe una base B̃ de V tal que A = [T ]B̃ .

Dem. 1. Si Q = B′ [id ]B , es

[T ]B = B [id ]B′ [T ]B′ B′ [id ]B = Q−1 [T ]B′ Q.

2. Si A = Q−1 [T ]B Q, siendo Q = (qij ) y B = {v1 , . . . , vn }, definimos


n
X
wj := qij vi , ∀j = 1 . . . , n.
i=1

Como la matriz Q es invertible, el conjunto B̃ = {w1 , . . . , wn } es una base de V y B [id ]B̃ = Q. Luego

A = Q−1 [T ]B Q = B̃ [id ]B [T ]B B [id ]B̃ = [T ]B̃ .

Corolario 1.0.2. Sean A ∈ Mn (k) y B = {v1 , . . . , vn } una base de kn . Si Q = [v1 | · · · |vn ], es

[LA ]B = Q−1 AQ.

Dem. Tomando como B ′ la base canónica de kn , la parte 1 de la Proposición 1.0.1 implica:

[LA ]B = Q−1 [LA ]B′ Q = Q−1 AQ.

Corolario 1.0.3. Dos matrices son semejantes si y sólo si representan a la misma transformación lineal.

Dem. Sean A y B en Mn (k) tales que A ≃ B. Si consideramos LA ∈ L (kn ), es A = [LA ]C siendo C la


base canónica de kn . Luego B ≃ [LA ]C y la parte 2 de la Proposición 1.0.1 implica que existe B base de kn
tal que B = [LA ]B .

El recı́proco es la parte 1 de la Proposición 1.0.1.

Recordar que una matriz cuadrada A = (aij ) se dice diagonal si aij = 0, ∀i 6= j.

Definición 1.0.2. Una matriz A ∈ Mn (k) es diagonalizable si es semejante a una matriz diagonal. Un
operador T ∈ L(V ) es diagonalizable si existe una base B de V en la cual [T ]B es diagonal.

Ejemplo 1.0.1. Simetrı́a axial respecto a una recta por el origen. Sea T a la simetrı́a axial del plano R2
respecto a una recta r que pasa por el origen. Sean 0 6= u ∈ r y 0 6= v ∈ R2 tales
 que u y v son ortogonales.
2 1 0
Luego B = {u, v} es una base de R y la matriz asociada a T en la base B es . Luego la simetrı́a
0 −1
axial de eje r es diagonalizable.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 4

Proposición 1.0.4. Sea T ∈ L(V ).


1. Si T es diagonalizable y B es una base cualquiera de V , entonces [T ]B es diagonalizable.
2. Si existe una base B de V tal que [T ]B es diagonalizable, entonces T es diagonalizable.
Dem. Si T es diagonalizable, entonces existe una base C de V en la cual [T ]C es diagonal. Si B es una
base cualquiera de V , la parte 1 de la Propsición 1.0.1 implica que [T ]B es semejante a [T ]C , luego [T ]B es
diagonalizable.

Si existe una base B de V tal que [T ]B es diagonalizable, entonces [T ]B es semejante a una matriz diagonal
D. La parte 2 de la Proposición 1.0.1 implica que existe una base B̃ de V tal que [T ]B̃ = D, luego T es
diagonalizable.

De la relación A = [LA ]C , siendo C la base canónica de kn , se deduce inmediatamente el siguiente


corolario.
Corolario 1.0.5. Una matriz A es diagonalizable si y sólo si la transformación lineal LA ∈ L (kn ) es
diagonalizable.

Definición 1.0.3. Dado T ∈ L(V ), un escalar λ ∈ k se dice un valor propio de T si existe 0 6= v ∈ V tal
que T (v) = λv, el vector v se dice que es un vector propio de T asociado a λ.
Dada A ∈ Mn (k), un escalar λ ∈ k se dice un valor propio de A si existe 0 6= v ∈ kn tal que Av = λv, el
vector v se dice que es un vector propio de A asociado a λ. Es claro que los valores y vectores propios de la
matriz A coinciden con los del operador LA .

Observación 1.0.1. En la definición de valor y vector propio de T ∈ L(V ) no se necesita la hipótesis


dimk V < ∞. En el ejemplo 1.0.3 es estudia un caso en el cual el espacio tiene dimensión infinita.

Proposición 1.0.6. Sea T ∈ L(V ). El operador T es diagonalizable si y sólo si existe una base B de V
formada por vectores propios de T . En esta situación, si B = {v1 , . . . , vn } y D = (dij ) = [T ]B , entonces D
es una matriz diagonal y dii es el valor propio correspondiente al vector propio vi , ∀i = 1, . . . , n.
Dem. Si T es diagonalizable, entonces existe una base B = {v1 , . . . , vn } de V tal que [T ]B es diagonal.
Luego si d11 , . . . , dnn son las entradas diagonales de [T ]B , es T (vi ) = dii vi , ∀i = 1, . . . , n y cada vi es un
vector propio de T asociado al valor propio dii .

Si B = {v1 , . . . , vn } es una base de V formada por vectores propios de T con valores propios correspon-
dientes λ1 , . . . , λn , entonces es T (vi ) = λi vi , ∀i = 1, . . . , n y
 
λ1 · · · 0
 .. . . . 
[T ]B =  . . .. .
0 ··· λn

 
1 3
Ejemplo 1.0.2. Sea A = ∈ M2 (R).
4 2
Consideremos v1 = (1, −1) y v2 = (3, 4). Observar que B = {v1 , v2 } es una base de R2 y que LA (v1 ) =
−2 v1 y LA (v2 ) = 5 v2 , luego
   
−2 0 −1 1 3
[LA ]B = y Q AQ = [LA ]B , siendo Q = .
0 5 −1 4
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 5

Ejemplo 1.0.3. Sea C ∞ (R) = {f : R → R | f tiene derivada de todos los órdenes}. Definimos T ∈
L (C ∞ (R)) por T (f ) = f ′ . Observar que λ ∈ R es un valor propio de T si y sólo si existe f 6= 0 tal
que f ′ = λ f ; luego todo λ ∈ R es un valor propio de T y los vectores propios correspondientes a λ son las
funciones de la forma f (t) = c eλt , ∀c 6= 0.

La siguiente proposición marca cuál es el camino a seguir para encontrar los valores propios de una
transformación lineal.

Proposición 1.0.7. Sean A ∈ Mn (k) y λ ∈ k. Entonces λ es un valor propio de A si y sólo si det(A− λI) =
0.

Dem. λ es valor propio de A si y sólo si existe v ∈ kn , v 6= 0 tal que Av = λv, si y sólo si existe
v ∈ kn , v 6= 0 tal que (A − λI)v = 0 si y sólo si det(A − λI) = 0

El determinante es entonces una herramienta de gran utilidad para esta teorı́a. Presentamos a continua-
ción algunos resultados pertinentes sobre determinantes.
Notaremos algunas veces |A| en lugar de det(A).

Proposición 1.0.8. 1. Si A y B son matrices semejantes, entonces det(A) = det(B),

2. Sea T ∈ L(V ) y B, C dos bases de V . Entonces

det ([T ]B ) = det ([T ]C ) .

Dem. Es B = Q−1 AQ,



det (B) = det Q−1 AQ = (det Q)−1 det (A) det Q = det (A) .

Usando esto y la proposición 1.0.1, se deduce 2.

Vista la proposición anterior, tiene sentido la definición siguiente:

Definición 1.0.4. Si T ∈ L(V ), definimos su determinante por det T := det ([T ]B ) siendo B una base
cualquiera de V .


Ejemplo 1.0.4. Sea V = R2 [x] y T ∈ L(V ) definida por T (p(x)) = p′ (x). Si B = 1, x, x2 , es
 
0 1 0
[T ]B =  0 0 2  ⇒ det T = 0.
0 0 0

Proposición 1.0.9. Sea T ∈ L(V ).

1. Si S es otro operador en V , vale det (T ◦ S) = det T det S.

2. El operador T es invertible si y sólo si det T 6= 0.


En esta situación es det T −1 = (det T )−1 .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 6

3. Para todo λ en k y toda base B de V vale:

det (T − λ id ) = det(A − λ I),

siendo A = [T ]B .

Dem. Sea B una base de V .


1.
det (T ◦ S) = det ([T ◦ S]B ) = det ([T ]B [S]B ) = det ([T ]B ) det ([S]B ) = det T det S.
2. Si T es invertible, es T ◦ T −1 = id , luego
 
1 = det(id ) = det T ◦ T −1 = det T det T −1 .

Esto implica que det T 6= 0 y que det T −1 = (det T )−1 .

Si det T 6= 0, entonces det ([T ]B ) 6= 0, luego [T ]B es invertible y esto equivale a que T sea invertible.

3. Si λ ∈ k, es

det (T − λ id ) = det ([T − λ id ]B ) = det ([T ]B − λ [id ]B ) = det(A − λ I).

Definición 1.0.5. Si A ∈ Mn (k), definimos su polinomio caracterı́stico por

χA (t) := det(A − t I) ∈ k[t].

Si T ∈ L(V ), definimos su polinomio caracterı́stico por

χT (t) := det(T − t id ) ∈ k[t].

Observación 1.0.2. De la Proposición 1.0.9 se deduce que si A ∈ Mn (k), T ∈ L(V ) y B es una base de V ,
entonces
χT (t) = χ[T ] (t), χA (t) = χLA (t).
B

Notar que si  
a11 · · · a1n a11 − t · · · a1n

 .. .. ..  , es χ (t) = .. .. ..
A= . . .  A . . . .

an1 · · · ann an1 ··· ann − t
Es un ejercicio del práctico el probar que vale la fórmula siguiente

χA (t) = (−1)n tn + (−1)n−1 tr (A) tn−1 + · · · + det(A).

Luego gr χA (t) = n si A ∈ Mn (k) y gr χT (t) = n si T ∈ L(V ) y dim V = n.

 
1 1 1−t 1
Ejemplo 1.0.5. Si A = , es χA (t) = = t2 − 2t − 3.

4 1 4 1−t
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 7

Ejemplo 1.0.6. Si T ∈ L (R2 [x]) está definida por T (p(x)) = p′ (x), (ejemplo 1.0.4) entonces

−t 1 0

χT (t) = 0 −t 2 = −t3 .

0 0 −t

Proposición 1.0.10. Sea T ∈ L(V ) y λ ∈ k. Son equivalentes:

1. El escalar λ es un valor propio de T .

2. Ker(T − λ id ) 6= {0}.

3. El operador T − λ id no es invertible.

4. El escalar λ es raı́z de χT (t).

Dem.

λ es valor propio de T ⇔ ∃ v 6= 0 : T (v) = λ v


⇔ ∃ v 6= 0 : v ∈ Ker (T − λ id )
⇔ Ker (T − λ id ) 6= {0}
⇔ T − λ id : V → V no es inyectiva
⇔ T − λ id : V → V no es invertible (dimk V < ∞)
⇔ det (T − λ id ) 6= 0
⇔ χT (λ) = 0.

Corolario 1.0.11. Si T ∈ L(V ) y dim V = n, entonces T tiene a lo más n valores propios.

Dem. Los valores propios de T son las raı́ces de χT (t), como este polinomio tiene grado n, entonces
tiene a lo más n raı́ces.

Ejemplo 1.0.7. Rotación. La rotación de ángulo θ (0 < θ < π) es la transformación lineal Rθ : R2 → R2


definida por Rθ (x, y) = (x cos θ − y sen θ, x sen θ + y cos θ). Es
    
x cos θ − sen θ x
Rθ = , χRθ (t) = t2 − (2 cos θ)t + 1.
y sen θ cos θ y

El discriminante de la ecuación t2 − (2 cos θ)t + 1 = 0 es



∆ = 4 cos2 θ − 4 = 4 cos2 θ − 1 < 0, si 0 < θ < π,

luego Rθ no tiene valores propios y por lo tanto no tiene vectores propios y no es diagonalizable.

Observación 1.0.3. Si λ es un valor propio de T ∈ L(V ), entonces v ∈ V es un vector propio de T corres-


pondiente al valor propio λ si y solo si v 6= 0 y v ∈ Ker(T − λ id ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 8

 
1 1
Ejemplo 1.0.8. Consideremos la matriz A = del ejemplo 1.0.5. Es χA (t) = t2 − 2t − 3 =
4 1
(t − 3)(t + 1), luego A tiene valores propios λ1 = 3 y λ2 = −1. Observar que Ker (LA − 3 id ) = [(1, 2)] y
Ker (LA + id ) = [(1, −2)]. El conjunto B = {(1, 2), (1, −2)} es una base de R2 formada por vectores propios
de LA , luego LA es diagonalizable. En particular tenemos
   
3 0 −1 1 1
[LA ]B = y [LA ]B = Q A Q, siendo Q = .
0 −1 2 −2

Ejemplo 1.0.9. Sea T ∈ L (R2 [x]) definida por T (p(x)) = p′ (x) (Ejemplo 1.0.6). Es χT (t) = −t3 , luego 0
es el único valor propio de T . Los vectores propios de T son los polinomios constantes no nulos, luego no
existe una base de R2 [x] formada por vectores propios de T y T no es diagonalizable.

Si B = {v1 , . . . , vn } es una base de V , definimos coordB : V → kn por

coordB (v) = (x1 , . . . , xn ) si v = x1 v1 + · · · + xn vn .

En el curso de álgebra lineal I se probó que coordB es un isomorfismo lineal.

Proposición 1.0.12. Sea T ∈ L(V ), B una base de V , A = [T ]B y λ un valor propio de T o -equivalentemente-


un valor propio de A. Entonces v ∈ V es un vector propio de T correspondiente a λ si y sólo si coordB (v) ∈ kn
es un vector propio de A correspondiente a λ.

Dem. Utilizando que coordB : V → kn es un isomorfismo, tenemos que dado v ∈ V , es v 6= 0 si y sólo si


coordB (v) 6= 0 y

T (v) = λ v ⇔ coordB (T (v)) = coordB (λ v) ⇔ [T ]B coordB (v) = λ coordB (v) ⇔ A coordB (v) = λ coordB (v).

Ejemplo 1.0.10. Sea T ∈ L (R2 [x]) definida por T (p(x)) = p(x) + x p′ (x) + p′ (x). Consideremos la base
C = {1, x, x2 } de R2 [x]. Es
 
1 1 0
A = [T ]C =  0 2 2  ⇒ χT (t) = −(t − 1)(t − 2)(t − 3),
0 0 3

luego los valores propios de T son 1,2 y 3. Operando obtenemos:

Ker(LA − id ) = [(1, 0, 0)], Ker(LA − 2 id ) = [(1, 1, 0)], Ker(LA − 3 id ) = [(1, 2, 1)].

Luego  
Ker(T − id ) = [1], Ker(T − 2 id ) = [1 + x], Ker(T − 3 id ) = 1 + 2x + x2 .
El conjunto B = {1, 1 + x, 1 + 2x + x2 } es LI y por lo tanto es una base de R2 [x]; en la base B obtenemos
 
1 0 0
[T ]B =  0 2 0  .
0 0 3
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 9

Proposición 1.0.13. Sea T ∈ L(V ), λ1 , . . . , λk valores propios distintos de T y v1 , . . . , vk vectores propios


correspondientes. Entonces {v1 , . . . , vk } es LI.

Dem. La prueba la haremos pon inducción en k.

Si k = 1, entonces {v1 } es LI porque como v1 es un vector propio, es v1 6= 0.

Supongamos que el resultado es cierto para k − 1 ≥ 1 y sean λ1 , . . . , λk valores propios distintos de T y


v1 , . . . , vk vectores propios correspondientes. Sean a1 , . . . , ak ∈ k tales que

a1 v1 + · · · + ak−1 vk−1 + ak vk = 0. (1.1)

Aplicando T a ambos lados de la ecuación (1.1) y teniendo en cuenta que v1 , . . . , vk son vectores propios
obtenemos
a1 λ1 v1 + · · · + ak−1 λk−1 vk−1 + ak λk vk = 0. (1.2)
Multiplicando la ecuación (1.1) por −λk obtenemos

−a1 λk v1 − · · · − ak−1 λk vk−1 − ak λk vk = 0. (1.3)

Sumando la ecuación (4.5) y la (4.6) obtenemos

a1 (λ1 − λk )v1 + · · · + ak−1 (λk−1 − λk )vk−1 = 0.

Por la hipótesis de inducción el conjunto {v1 , . . . , vk−1 } es LI, luego

a1 (λ1 − λk ) = · · · = ak−1 (λk−1 − λk ) = 0.

Como λi 6= λk para todo i = 1, . . . , k − 1, es

a1 = · · · = ak−1 = 0.

Substituyendo a1 , . . . , ak−1 por 0 en la ecuación (1.1) obtenemos ak vk = 0 y como vk 6= 0, es ak = 0 y esto


completa la prueba de que {v1 , . . . , vk } es LI.

Corolario 1.0.14. 1. Si A ∈ Mn (k) tiene n valores propios distintos, entonces A es diagonalizable.

2. Si T ∈ L(V ) tiene n valores propios distintos, siendo n la dimensión de V , entonces T es diagonali-


zable.
 
1 1
Ejemplo 1.0.11. Si A = , es χA (t) = t(t − 2). Luego A es diagonalizable y es semejante a
1 1
 
0 0
.
0 2

Observación 1.0.4. La matriz identidad y la matriz nula son ejemplos de matrices diagonales -luego diago-
nalizables- que tienen un solo valor propio, 1 y 0 respectivamente (luego no vale el recı́proco del corolario
anterior).

Definición 1.0.6. Un polinomio f (x) ∈ k[x] se dice que escinde en k[x] si existen escalares a, a1 , . . . , an
tales que f (x) = a(x − a1 ) · · · (x − an ) (pueden haber elementos repetidos en a1 , . . . , an ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 10

Observar que si f (x) escinde, agrupando en términos repetidos queda f (x) = a(x − b1 )n1 · · · (x − br )nr ,
con bi 6= bj si i 6= j y ni ∈ Z+ , ∀i = 1, . . . , r.

Ejemplo 1.0.12. 1. x2 − 1 = (x + 1)(x − 1) escinde en Q[x].

2. x2 − 2 no escinde en Q[x].
√  √ 
3. x2 − 2 = x + 2 x − 2 escinde en R[x].

4. x2 + 1 y x2 + 1 (x − 2) no escinden en R[x].

5. x2 + 1 = (x + i)(x − i) escinde en C[x].

Observación 1.0.5. En C[x] todo polinomio no constante escinde, este es el llamado “teorema fundamental
del álgebra” que será demostrado en cursos posteriores.

Proposición 1.0.15. Sea T ∈ L(V ). Si T es diagonalizable, entonces χT escinde.

Dem. Sea B una base de V en la cual [T ]B es diagonal.


 
a1
 ..  χT (t) = (a1 − t) · · · (an − t) = (−1)n (t − a1 ) · · · (t − an ).
[T ]B =  .  ⇒
an

 
0 1
Observación 1.0.6. No vale el recı́proco, como lo muestra la matriz A = ∈ M2 (C), cuyo polinomio
0 0
caracterı́stico es t2 y por lo tanto escinde. Es fácil ver que A no es semejante a ninguna matriz diagonal.

 
0 1
Ejemplo 1.0.13. Si A = ∈ M2 (R), es χA (t) = t2 + 1 que no escinde en R[t], luego A no es
−1 0
diagonalizable. Observar que si consideramos A ∈ M2 (C),  es χA (t) = 2
 t + 1 = (t − i)(t + i) que escinde en
i 0
C[t], luego A es diagonalizable en M2 (C) y es semejante a .
0 −i

Definición 1.0.7. Sea T ∈ L(V ) y λ un valor propio de T .

1. El subespacio propio asociado al valor propio λ es Eλ := Ker(T − λ id ).

2. La multiplicidad geométrica de λ es M G(λ) := dim Eλ .



3. La multiplicidad algebraica de λ es M A(λ) := máx h : (t − λ)h divide a χT (t) .

Si A ∈ Mn (k) y λ es un valor propio de A, entonces se define la multiplicidad algebraica y geométrica de λ


como las correspondientes al operador LA ∈ L (kn ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 11

Observación 1.0.7. 1. Si T ∈ L(V ), entonces 0 es un valor propio de T si y sólo si Ker(T ) 6= {0}, en este
caso es E0 = Ker(T ).

2. El subespacio propio asociado a un valor propio λ consiste en el vector nulo y los vectores propios
correspondientes a λ.

3. Si T ∈ L(V ) y λ un valor propio de T es

M G(λ) = dim Ker(T − λ id ) = dim V − dim Im(T − λ id ) = dim V − rango(T − λ id ).

En particular si A ∈ Mn (k) y λ es un valor propio de A, entonces M G(λ) = n − rango(A − λI).

4. Si λ es un valor propio de T , es M A(λ) = m si y sólo si χT (t) = (t − λ)m p(t) con p(λ) 6= 0.

Ejemplo 1.0.14. Sea T ∈ L (R2 [x]) definida por T (p(x)) = p′ (x). En el ejemplo 1.0.9 probamos que
χT (t) = −t3 , luego 0 es el único valor propio de T y E0 = Ker(T ) = R ⊂ R2 [x]. Entonces M A(0) = 3 y
M G(0) = 1. Observar que este es un ejemplo de un operador que no es diagonalizable pero que su polinomio
caracterı́stico escinde.

Ejemplo 1.0.15. Sea  


3 0 0 0
 0 3 0 0 
A=
 0
 ∈ M4 (R).
0 0 1 
0 0 −1 0

Es χA (t) = (t − 3)2 t2 + 1 , luego 3 es el único valor propio de A y M A(3) = M G(3) = 2.

Observar que en ninguno de los casos anteriores es T diagonalizable.

Teorema 1.0.16. Sea T ∈ L(V ) y λ un valor propio de T , entonces

1 ≤ M G(λ) ≤ M A(λ).

Dem. Como λ es un valor propio de T , es Eλ 6= {0} y luego M G(λ) ≥ 1.

Sean B1 una base de Eλ y B2 un conjunto LI de V disjunto con B1 tales que B = B1 ∪ B2 es una base de
V . Observar que T (v) = λv para todo v ∈ B1 , luego la matriz asociada a T en la base B es una matriz en
bloques de la forma  
λIm B
[T ]B =
0 C
siendo m = #B1 = dim Eλ = M G(λ). Luego

χT (t) = (λ − t)m g(t).

Como puede ser g(λ) = 0, entonces es M A(λ) ≥ m = M G(λ).

Corolario 1.0.17. Sea T ∈ L(V ) y λ un valor propio de T , entonces M A(λ) = 1 implica M G(λ) = 1.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 12

Definición 1.0.8. Una familia de subespacios W1 , . . . , Wk de V se dice linealmente disjunta si


w1 + · · · + wk = 0, con wi ∈ Wi , ∀i = 1, . . . , k ⇒
w1 = · · · = wk = 0.
P
Si la familia de subespacios W1 , . . . , Wk es linealmente disjunta, entonces la suma ki=1 Wi se dice directa
P L
y se escribe ki=1 Wi = ki=1 Wi .

Proposición 1.0.18. Sea T ∈ L(V ) y λ1 , . . . , λk valores propios distintos de T . Entonces la familia de


subespacios Eλ1 , . . . , Eλk es linealmente disjunta.
Dem. Sean v1 ∈ Eλ1 , . . . , vk ∈ Eλk tales que v1 + · · · + vk = 0. Si existiese algún i ∈ {1, . . . , k} tal que
vi 6= 0, eventualmente reordenando los subı́ndices existirı́a algún l, 1 ≤ l ≤ k tal que vi 6= 0, ∀i = 1, . . . , l y
vl+1 = · · · = vk = 0. Luego es
v1 + · · · + vl = 0 con vi 6= 0, ∀i = 1, . . . , l. (1.4)
Si i ∈ {1, . . . , l} es 0 6= vi ∈ Eλi , luego vi es un vector propio de T correpondiente al valor propio λi . Entonces
la Proposición 1.0.13 implica que {v1 , . . . , vl } es LI y esto contradice (1.4). Luego es v1 = · · · = vk = 0 y
Eλ1 , . . . , Eλk son subespacios independientes.

Teorema 1.0.19. Sea T ∈ L(V ). Son equivalentes:


1. T es diagonalizable.
2. χT escinde y M G(λ) = M A(λ) para todo valor propio λ de T .
L
3. V = hi=1 Eλi , siendo λ1 , . . . , λh los valores propios de T .
Dem. 1 ⇒ 2: Como
 1 T es 1diagonalizable, ya sabemos que χT escinde y además podemos suponer que
h nh
existe una base B = v1 , . . . , vn1 , . . . , v1 , . . . , vh de V tal que
 
λ1
 .. 
 . 
 
 λ 
 1 
 .. 
[T ]B =  . 
 
 λh 
 
 .. 
 . 
λh
siendo λ1 , . . . , λh los valores propios de T con λi 6= λj si i 6= j. Es decir que el valor propio λi aparece
exactamente ni veces en [T ]B para todo i = 1, . . . , h. Luego es
χT (t) = (λ1 − t)n1 · · · (λh − t)nh = (−1)n (t − λ1 )n1 · · · (t − λh )nh .

Observar que por la forma de la matriz [T ]B es v1i , . . . , vni i ⊂ Eλi , luego M G(λi ) ≥ ni = M A(λi ). Pero
siempre vale M G(λi ) ≤ M A(λi ), luego M G(λi ) = M A(λi ), para todo i = 1, . . . , h.

2 ⇒ 3: Sea χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh con λi 6= λj si i 6= j. La Proposición 1.0.18 nos dice
P L
que hi=1 Eλi = hi=1 Eλi , luego
h
! h h h h
M X X X X
dim Eλi = dim Eλi = M G(λi ) = M A(λi ) = ni = gr χT (t) = dim V,
i=1 i=1 i=1 i=1 i=1
Lh
luego i=1 Eλi =V.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 13

3 ⇒ 1: Si Bi es una base de Eλi para todo i = 1, . . . , h, entonces B = B1 ∪ · · · ∪ Bh es una base de V


formada por vectores propios de T .

Teorema 1.0.20. Sea T ∈ L(V ). El operador T es diagonalizable si y sólo si existen escalares distintos
λ1 , . . . , λh y operadores no nulos P1 , . . . , Ph tales que

1. Pi2 = Pi , ∀i = 1, . . . , h (los operadores Pi son proyecciones).

2. Pi ◦ Pj = 0 si i 6= j.

3. id = P1 + · · · + Ph .

4. T = λ1 P1 + · · · + λh Ph .

En este caso, los operadores P1 , · · · , Ph y los escalares λ1 , · · · , λh son únicos y la descomposición T =


λ1 P1 + · · · + λh Ph se llama la descomposición espectral de T .
Lh
Dem. Supongamos primero que T es diagonalizable. Entonces es V = i=1 Eλi , siendo λ1 , . . . , λh
los distintos valores propios de T . Para cada i ∈ {1, . . . , h}, definimos Pi : V → V por Pi (v) = vi si
v = v1 + · · · + vh , con vi ∈ Eλi , i = 1, . . . , h. Por las relaciones que conocemos entre proyecciones y sumas
directas, sabemos que P1 , . . . , Ph verifican las condiciones 1, 2 y 3. Además como Eλi 6= {0}, es Pi 6= 0
∀i = 1, . . . , n.
Si v ∈ V , es v = P1 (v) + · · · + Ph (v) con Pi (v) ∈ Eλi , ∀i = 1, . . . , h, luego

T (v) = T (P1 (v) + · · · + Ph (v)) = T (P1 (v)) + · · · + T (Ph (v)) = λ1 P1 (v) + · · · + λh Ph (v)
= (λ1 P1 + · · · + λh Ph ) (v) ⇒ T = λ1 P1 + · · · + λh Ph .

Recı́procamente, supongamos que T ∈ L(V ) es tal que existen escalares distintos λ1 , . . . , λh y operadores
no nulos P1 , . . . , Ph que verifican las condiciones 1, 2, 3 y 4. ProbaremosL que T es diagonalizable.
Sea Wi = Im(Pi ), i = 1, . . . , h. Las condiciones 1, 2 y 3 implican que V = hi=1 Wi y que si v = w1 +· · ·+wh ,
con wi ∈ Wi , entonces Pi (v) = wi , ∀i = 1, . . . h. Además como Pi 6= 0, es Wi 6= {0} ∀i = 1, . . . , h.
Si v ∈ Wi , es Pi (v) = v, luego
 
X h Xh h
X Xh
T (v) =  
λj Pj (v) = λj Pj (v) = λj Pj (Pi (v)) = λj (Pj ◦ Pi ) (v) = λi Pi2 (v) = λi Pi (v) = λi v.
j=1 j=1 j=1 j=1

Como Wi 6= {0}, la relación anterior implica que λi es un valor propio de T y que Wi ⊂ Eλi , para todo
i = 1, . . . , h. Además tenemos
Mh Xh
V = Wi = Wi . (1.5)
i=1 i=1

Luego tomando una base de cada Wi y considerando la unión de dichas bases, obtenemos una base de V
formada por vectores propios de T . Esto implica que T es diagonalizable.

Veamos para terminar que tal descomposición (en Pcaso de existir) es única. Observar que tomando
h
dimensiones en la relación (1.5) obtenemos dim V = i=1 dim Wi . Por otro lado de Wi ⊂ Eλi se deduce
P
que dim Wi ≤ dim Eλi para todo i = 1, . . . , h. Pero dim V = hi=1 dim Eλi , de donde se tiene que dim Wi =
dim Eλi y como Wi ⊂ Eλi , es Wi = Eλi para todo i = 1, . . . , h. Esto implica que P1 , . . . , Ph son las
L
proyecciones asociadas a la descomposición V = hi=1 Eλi .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 14


Ejemplo 1.0.16. Sea T ∈ L R3 definida por T (x, y, z) = (4x + z, 2x + 3y + 2z, x + 4z). Observar que es
    
x 4 0 1 x
T  y  =  2 3 2   y  y χT (t) = −(t − 3)2 (t − 5).
z 1 0 4 z

Operando obtenemos
E3 = [(1, 0, −1), (0, 1, 0)], E5 = [(1, 2, 1)].
Luego χT escinde, M G(3) = M A(3) = 2 y M G(5) = M A(5) = 1, esto implica que T es diagonalizable
y que B = {(1, 0, −1), (0, 1, 0), (1, 2, 1)} es una base de R3 . Escribiendo un vector geńerico de R3 como
combinación lineal de B obtenemos
x−z x+z
(x, y, z) = (1, 0, −1) + (y − x − z)(0, 1, 0) + (1, 2, 1).
2 2

Luego si definimos P1 y P2 en L R3 mediante
 
x−z x−z z−x
P1 (x, y, z) = (1, 0, −1) + (y − x − z)(0, 1, 0) = , y − x − z, ,
2 2 2
 
x+z x+z z+x
P2 (x, y, z) = (1, 2, 1) = , x + z,
2 2 2

entonces la descomposición espectral de T es T = 3P1 + 5P2 . Además sabemos que P1 y P2 verifican:

P1 + P2 = id , P12 = P1 , P22 = P2 y P1 ◦ P2 = P2 ◦ P1 = 0.

Observación 1.0.8. Se puede probar que cada operador Pi es un polinomio en T (es decir, de la forma
an T n + an−1 T n−1 + · · · + a1 T + a0 id) - ver apéndice 5.2.
Capı́tulo 2

Operadores en espacios de dimensión


finita: Forma de Jordan
1

Si A ∈ Mn (k) es una matriz diagonalizable, la matriz diagonal asociada a A (única a menos del orden
de los elementos en la diagonal) es el representante más sencillo de su clase de semejanza.
Cuando A ∈ Mn (k) no es diagonalizable, permanece el problema de encontrar algún representante “sencillo”
de su clase de semejanza. La solución a este problema está dada por la llamada “forma de Jordan” de A.
Si el cuerpo de base es algebraicamente cerrado (por ejemplo k = C) esta forma siempre existe. Además es
única a menos de cierto orden.
Presentamos en este capı́tulo las nociones básicas para entender la construcción de la forma de Jordan.

2.1. ¿Qué es una matriz de Jordan?


Recordemos que un operador T ∈ L(V ) es diagonalizable si y sólo si existe una base B de V formada
por vectores propios de T . En ese caso si B = {v1 , . . . , vn }, es
 
λ1
 .. 
[T ]B =  .  , T (vi ) = λi vi , ∀i = 1, . . . , n.
λn

También vimos que no todo operador es diagonalizable,


 aún
 si el polinomio caracterı́stico escinde. Por
2 1 3
ejemplo el operador T = LA ∈ L(C3 ), siendo A = 0 2 5 , no es diagonalizable y χT (t) = (t − 2)3 .
0 0 2

Probaremos que si χT (t) escinde en k, entonces existe una base B de V tal que:
 
λi 1
   
J1  λi 1 
   . . . . 
 J2   . . 
[T ]B =  . 
 , Ji =   , i = 1, . . . , h.
 . .  . . 
 . 1 
 
Jh  λi 1 
λi
1
Notas redactadas por Andrés Abella, adaptadas por Mariana Haim para el curso 2007

15
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 16

Cada matriz Ji es un bloque de Jordan correspondiente al valor propio λi (pueden haber varios bloques
correspondientes al mismo valor propio), [T ]B es la forma canónica de Jordan y B es una base de Jordan
para T .

Proposición 2.1.1. Sea J una forma de Jordan para un operador T ∈ L(V ). Si λ es una entrada diagonal
de J, entonces λ es valor propio de T .

 Dem. Alcanza con observar


 que el primer vector de la base de Jordan correspondiente al bloque Jλ =
λ 1
 λ 1 
 
 .. .. 
 . . 
  , es un vector propio de T con valor propio asociado λ.
 .. 
 . 1 
 
 λ 1 
λ

Ejemplo 2.1.1. Sean T ∈ L(V ) y B = {v1 , . . . , v8 } una base de V tales que:


 
2 1 0
 0 2 1 
 
 0 0 2 
 
 2 
[T ]B = 

 ∈ M8 (C).

 3 1 
 0 3 
 
 0 1 
0 0

Es χT (t) = (t − 2)4 (t − 3)2 t2 y los valores propios de T son 2, 3 y 0. La multiplicidad algebraica del valor
propio 2 es 4, la del valor propio 3 es 2 y la del valor propio 0 es 2. Observar que v1 , v4 , v5 y v7 son vectores
propios de T .

2.2. Subespacios invariantes


Sea T ∈ L(V ). Recordemos que un subespacio W de V se dice T -invariante si verifica T (W ) ⊂ W . En
esta situación escribimos T |W : W → W a la restricción de T a W , es decir T |W (w) = T (w) para todo
w ∈ W.


Ejemplo 2.2.1. Si T ∈ L R3 está definida por T (x, y, z) = (x + y, y + z, 0), entonces los subespacios
W1 = {(x, y, 0) : x, y ∈ R} y W2 = {(x, 0, 0) : x ∈ R} son T -invariantes.

Observación 2.2.1. Si T ∈ L(V ), entonces los siguientes subespacios son T -invariantes:

O y V,

Ker(T ) e Im (T ),

Eλ , para cada λ valor propio de T .


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 17

L L
Proposición 2.2.1. Sea T ∈ L(V ) y supongamos que tenemos una descomposición V = W1 · · · Wh
en que cada Wi es T -invariante. Si Bi es una base de Wi , i = 1, . . . , h, entonces en B = B1 ∪ · · · ∪ Bh se
verifica:  
A1
 .. 
[T ]B =  .  , siendo Ai = [T |Wi ]Bi , ∀i = 1, . . . , h.
Ah
  
Dem. Sea Bi = v1i , . . . , vni i , ∀i = 1, . . . , h. Como Wi es T -invariante, es T vji ∈ Wi y por lo tanto es
   
T vji = T |W vji = a1j v1i + · · · + ani j vnj i , ∀j = 1, . . . , ni . Luego
 
0
 .. 
 . 
 
 0 
   
 a1j  a11 · · · a1ni
 


  .. ..  .
coordB T vj =  ...
i
 , ∀j = 1, . . . , ni y [T |Wi ]Bi =  . . 
 
 an j  ani 1 · · · ani ni
 i 
 0 
 
 .. 
 . 
0

Proposición 2.2.2. Si T ∈ L(V ) y W es un subespacio T -invariante de V , entonces XT |W (t) divide a


χT (t) en k[t].

Dem. Sea BW = {w1 , . . . , wm } una base de W , como el conjunto BW es LI, sabemos que existen
wm+1 , . . . , wn en V tales que B = {w1 , . . . , wm , wm+1 , . . . , wn } es una base de V . Como T (wi ) ∈ W ,
∀i = 1, . . . , m, es
 
a1 1 · · · a1 m a1 m+1 ··· a1 n
 .. .. .. .. 
 . . . . 
   
 am 1 · · · am m am m+1 · · · am n  A B

[T ]B =   = ,
 0 ··· 0 am+1 m+1 · · · am+1 n   0 D
 .. .. .. .. 
 . . . . 
0 ··· 0 an m+1 ··· an n

siendo A = [T |W ]BW . Luego




χT (t) = A − t I B = |A − t I| |D − t I| = χT | (t) p(t),
0 D − tI W

siendo p(t) = |D − t I|.


Ejemplo 2.2.2. Sea T ∈ L R4 definida por

T (x, y, z, t) = (x + y + 2z − t, y + t, 2z − t, z + t)
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 18

y W = {(x, y, 0, 0) : x, y ∈ R}. Sea B = {e1 , e2 , e3 , e4 } la base canónica de R4 . Observar que T (x, y, 0, 0) =


(x + y, y, 0, 0) ∈ W , luego W es T -invariante y BW := {e1 , e2 } es base de W . Es
 
  1 1 2 −1
1 1  0 1 0 1 
[T |W ]BW = , [T ]B =  
.
0 1 0 0 2 −1 
0 0 1 1

Luego χT |W (t) = (1 − t)2 y χT (t) = (1 − t)2 t2 − 3t + 3 .

Subespacios T -cı́clicos
Dentro de los subespacios T -invariantes, consideramos los llamados T -cı́clicos.
Los operadores diagonalizables se caracterizan porque inducen una descomposición del espacio en subespacios
invariantes de dimensión 1. Más explı́citamente, si {v1 , v2 · · · vL
n } es una base de vectores propios de T ∈ L(V ),
cada subespacio [vi ] es T -invariante, de dimensión 1 y V = i [vi ].
Los que van a cumplir el papel de los [vi ] en el caso no diagonalizable son los subespacios T -cı́clicos.

Definición 2.2.1. Sea T ∈ L(V ) y v ∈ V . Llamamos subespacio T -cı́clico generado por v a


( n )
  X
2 i
Sv,T := v, T (v), T (v), . . . = ai T (v) : ai ∈ k, i = 0, . . . , n, n ∈ N .
i=0

Proposición 2.2.3. Sv,T es el menor subespacio T -invariante de V que contiene a v.


Pn i
 Pn i+1 (v), luego S
Dem. Es claro que v ∈ Sv,T . Por otro lado T i=0 ai T (v) = i=0 ai T v,T es T -
invariante.

Sea W un subespacio T -invariante que contiene a v. Como W es T -invariante y v ∈ W , entonces


T (v) ∈ W . Luego T 2 (v) = (T ◦ T )(v) = T (T (v)) ∈ W ypor inducción se prueba
 que T n (v) ∈ W , para todo
2
n ∈ N. Como W es un subespacio, esto implica Sv,T = v, T (v), T (v), . . . ⊂ W .

Ejemplo 2.2.3. Si T ∈ L(V ), es S0,T = {0}.

Ejemplo 2.2.4. Si T ∈ L(V ), un vector v 6= 0 es un vector propio de T si y sólo si Sv,T = [v].


Ejemplo 2.2.5. Sea T ∈ L R3 definida por T (x, y, z) = (−y + z, x + z, 3z). Observar que T (e1 ) = e2 y
T (e2 ) = −e1 , luego T n (e1 ) , T n (e2 ) ∈ {±e1 , ±e2 }, ∀n ∈ N. Entonces

Se1 ,T = Se2 ,T = {(x, y, 0) : x, y ∈ R}.

Por otro lado, es


T (e3 ) = e1 + e2 + 3 e3 , T (e1 + e2 + 3 e3 ) = 2 e1 + 4 e2 + 9 e3 ,
luego

Se3 ,T = [e3 , e1 + e2 + 3 e3 , 2 e1 + 4 e2 + 9 e3 , . . .] = [e3 , e1 + e2 + 3 e3 , 2 e1 + 4 e2 + 9 e3 ] = R3 .


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 19

Ejemplo 2.2.6. Sea T ∈ L (R3 [x]) definida por T (p(x)) = p′ (x) y consideremos v = x2 . Es
  
T x2 = 2 x, T 2 x2 = 2, T 3 x2 = 0,
   
luego Sx2 ,T = x2 , 2 x, 2, 0, . . . = x2 , 2 x, 2 = R2 [x] ⊂ R3 [x].

Teorema 2.2.4. Sea T ∈ L(V ), 0 6= v ∈ V , W = Sv,T y h = dim W . Entonces:



1. el conjunto v, T (v), . . . , T h−1 (v) es base de W .

2. si T h (v) = −a0 v − a1 T (v) − · · · − ah−1 T h−1 (v), es


 
χT | (t) = (−1)h a0 + a1 t + · · · + ah−1 th−1 + th .
W

Dem.
  
1. Sea j = mı́n i ∈ Z+ : v, T (v), . . . , T i (v) es LD , como v6= 0, es j ≥ 1. Observar  que v, T (v), . . . , T j−1 (v)
es LI y v, T (v), . . . , T j−1 (v), T j (v) es LD, luego T j (v) ∈ v, T (v), . . . , T j−1 (v) .
 
Afirmación: Para todo p ∈ N se cumple que T j+p(v) ∈ v, T (v), . . . , T j−1 (v) .

Lo
 probaremosj−1 por inducción en p. Si p = 0 sabemos que es cierto. Supongamos que T j+p (v) ∈
v, T (v), . . . , T (v) . Entonces
   
T j+p+1 (v) = T ◦ T j+p (v) = T T j+p(v) ∈ T (v), T 2 (v), . . . , T j (v) .
  
2 (v), . . . , T j−1 (v), T j (v) ⊂ v, T (v), T 2 (v), . . . , T j−1 (v) , deducimos que T j+p+1 (v) ∈
Como
 es T (v), T 
v, T (v), T 2 (v), . . . , T j−1 (v) .
  
Luego W = v, T (v), . . . , T j−1 (v) , j = h = dim W y el conjunto B = v, T (v), T 2 (v), . . . , T h−1 (v) es
base de W .

2. Sea T h (v) = −a0 v − a1 T (v) − · · · − ah−1 T h−1 (v), entonces


 
0 0 · · · 0 −a0
 1 0 · · · 0 −a1 
 
 0 1 · · · 0 −a2 
 
[T |W ]B =  . . .. .. .
 .. .. . . 
 
 0 0 · · · 0 −ah−2 
0 0 · · · 1 −ah−1

Es un ejercicio del práctico probar que en este caso es χT |W (t) = (−1)h a0 + a1 t + · · · + ah−1 th−1 + th .

Definición 2.2.2. Sea T ∈ L(V ). Si p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ∈ k[x], definimos

p(T ) := an T n + an−1 T n−1 + · · · + a1 T + a0 id ∈ L(V ),


Pn
siendo T n = T
| ◦ ·{z· · ◦ T}, n = 1, 2, . . .. Si definimos T 0 = id , podemos escribir p(T ) = i=0 ai T i siendo
P n
p(x) = ni=0 ai xi .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 20

Pn Pn
Si A ∈ Mn (k) y p = i=0 ai xi , definimos p(A) := i=0 ai Ai .
Observación 2.2.2. Sean T ∈ L(V ) y A ∈ Mn (k).
1. Notar que si p(x), q(x) ∈ k[x] y T ∈ L(V ), se tiene

(p.q)(T ) = p(T ) ◦ q(T ) = q(T ) ◦ p(T ) y (p.q)(A) = p(A)q(A) = q(A)p(A).

2. Si consideramos el polinomio constante 1 ∈ k[x], resulta 1(T ) = id y 1(A) = I.


Pn Pn
Si A ∈ Mn (k) y p = i=0 ai xi , definimos p(A) := i=0 ai Ai .

Observación 2.2.3. Si consideramos el polinomio constante 1 ∈ k[x], resulta 1(T ) = id y 1(A) = I para todo
T ∈ L(V ), A ∈ Mn (k).

Proposición 2.2.5. Sea T ∈ L(V ) y B una base de V . Entonces

[p(T )]B = p ([T ]B ) , ∀p ∈ k[x].


P Pn  Pn
Dem. Si p = ni=0 ai xi , es [p(T )]B = i
i=0 ai T B =
i
i=0 ai ([T ]B ) = p ([T ]B ) .

Corolario 2.2.6. Si A ∈ Mn (k), es p (LA ) = Lp(A) ∈ L(kn ) para todo p ∈ k[x].


Dem. Si B es la base canónica de kn , es A = [LA ]B . Aplicando la proposición anterior obtenemos
[p (LA )]B = p(A). Luego p (LA ) = Lp(A) .

En el apéndice 5.1 se presenta esta “evaluación” y sus propiedades generales de manera más rigurosa.
Observación 2.2.4. Si T ∈ L(V ) y v ∈ V , es Sv,T = {p(T )(v) : p ∈ k[x]}.

Lema 2.2.7. Sea T ∈ L(V ), p(t) ∈ k[t] y v un vector propio de T correspondiente a un valor propio λ,
entonces
p(T ) (v) = p(λ) v.
Dem. Observar que T (v) = λ v implica

T 2 (v) = T (T (v)) = T (λ v) = λ T (v) = λ2 v.


P
Razonando por inducción se prueba que T n (v) = λn v, ∀n ∈ N, luego si p(x) = ni=0 ai xi es
n
! n n n
!
X X X X
i i i i
p(T ) (v) = ai T (v) = ai T (v) = ai λ v = ai λ v = p(λ) v.
i=0 i=0 i=0 i=0

Observación 2.2.5. En particular, si T es diagonalizable y D es una representación diagonal de T , se tiene


χT (D) = 0 y por tanto χT (T ) = 0. El siguiente teorema generaliza esta observación a un operador cualquiera.

Teorema 2.2.8. Teorema de Cayley-Hamilton.


Si T ∈ L(V ), entonces χT (T ) = 0.
Dem. Lo que tenemos que probar es que para todo v en V es χT (T ) (v) = 0.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 21

Sea v ∈ V arbitrario fijo. Si v = 0 es χT (T )(v) = χT (T )(0) = 0. Supongamos ahora que v 6= 0 y sea


W = Sv,T . Como W es T -invariante, χT |W divide a χT . Vamos a probar que χT |W (T )(v) = 0.
Sea h = dim W y T h (v) = −a0 v − a1 T (v) − · · · − ah−1 T h−1 (v), el teorema 2.2.4 nos asegura que en este
caso es χT |W (x) = (−1)h a0 + a1 x + · · · + ah−1 xh−1 + xh . Luego
 
χT | (T ) (v) = (−1)h a0 v + a1 T (v) + · · · + ah−1 T h−1 (v) + T h (v) = 0.
W

Como v es arbitrario, resulta χT (T )(v) = 0 para todo v en V .

Corolario 2.2.9. Si A ∈ Mn (k), entonces χA (A) = 0.


Dem. Consideremos LA ∈ L(kn ). El Corolario 5.1.2 aplicado a p(x) = χA (x) implica LχA (A) = χA (LA )
en L (kn ). Utilizando que χLA (x) = χA (x), obtenemos
LχA (A) = χA (LA ) = χLA (LA ) = 0 ⇒ LχA (A) = 0 ⇒ χA (A) = 0.

2.3. Construcción de la forma de Jordan


2.3.1. Para operadores nilpotentes
Si queremos pensar en una matriz no diagonalizable, el ejemplo más sencillo que aparece es una matriz
del tipo  
0 a
A= ,
0 0
con a 6= 0. El único valor propio de A es 0, por lo que, si fuera diagonalizable, serı́a la matriz nula.
Esta matriz verifica A2 = 0. En general cualquier matriz que verifique An = 0 no es diagonalizable (ya que
tiene como único valor propio el 0 y se argumenta del mismo modo). Estas matrices se llaman nilpotentes.
En esta sección construimos la forma de Jordan para las matrices nilpotentes. En la próxima sección utili-
zaremos esta construcción para deducir la forma de Jordan de una matriz cualquiera.
Definición 2.3.1. Un operador T ∈ L(V ) se dice nilpotente si existe n ∈ Z+ tal que T n = 0.

Lema 2.3.1. Sean V un espacio vectorial y N ∈ L(V ) tales que existe n ∈ Z+ que verifica N n = 0.
Entonces:
1. ∃ p ≤ n tal que

6 Ker (N ) ( · · · ( Ker N p−1 = Ker(N p ) = · · · = Ker(N n ) = V.
{0} =

2. Si 1 ≤ q ≤ p y tenemos un conjunto {v1 , . . . , vk } ⊂ Ker(N q ) que es LI y



[v1 , . . . , vk ] ∩ Ker N q−1 = {0},

entonces {N (v1 ), . . . , N (vk )} ⊂ Ker N q−1 , es LI y

[N (v1 ), . . . , N (vk )] ∩ Ker N q−2 = {0}.

Dem. (1): Observemos primero que Ker(N m ) ⊂ Ker N m+1 , ∀m ∈ N. En efecto, si w ∈ Ker(N m ) es

N m (w) = 0 ⇒ N m+1 (w) = N (N m (w)) = N (0) = 0 ⇒ w ∈ Ker N m+1 .
 
Afirmación: Si para algún l es Ker N l+1 = Ker N l , entonces es
   
Ker N l+m = Ker N l , ∀m ≥ 1.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 22

Lo demostraremos
 por indución
 en m. Si m = 1 es la hipótesis. Supongamos
 ahora que para algún
m ≥ 1 es Ker N l = Ker N l+m . Queremos probar Ker N l = Ker N l+m+1 . Por la observación anterior
 
Ker N l = Ker N l+m ⊂ Ker N l+m+1 , ası́ que solo falta probar la otra inclusión. Sea w ∈ Ker N l+m+1 ,
   
0 = N l+m+1 (w) = N l+1 (N m (w)) ⇒ N m (w) ∈ Ker N l+1 = Ker N l ⇒
     
0 = N l (N m (w)) = N l+m (w) ⇒ w ∈ Ker N l+m = Ker N l ⇒ w ∈ Ker N l .

Esto concluye la prueba de la afirmación.


 
Observemos que V = Ker(N n ) ⊂ Ker N n+1 ⊂ V , luego Ker (N n ) = Ker N n+1 . Entonces existe
p = min{m ∈ Z+ : Ker N m−1 = Ker (N m )} y p claramente verifica:
 
{0} ( Ker (N ) ( Ker N 2 ( . . . ( Ker N p−1 = Ker (N p ) = · · · = Ker (N n ) = V.

(2) : Sea ahora 1 ≤ q ≤ p y {v1 , . . . , vk } ⊂ Ker (N q ) que verifica que es LI y [v1 , . . . , vk ] ∩ Ker N q−1 =
{0}. Como vi ∈ Ker (N q ), es

0 = N q (vi ) = N q−1 (N (vi )) ⇒ N (vi ) ∈ Ker N q−1 , ∀i = 1, . . . , k.

luego {N (v1 ) , . . . , N (vk )} ⊂ Ker N q−1 .

Probaremos que [N (v1 ), . . . , N (vk )] ∩ Ker(N q−2 ) = {0} y que {N (v1 ), . . . , N (vk )} es LI.
Pk
Sea w ∈ [N (v1 ), . . . , N (vk )] ∩ Ker(N q−2 ), luego existen ai ∈ k, i = 1, . . . , k tales que w = i=1 ai N (vi )
y w ∈ Ker N q−2 . Entonces

k
! k
!
X X
q−2 q−2 q−1
0=N (w) = N ai N (vi ) =N ai vi ⇒
i=1 i=1
k
X 
ai vi ∈ Ker N q−1 ∩ [v1 , . . . , vk ] = {0}.
i=1

Pk Pk P 
k
luego i=1 ai vi = 0 y w = i=1 ai N (vi ) = N i=1 i i = N (0) = 0.
a v
Esto prueba que [N (v1 ), . . . , N (vk )] ∩ Ker(N q−2 ) = {0}.
Pk
Sean bi ∈ k, i = 1, . . . , k tales que i=1 bi N (vi ) = 0. Es

k
! k
!
X X
0 = N q−2 (0) = N q−2 bi N (vi ) = N q−1 bi vi ,
i=1 i=1
P  P
entonces ki=1 bi vi ∈ Ker N q−1 ∩[v1 , . . . , vk ] = {0}. Luego ki=1 bi vi = 0 y como {v1 , . . . , vk } es LI, resulta
bi = 0, ∀i = 1, . . . , k. Esto prueba que {N (v1 ) , . . . , N (vk )} es LI.

Con los resultados anteriores estamos en condiciones de construir una base de Jordan para los operadores
nilpotentes.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 23

Teorema 2.3.2. Sea N ∈ L (V ) un operador nilpotente. Entonces existe B base de V tal que
 
  0 1
N1  0 1 
 
 . ..   .. .. 
[N ]B =   , Ni =  . . .
 
Nk  0 1 
0

Dem. El operador N ∈ L (V ) está en las hipótesis del lema anterior, luego existe p ≤ n tal que:

6 Ker (N ) ( · · · ( Ker (N p ) = · · · = Ker (N n ) = V.


{0} =

Para simplificar la notación supondremos p = 3, pero la demostración es completamente general. Tenemos


 
{0} = 6 Ker (N ) ( Ker N 2 ( Ker N 3 = · · · = V.
 
Consideremos Ker N 2 ( Ker N id 3 = V . Sea {v1 , . . . , vm } un conjunto LI tal que
 
Ker N 3 = Ker N 2 ⊕ [v1 , . . . , vm ].

Entonces {v1 , . . . , vm } es LI y [v1 , . . . , vm ]∩Ker N 2 = {0}, luego el lema anterior implica que {(N ) (v1 ) , . . . , (N ) (vm )}
Ker N 2 , es LI y [(N ) (v1 ) , . . . , (N ) (vm )] ∩ Ker (N ) = {0}.
 
Consideremos Ker (N ) ( Ker N 2 . Sean u1 , . . . , uq vectores de Ker N 2 , tales que:

{(N ) (v1 ) , . . . , (N ) (vm ) , u1 , . . . , uq } ⊂ Ker N 2 es LI y

Ker N 2 = Ker (N ) ⊕ [(N ) (v1 ) , . . . , (N ) (vm ) , u1 , . . . , uq ]

Luego [(N ) (v1 ) , . . . , (N ) (vm ) , u1 , . . . , uq ] ∩ Ker (N ) = {0}.


Aplicando el lema anterior deducimos que el conjunto

{N 2 (v1 ) , . . . , N 2 (vm ) , N (u1 ) , . . . , N (uq )}

está contenido en Ker (N ) y es LI. Sean w1 , . . . , wr ∈ Ker (N ) tales que

{N 2 (v1 ) , . . . , N 2 (vm ) , N (u1 ) , . . . , N (uq ) , w1 , . . . , wr }

es base de Ker (N ). Sean

B1 = {v1 , . . . , vm },
B2 = {N (v1 ) , . . . , N (vm ) , u1 , . . . , uq },
B3 = {N 2 (v1 ) , . . . , N 2 (vm ) , N (u1 ) , . . . , N (uq ) , w1 , . . . , wr }

Tenemos que:
 
1. V = Ker N 3 = Ker N 2 ⊕ [B1 ]

2. Ker N 2 = Ker (N ) ⊕ [B2 ]

3. Ker (N ) = [B3 ]
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 24

Luego, V = [B1 ] ⊕ [B2 ] ⊕ [B3 ] y B = B1 ∪ B2 ∪ B3 es base de V . Reordenando la base B se tiene:

B = {N 2 (v1 ) , N (v1 ) , v1 , . . . , N 2 (vm ) , N (vm ) , vm ,


N (u1 ) , u1 , . . . , N (uq ) , uq , w1 , . . . , wr }

Observar que B3 ⊂ Ker (N ), luego:

N 3 (v1 ) = · · · = N 3 (vm ) = 0
N 2 (u1 ) = · · · = N 2 (uq ) = 0
N (w1 ) = · · · = N (wr ) = 0

Ası́ se llega a
 
0 1 0
 0 0 1 
 
 0 0 0 
 
 .. 
 . 
 
 0 1 0 
 
 0 0 1 
 
 0 0 0 
 
 0 1 
[N ]B =  
 0 0 
 
 .. 
 . 
 
 0 1 
 
 0 0 
 
 0 
 
 .. 
 . 
0

2.3.2. El caso general

La construcción de la forma de Jordan para una matriz genérica se basa en descomponer al espacio V
en subespacios T -invariantes en los cuales T − λid es nilpotente para cierto λ ∈ k. Esto es lo que haremos a
continuación.

Proposición 2.3.3. Si T ∈ L(V ) y p ∈ k[x], entonces Ker p(T ) e Im p(T ) son subespacios T -invariantes.

Dem. Sea v ∈ Ker p(T ), es p(T )(T (v)) = (p(T ) ◦ T )(v) = (T ◦ p(T ))(v) = T (p(T )(v)) = T (0) = 0, luego
T (v) ∈ Ker p(T ).

Sea v = p(T )(w) ∈ Im p(T ), es T (v) = T (p(T )(w)) = (T ◦ p(T )) (w) = (p(T ) ◦ T ) (w) = p(T ) (T (w)) ,
luego T (v) ∈ Im p(T ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 25

Definición 2.3.2. Un polinomio p(x) es mónico si es no nulo y el coeficiente de su término de mayor grado
es 1, es decir si es de la forma
p(x) = xm + am−1 xm−1 + · · · + a1 x + a0 .

Sean p(x) y q(x) en k[x] no simultáneamente nulos. Recordemos que el máximo común divisor de p(x) y
q(x) es el único polinomio mónico d(x) que verifica d(x)|p(x), d(x)|q(x) y si m(x) ∈ k[x] es tal que m(x)|p(x),
m(x)|q(x), entonces m(x)|d(x). En esta situación escribimos d(x) = mcd (p(x), q(x)).
1
Observar que si p(x) 6= 0 entonces mcd (p(x), 0) = a p(x), siendo a el coeficiente del término de mayor
grado de p(x).

El siguiente resultado nos será de gran utilidad para la teorı́a. La prueba se basa fundamentalmente
en cuestiones de divisibilidad en k[x], por lo que no queremos presentarla aquı́. El lector interesado puede
encontrarla en el apéndice 5.3.
Proposición 2.3.4. Sean p(x) y q(x) polinomios no nulos. Entonces se verifica que mcd (p(x), q(x)) = 1 si
y sólo si existen a(x) y b(x) en k[x] tales que
a(x) p(x) + b(x) q(x) = 1.

Para concluir esta sección, mostramos un resultado que ilustra cómo una propiedad algebraica de k[x]
se refleja (a través de un operador T ∈ L(V )) en una propiedad (lineal) de un espacio vectorial V . Más
precisamente, si p(x) ∈ k[x] es un polinomio que anula a T ∈ L(V ), toda descomposción de p(x) en factores
primos entre sı́ induce una descomposicón de V en subespacios linealmente independientes.
Lema 2.3.5. Sea T ∈ L(V ) y p(x) ∈ k[x].
1. Si tenemos una factorización de la forma p(t) = p1 (t) p2 (t) con mcd (p1 (t), p2 (t)) = 1, entonces
Ker(p(T )) = Ker(p1 (T )) ⊕ Ker(p2 (T )).

2. Si tenemos una factorización de la forma p(t) = p1 (t) · · · ph (t) con mcd (pi (t), pj (t)) = 1 si i 6= j,
entonces
Ker(p(T )) = Ker(p1 (T )) ⊕ · ⊕ Ker(ph (T )).
Dem.
1. Como mcd (p1 (t), p2 (t)) = 1, entonces existen m1 (t) y m2 (t) en k[t] tales que m1 (t) p1 (t)+m2 (t) p2 (t) =
1, luego
id = m1 (T ) ◦ p1 (T ) + m2 (T ) ◦ p2 (T ) = p1 (T ) ◦ m1 (T ) + p2 (T ) ◦ m2 (T ).
Es claro que Ker(p1 (T ))+Ker(p2 (T )) ⊆ Ker(p(T )). Veamos ahora la otra inclusión. Sea v ∈ Ker(p(T )),
entonces
v = id (v) = p1 (T )(m1 (T )(v)) + p2 (T )(m2 (T )(v)). (∗)
Como p(t) = p1 (t) p2 (t) se tiene, para todo v en Ker(p(T )), 0 = p1 (T )(p2 (T )(v)) y resulta que el primer
sumando en (∗) están Ker(p2 (T )) y el segundo en Ker(p1 (T )). Luego
Ker(p(T )) ⊆ Ker p2 (T ) + Ker p1 (T ) ⊂ Ker(p(T )).
Además, si v ∈ Ker p1 (T ) ∩ Ker p2 (T ) es p1 (T )(v) = p2 (T )(v) = 0, entonces
v = id (v) = m1 (T )(p1 (T )(v)) + m2 (T )(p2 (T )(v)) = m1 (T )(0) + m2 (T )(0) = 0.
Luego Ker p1 (T ) ∩ Ker p2 (T ) = {0}.
2. Lo demostraremos por inducción en h.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 26

Para h = 2 es la parte anterior.


Sea ahora h ≥ 3. Supongamos que se cumple para todo k ≤ h − 1 y sea q(t) = p1 (t) · · · ph−1 (t) ∈ k[t],
entonces p(t) = q(t) ph (t) y mcd (q(t), ph (t)) = 1. La hipotésis de recurrencia para k = 2 aplicada a
q(t) y ph (t) implica que
Ker p(T ) = Ker(q(T )) ⊕ Ker(ph (T )).
La hipótesis de recurrencia para k = h − 1 aplicada a p1 (t), p2 (t), · · · , ph−1 (t) implica que

Ker(q(T )) = Ker(p1 (T )) ⊕ · · · ⊕ Ker(ph−1 (T )).

y por lo tanto la tesis

Teorema 2.3.6. Sea T ∈ L(V ) y p(t) ∈ k[t] tal que p(T ) = 0. Si tenemos una factorización de la forma
p(t) = p1 (t) · · · ph (t) con mcd (pi (t), pj (t)) = 1, ∀i 6= j, entonces

V = Ker(p1 (T )) ⊕ · · · ⊕ Ker(ph (T )).

Dem. Se deduce del lema anterior puesto que Ker(p(T )) = V .

En vistas del teorema anterior, si existe un polinomio p(t) ∈ k[t] tal que p(T ) = 0, entonces tenemos
una descomposición de V en subespacios T -invariantes. Vamos a probar que si dicho polinomio escinde, la
descomposición nos da una representación de T a través de una forma de Jordan.

Teorema 2.3.7. Sea T ∈ L(V ) tal que existe p(t) ∈ k[t] que anula a T y escinde. Entonces existen escalares
distintos dos a dos λ1 , λ2 , · · · , λk y naturales n1 , n2 · · · , nk tales que
k
M
V = Ker(T − λi id)ni .
i=1

Además cada Ker(T − λi id)n1 es T -invariante.

Dem. Como p(t) escinde, se tiene


k
Y
p(t) = a (t − λi )ni ,
i=1

para ciertos a ∈ k, λi ∈ k, ni ∈ N. Del teorema 2.3.6 se deduce la tesis (los subespacios son T -invariantes
porque son de la forma Ker(qi (T )) para ciertos polinomios qi (t) ∈ k[t]).

Teorema 2.3.8. Sea T ∈ L (V ). Supongamos que existen λ ∈ k y n ∈ Z+ tales que (T − λ id )n = 0.


Entonces existe B base de V tal que
 
  λ 1
J1  λ 1 
 
 . ..   .. .. 
[T ]B =   , Ji =  . . .
 
Jk  λ 1 
λ
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 27

Dem. Sea N = T − λid ∈ L(V ). Como N es nilpotente, alcanza con considerar una base B en las
condiciones del teorema 2.3.2 y observar que T = λid + N . Se deduce que
 
λ 0
 λ 0 
 
 .. .. 
[T ]B =  . .  + [N ]B .
 
 λ 0 
λ
y por tanto la tesis.

Teorema 2.3.9. Sea T ∈ L(V ). Existe una base de Jordan para T si y solo si χT escinde en k.
Dem. (⇒): Sea B una base de Jordan para T . Entonces
 
  λi 1
J1  λi 1 
 
 . ..   .. .. 
[T ]B =   , Ji =  . .  ∈ Mmi (k).
 
Jq  λi 1 
λi
Qq Qq
Luego χT (t) = i=1 det (Ji − t Id) = i=1 (λi − t)mi y χT (t) escinde en k.

(⇐): Supongamos que χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh , con λi 6= λj si i 6= j.


Como χT (T ) = 0 es p(T ) = 0 siendo p(t) = (t − λ1 )n1 . . . (t − λh )nh y como λi 6= λj para i 6= j, es
mcd ((t − λi )ni , (t − λj )nj ) = 1 si i 6= j, luego aplicando el Teorema 2.3.6 obtenemos
h
M
V = Ker(T − λi id )ni .
i=1

Sea Wi = Ker(T − λi id )ni . Observar


Lh que Wi = Ker qi (T ), siendo qi (t) = (t − λi )ni ∈ C[t], luego Wi es un
subespacio T -invariante y V = i=1 Wi . En esta situación, si Bi es base de Wi , entonces B = B1 ∪ · · · ∪ Bh
es base de V y la matriz asociada a T en esa base tiene la forma
 
A1
 .. 
[T ]B =  .  , siendo Ai = [T |Wi ]Bi , ∀i = 1, . . . , h.
Ah
Observar además que
 ni
(T |Wi − λi id Wi )ni = T − λi id |Wi = (T − λi id )ni |Wi = 0.

Luego es T |Wi ∈ L(Wi ) y (T |Wi − λi id Wi )ni = 0. Entonces por el teorema anterior aplicado a T |Wi ∈ L (Wi ),
existe Bi base de Wi tal que para Ai = [T |Wi ]Bi , es
 
 i  λ i 1
J1  λi 1 
 
 ..  i  .. .. 
Ai =  .  , donde Jj =  . .  , ∀j = 1, . . . , ki .
 
i
Jki  λi 1 
λi
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 28

Sea ahora B = B1 ∪ · · · ∪ Bh . Entonces


   
A1 J1i
 ..   .. 
[T ]B =  . , Ai =  .  , ∀i = 1, . . . , h,
Ah Jki i
 
λi 1
 λi 1 
 
i  .. .. 
Jj =  . .  , ∀j = 1, . . . , ki .
 
 λi 1 
λi

2.4. Unicidad de la forma de Jordan


Probamos en esta sección que la forma de Jordan, en caso de existir, es única a menos de una reordenación
de los bloques de Jordan.
Definición 2.4.1. Sean N ∈ Mn (k) una matriz de Jordan cuyos valores propios son todos 0 y k ∈ N \ 0
un natural positivo. Definimos por µN (k) al número de bloques de Jordan de tamaño k en la matriz N .
 
N1
 N2 
 
Proposición 2.4.1. Sea N =  .. .. ,
 . . 
Nh
 
0 1
 0 1 
 
 .. .. 
donde para cada i = 1, 2, · · · , h, Ni =  . ..
 
 0 1 
0
 
Entonces µN (k) = dim Ker N ∩ Im N k−1 − dim Ker N ∩ Im N k , para todo k ∈ N \ {0}.
Dem. Alcanza con probar que para cada i
     
dim Ker Ni ∩ Im Nik−1 − dim Ker Ni ∩ Im Nik = µNi (k) (∗)
Sea ni el tamaño de Ni . Es claro que para cada i ∈ {1, 2, · · · , h} se tiene

1 si k = ni
µNi (k) =
0 si no
Por otra parte, se tiene Ker(Ni ) ⊆ Im(Nik ), si k ≤ ni − 1 y Im(Nik ) = 0 si k ≥ ni y . Además
dim Ker(Ni ) = 1.
Se deduce que el término de la izquierda de (∗) es

1, si k = ni
0, si no.

Corolario 2.4.2. Si N y N ′ son semejantes y k ∈ N \ {0}, entonces µN (k) = µN ′ (k).


Dem. Se deduce de la proposición anterior que µN (k) depende sólo del operador y no de su representación
matricial. Dicho de otro modo, no depende de la matriz sino de su clase de semejanza.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 29

Teorema 2.4.3. Sean J y J ′ dos formas de Jordan semejantes. Entonces para cada λ ∈ k y cada k ∈ N\{0},
J y J ′ tienen el mismo número de bloques de tamaño k correspondientes a λ. (Es decir, a menos de una
reordenación bloques, se tiene J = J ′ .)
 
λ1 Id + N1
 λ2 Id + N2 
 
Dem. Supongamos J =  .. .. 
 . . 
λh Id + Nh
 
λ′1 Id + N1′
 λ′2 Id + N2′ 
 
y J′ =  .. ..  , donde ∀i 6= j se tiene λi 6= λj , λ′i 6= λ′j y
 . . 
λ′h′ Id + Nh′
donde cada una de ′
las matrices Ni y Ni es una matriz de Jordan con todas sus entradas diagonales nulas.
Notaremos además Ji = λId + Ni y Ji′ = λ′ Id + Ni′ para cada i.

Ahora bien, χJ = χJ ′ , por lo que las entradas diagonales de J coinciden con las de J ′ (puesto que
son las raı́ces de los respectivos polinomios caracterı́sticos). Se tiene entonces h = h′ y se puede suponer
(reordenando bloques) que λi = λ′i , ∀i ∈ {1, 2, · · · , h}.
Además, el número de veces que aparece cada λi en la diagonal de J coincide con el número de veces que
aparece en J ′ (puesto que ese número es la multiplicidad de λi como raı́z del polinomio caracterı́stico). Se
deduce entonces que para i ∈ {1, 2, · · · , h}, las matrices Ji y Ji′ tienen el mismo tamaño.
Además, como J = P J ′ P −1 para cierta matriz invertible P , se deduce de los tamaños de los bloques que
para cada i ∈ {1, 2, · · · , h}, se tiene
   
0 0
 ..   .. 
 .   . 
  −1  
P Ji   ′ .
P =  Ji 
 ..   .. 
 .   . 
0 0

En esta situación, es fácil deducir que, para cada i ∈ {1, 2, · · · , h}, las matrices Ji y Ji′ son semejantes y por
lo tanto también lo son Ni = Ji − λi id y Ni′ = Ji′ − λi id.
Se deduce que, a menos de reordenar bloques, Ni = Ni′ para cada i ∈ {1, 2, · · · , h}. En efecto, el número de
bloques de tamaño k de Ni coincide con el de Ni′ por el corolario 2.4.2.

2.5. Polinomio minimal


En esta sección presentamos una descripción sencilla del conjunto de todos los polinomios en k[t] que
anulan a un operador fijo T ∈ L(V ) mostrando que hay uno en particular (el polinomio minimal) que
describe a todo el conjunto.

Definición 2.5.1. Sea T ∈ L(V ). Definimos IT = {p(t) ∈ k[t] : p(t) 6= 0 y p(T ) = 0}.

Observación 2.5.1. El teorema de Cayley-Hamilton asegura que si T ∈ L(V ), entonces χT (t) ∈ IT .


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 30

Teorema 2.5.1. Sea T ∈ L(V ). Existe un único polinomio mónico de grado mı́nimo entre los polinomios
de IT .

Dem. Por la observación anterior, sabemos que existe un polinomio p(t) ∈ IT no nulo y por lo tanto
existe m̃(t) ∈ I no nulo de grado mı́nimo entre los polinomios de IT . Definimos m(t) := a1 m̃(t) siendo a el
coeficiente del término de mayor grado de m̃(t). Entonces m(t) es un polinomio mónico de grado mı́nimo
entre los polinomios de IT .

Veamos que es el único. Supongamos que existe otro polinomio m′ (t) ∈ IT mónico de grado mı́nimo.
Entonces r(t) = m(t) − m′ (t) también anula a T . Si r(t) = 0 se deduce que m(t) = m′ (t).
En caso contrario, tomamos el coeficiente r0 del término de mayor grado de r(t) y consideramos el polinomio
1
r0 r(t). Este polinomio es mónico, pertenece a IT y tiene grado estrictamente menor que el de m(t), lo que
contradice la construcción de m(t).

Definición 2.5.2. El polinomio construido en el teorema 2.5.1 se llama el polinomio minimal de T y se


escribe mT (t).

Teorema 2.5.2. Sea T ∈ L(V ).

1. Todo polinomio en IT es nulo o tiene grado mayor o igual al grado de mT .

2. IT = {mT (t)q(t) | q(t) ∈ k[t]}

Dem.

1. Sea p(t) ∈ IT no nulo. Dividiendo a p(t) por su término de mayor grado, obtenemos un polinomio
mónico que también esá en IT y por lo tanto tiene grado mayor o igual al de mT .

2. Sea p(t) ∈ k[t] que verifique p(T ) = 0. Dividimos p(x) por m(t) y es p(t) = m(t) d(t) + r(t) con r(t) = 0
o r(t) 6= 0 y gr r(t) < gr m(t). Entonces

r(T ) = q(T ) − m(T ) ◦ d(T ) = 0 − 0 ◦ d(T ) = 0.

y por lo tanto r(t) ∈ IT .


Si fuese r(t) 6= 0 tendrı́amos una contradicción con la minimalidad del grado de m(t), luego necesaria-
mente es r(t) = 0 y por lo tanto m(t) divide a q(t).

Podemos resumir lo anterior en el siguiente teorema.

Teorema 2.5.3. Si T ∈ L(V ), entonces el polinomio minimal mT (t) ∈ k[t] es el único polinomio que
verifica:

1. mT (T ) = 0.

2. mT (t) es de grado mı́nimo entre los polinomios no nulos que anulan a T .

3. mT (t) es mónico.

Este polinomio cumple además que si p(t) ∈ k[t] es tal que p(T ) = 0, entonces mT (t) divide a p(t).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 31

Corolario 2.5.4. Si T ∈ L(V ), entonces χT (t) es múltiplo de mT (t).

Dem. Se deduce del teorema de Cayley-Hamilton.


Observación 2.5.2. Del corolario anterior sale que todas las raı́ces del polinomio minimal son raı́ces del
polinomio caracterı́stico. Vamos a probar más adelante en esta sección que el recı́proco también vale.

Ejemplo 2.5.1. 1. Si T = 0 ∈ L(V ), entonces m0 (t) = t.

2. Si T = id ∈ L(V ), entonces mid (t) = t − 1.

Definición 2.5.3. Sea A ∈ Mn (k), llamamos polinomio minimal de A al polinomio mA (t) ∈ k[t] que verifica:

1. mA (A) = 0.

2. mA (t) es de grado mı́nimo entre los polinomios no nulos que anulan a A.

3. mA (t) es mónico.

Análogamente al caso de T ∈ L(V ), se prueba que este polinomio existe y es el único polinomio que verifica
dichas condiciones. Además cumple que si p(t) ∈ k[t] verifica p(A) = 0, entonces mA (t) divide a p(t).

 
λ
 .. 
Ejemplo 2.5.2. Consideremos una matriz escalar A =   ∈ Mn (k). Es A = λI, luego A−λI = 0
.
λ
y mA (t) = t − λ. Observar que vale también el recı́proco, si mA (t) = t − λ, entonces es A = λ I.

Proposición 2.5.5. Sea T ∈ L(V ), B una base de V y A = [T ]B . Entonces mT (t) = mA (t).

Dem.

0 = mA (A) = mA ([T ]B ) = [mA (T )]B ⇒ mA (T ) = 0 ⇒ mT (t)|mA (t),


mT (A) = mT ([T ]B ) = [mT (T )]B = [0]B = 0 ⇒ mT (A) = 0 ⇒ mA (t)|mT (t).

Luego existe a ∈ k tal que mT (t) = a mA (t). Como ambos polinomios son mónicos la única posibilidad es
a = 1 y mT (t) = mA (t).

Corolario 2.5.6. Si A ∈ Mn (k), es mLA (t) = mA (t).

Dem. Se deduce inmediatamente de la proposición anterior, dado que si B es la base canónica de kn ,


entonces [LA ]B = A.

Teorema 2.5.7. Sea T ∈ L(V ). Entonces mT (x) y χT (x) tienen las mismas raı́ces.

Dem. Como mT (x) divide a χT (x), entonces existe un polinomio g(x) tal que χT (x) = g(x) mT (x). Sea
α ∈ k tal que mT (α) = 0, entonces χT (α) = g(α) mT (α) = g(α) 0 = 0, luego χT (α) = 0.

Sea λ ∈ k tal que χT (λ) = 0. El escalar λ es un valor propio de T , luego existe v 6= 0 tal que T (v) = λ v.
Por el lema 2.2.7 es mT (λ) v = mT (T ) (v) = 0(v) = 0 y como v 6= 0 es mT (λ) = 0.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 32

Observación 2.5.3. Este teorema implica que si


χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh , con λi 6= λj si i 6= j,

entonces
mT (t) = (t − λ1 )m1 · · · (t − λh )mh , con 1 ≤ mi ≤ ni , i = 1, . . . , h.

Corolario 2.5.8. Sea A ∈ Mn (k). Entonces mA (x) y χA (x) tienen las mismas raı́ces.
Dem. Se deduce del teorema anterior porque mA (x) = mLA (x) y χA (x) = χLA (x).
 
3 −1 0 
(t − 2)(t − 3)
Ejemplo 2.5.3. Sea A =  0 2 0 . Es χA (t) = −(t − 2) (t − 3), luego mA (t) =
2 .
(t − 2)2 (t − 3)
1 −1 2
Calculando es (A − 2I)(A − 3I) = 0, luego mA (t) = (t − 2)(t − 3).

Ejemplo 2.5.4. Sea T ∈ L(R2 ) definida por T (x, y) = (2x + 5y, 6x + y). Es χT (t) = (t − 7)(t + 4), luego
necesariamente es mT (t) = (t − 7)(t + 4).

Ejemplo 2.5.5. Sea T ∈ L(R2 [x]) definida por T (p(x)) = p′ (x). Si B = 1, x, x2 , es
 
0 1 0
A = [T ]B =  0 0 2  .
0 0 0
 
0 0 2
Observar que A = 0 0 0 6= 0 y A3 = 0, luego mT (t) = mA (t) = t3 . Otra forma de obtener mT (t) es
2 
0 0 0
observar que

T a x2 + b x + c = 2a x + b,

T 2 a x2 + b x + c = 2a,

T 3 a x2 + b x + c = 0.
Luego T 3 = 0 y T 2 6= 0, entonces mT (t) = t3 .
 
A1
 .. 
Observación 2.5.4. Sea A =  .  una matriz en bloques, siendo Ai ∈ Mni (k), i = 1, . . . , h. Por
Ah
ejemplo si
 
2 3 4 0 0 0
3 0 5 0 0 0  
  A1 0 0
2 2 7 0 0 0
A=
0
, es A =  0 A2 0  , siendo
 0 0 6 0 0
0 0 0 A3
0 0 0 4 3
0 0 0 7 0 0
 
2 3 4  
4 3
A1 = 3 0 5 ,
 A2 = (6), A3 = .
0 7
2 2 7
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 33

 
Al1
 .. 
Es un ejercicio probar que vale Al =  . , ∀l ∈ N. Luego se deduce
Alh
 
p(A1 )
 .. 
p(A) =  . , ∀ p(x) ∈ k[x].
p(Ah )

Teorema 2.5.9. Sea T ∈ L(V ). Entonces T es diagonalizable si y sólo si mT (t) es de la forma


mT (t) = (t − λ1 ) · · · (t − λh ) ,
con λi 6= λj si i 6= j.
Dem. (⇒) : Supongamos que existe B base de V tal que
 
λ1
 .. 
 . 
 
 λ1 
 
 .. 
[T ]B =  .  , con λi 6= λj si i 6= j.
 
 λh 
 
 .. 
 . 
λh
Entonces χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh y mT (t) = (t − λ1 )m1 · · · (t − λh )mh , con 1 ≤ mi ≤ ni ,
∀i = 1, . . . , h. Sea p(t) = (t − λ1 ) · · · (t − λh ), es
 
p (λ1 )
 .. 
 . 
 
 p (λ ) 
 1 
 .. 
p ([T ]B ) =  .  = 0,
 
 p (λ ) 
 h 
 .. 
 . 
p (λh )
luego mT (t) = (t − λ1 ) · · · (t − λh ).

(⇐) : Supongamos que mT (t) = (t − λ1 ) · · · (t − λh ), con λi 6= λj si i 6= j. Sabemos que mT (T ) = 0


y como λi 6= λj si i 6= j, es mcd (t − λi , t − λj ) = 1 si i 6= j. Entonces aplicando el Teorema 2.3.6 a
p(t) = mT (t) obtenemos
V = Ker (T − λ1 id ) ⊕ · · · ⊕ Ker (T − λh id ) = Eλ1 ⊕ · · · ⊕ Eλh ,
luego T es diagonalizable.

Corolario 2.5.10. Una matriz A ∈ Mn (k). es diagonalizable si y sólo si mA (t) es de la forma


mA (t) = (t − λ1 ) · · · (t − λh ) ,
con λi 6= λj si i 6= j.
Dem. Se deduce de lo anterior porque A es diagonalizable si y sólo si LA es diagonalizable y mA (t) =
mLA (t).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 34

Ejemplo 2.5.6. 1. En el Ejemplo 2.5.3 es mA (t) = (t − 2)(t − 3) y en el Ejemplo 2.5.4 es mT (t) =


(t − 7)(t + 4), luego A y T son diagonalizables. Por otro lado en el Ejemplo 2.5.5 es mT (t) = t3 y T
no es diagonalizable.

2. Si T es una proyección, entonces T verifica T 2 = T . Luego es p(T ) = 0, siendo p(t) = t2 − t = t(t − 1) y


T es diagonalizable. De hecho si mT (t) = t − 1, es T = id . Si mT (t) = t, es T = 0. Si mT (t) = t(t − 1)
entonces existe una base B de V tal que
 
0
 .. 
 . 
 
 0 
[T ]B =  .
1 
 
 . . 
 . 
1

3. Sea A ∈ Mn (R) tal que A3 = A. Entonces p(A) = 0, siendo p(t) = t3 − t. Observar que p(t) = t3 − t =
t(t − 1)(t + 1), luego A es diagonalizable.

4. Hallar las matrices reales 2 × 2 que verifican A2 − 3A + 2I = 0.

Sea p(t) = t2 − 3t + 2, es p(A) = 0, luego mA (t) divide a p(t). Como p(t) = (t − 1)(t − 2), entonces
mA (t) puede ser t − 1, t − 2 o (t − 1)(t − 2). Si mA (t) = t − 1, entonces A = I. Si mA (t) = t − 2,
entonces A = 2I. Si mA (t) = (t − 1)(t
 − 2), entonces A es diagonalizable con valores propios 1 y 2, es
1 0
decir que A es semejante a .
0 2

Proposición 2.5.11. 1. Si  
λ 1
 λ 1 
 
 .. .. 
J = . .  ∈ Mn (k).
 
 λ 1 
λ
Entonces mJ (t) = (t − λ)n .

2. Si  
  λ 1
J1  λ 1 
 
 ..   .. .. 
A= .  ∈ Mn (k), Ji =  . .  ∈ Mpi (k),
 
Jk  λ 1 
λ
con p1 ≥ p2 ≥ · · · ≥ pk . Entonces mA (t) = (t − λ)p1 .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 35

3. Si
   
A1 J1i
 ..   .. 
A= .  ∈ Mn (k), Ai =  .  ∈ Mni (k),
Ah Jki i
 
λi 1
 λi 1 
 
 .. .. 
Jji = . .  ∈ Mpij (k), j = 1, . . . , ki ,
 
 λi 1 
λi

con λi 6= λj si i 6= j y pi = pi1 ≥ pi2 ≥ · · · ≥ piki , i = 1, . . . , h. Entonces

mA (t) = (t − λ1 )p1 · · · (t − λh )ph .

Dem. (1): Es χJ (t) = (λ − t)n = (−1)n (t − λ)n , luego mJ (t) = (t − λ)m , con 1 ≤ m ≤ n.
Es
 
0 1
 0 1 
 
 .. .. 
J − λI =  . . ,
 
 0 1 
0
 
0 0 1
 0 0 1 
 
 .. .. .. 
 . . . 
(J − λ I)2 =  ,
 0 1 
 
 0 0 
0
..
.
 
0 ··· 0 1
 0 ··· 0 0 
 
(J − λ I)n−1 =  . .. ..  ,
 .. . . 
0 ··· 0 0
(J − λ I)n = 0.

Luego mJ (t) = (t − λ)n .

(2): Es χA (t) = (−1)n (t − λ)n , luego mA (t) = (t − λ)m con 1 ≤ m ≤ n.

Si p(t) = (t − λ)q , es  
p (J1 )
 .. 
p(A) =  . .
p (Jk )
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 36

Luego

p(A) = 0 ⇔ p (Ji ) = 0, ∀i = 1, . . . , h
⇔ mJi (t)| p(t), ∀i = 1, . . . , h
⇔ (t − λ)pi | (t − λ)q , ∀i = 1, . . . , h
⇔ pi ≤ q, ∀i = 1, . . . , h
⇔ p1 ≤ q.

Entonces p(A) = 0 si y solo si q ≥ p1 , luego mA (t) = (t − λ)p1 .

(3): Es χA (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh , con λi 6= λj si i 6= j.


Luego mA (t) = (t − λ1 )m1 · · · (t − λh )mh , con 1 ≤ mi ≤ ni , ∀i = 1, . . . , h.

Sea p(t) = (t − λ1 )q1 · · · (t − λh )qh . Es


 
p (A1 )
 .. 
p(A) =  . .
p (Ah )

Luego

p(A) = 0 ⇔ p (Ai ) = 0, ∀i = 1, . . . , h
⇔ mAi (t)| p(t), ∀i = 1, . . . , h
⇔ (t − λi )pi | (t − λ1 )q1 · · · (t − λh )qh , ∀i = 1, . . . , h
⇔ pi ≤ qi , ∀i = 1, . . . , h.

Entonces mA (t) = (t − λ1 )p1 · · · (t − λh )ph .

Corolario 2.5.12. Si un operador o matriz tiene forma de Jordan, entonces para cada valor propio λ, el
exponente de t − λ en la descomposición factorial del polinomio minimal, coincide con el tamaño del mayor
bloque de Jordan correspondiente a λ.

Ejemplo 2.5.7. Sea


 
2 1 0
 0 2 1 
 
 0 0 2 
 
 2 1 0 
 
 0 2 1 
A=

.

 0 0 2 
 3 1 
 
 0 3 
 
 3 
−5
Es χA (t) = (t − 2)6 (t − 3)3 (t + 5) y mA (t) = (t − 2)3 (t − 3)2 (t + 5).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 37

Ejemplo 2.5.8. Consideremos T ∈ L(R2 [x]) definida por T (p(x)) = p′ (x), en el Ejemplo 2.5.5 vimos que
mT (t) = t3 y es χT (t) = −t3 , luego la forma de Jordan de T es
 
0 1 0
J =  0 0 1 .
0 0 0

Conociendo la forma de Jordan es más fácil hallar una


 2base de Jordan. En este caso hay un solo bloque de
Jordan, por lo tanto la base es un ciclo de la forma T (p(x)), T (p(x)), p(x) siendo p(x) ∈ R2 [x] \ Ker T 2 .
Por ejemplo, si tomamos p(x) = x2 , es B = 2, 2x, x2 una base de Jordan para T y [T ]B = J.


Ejemplo 2.5.9. Sea T ∈ L R3 definida por T (x, y, z) = (2x, −y + 3z, −3y + 5z). Es T = LA , siendo
 
2 0 0
A =  0 −1 3  .
0 −3 5

Luego χT (t) = − (t − 2)3 . Calculando obtenemos


 
0 0 0
A − 2I =  0 −3 3  , (A − 2I)2 = 0.
0 −3 3

Luego mT (t) = (t − 2)2 y como χT (t) = − (t − 2)3 , resulta que la forma de Jordan de T es
 
2 1 0
J =  0 2 0 .
0 0 2

Luego si B es una base de Jordan para T , B es de la forma

B = {(T − 2 id )(u), u, v}

siendo u ∈ Ker(T − 2 id )2 \ Ker(T − 2 id ) = R3 \ Ker(T − 2 id ) y v ∈ Ker(T − 2 id ). Calculando obtenemos

Ker (T − 2 id ) = [(1, 0, 0) , (0, 1, 1)].

El vector u = (0, 0, 1) ∈ R3 \ Ker(T − 2 id ). Luego

(T − 2 id ) (u) = (T − 2 id ) (0, 0, 1) = (0, 3, 3) ∈ Ker (T − 2 id ) .

Si tomamos v = (1, 0, 0), es {(1, 0, 0) , (0, 3, 3)} una base de Ker (T − 2 id ), B = {(0, 3, 3) , (0, 0, 1) , (1, 0, 0)}
es una base de Jordan para T y [T ]B = J.

Observación 2.5.5. El polinomio minimal no determina siempre la forma de Jordan. Consideremos las si-
guientes matrices    
λ 1 0 0 λ 1 0 0
 0 λ 0 0   0 λ 0 0 
A=  0 0
, B= .
λ 1   0 0 λ 0 
0 0 0 λ 0 0 0 λ
En este caso es χA (t) = χB (t) = (t − λ)4 y mA (t) = mB (t) = (t − λ)2 , pero A y B son distintas.
Capı́tulo 3

Operadores en espacios con producto


interno
1

En este capı́tulo consideramos espacios vectoriales sobre R o C que admiten una operación binaria a
valores escalares (reales o complejos) llamada producto interno. El producto interno, también llamado
producto escalar, permite introducir nociones geométricas en el espacio, como las de ángulo y longitud.

En este tema el cuerpo de base k será R o C. Diremos que un k-espacio vectorial V es un espacio vectorial
real si k = R y que V es un espacio vectorial complejo si k = C.

3.1. Espacios con producto interno


Definición 3.1.1. Sea V un espacio vectorial. Un producto interno en V es una función h , i : V × V → k
que verifica:

1. hu + v, wi = hu, wi + hv, wi, ∀u, v, w ∈ V .

2. ha u, vi = ahu, vi, ∀a ∈ k, u, v ∈ V .

3. hu, vi = hv, ui, ∀u, v ∈ V .

4. hv, vi > 0, ∀v 6= 0.

Un espacio con producto interno es un par (V, h , i) en el cual V es un espacio vectorial y h , i : V × V → k


es un producto interno en V .

Observación 3.1.1. 1. Si k = R, la condición hu, vi = hv, ui, ∀u, v ∈ V queda en hu, vi = hv, ui, ∀u, v ∈ V .

2. Las dos primeras condiciones nos dicen que h , i es lineal en la primera componente.

3. si k = C, el producto interno no es lineal en la segunda componente. En efecto,

por las condiciones 1 y 3, se tiene hu, v + wi = hu, vi + hu, wi, si u, v, w ∈ V ,


por las condiciones 2 y 3, se tiene hu, avi = ahu, vi, si u, v ∈ V y a ∈ k.

Se dice que el producto interno es sesquilineal.


1
Notas redactadas por Andrés Abella, adaptadas por Mariana Haim para el curso 2007

38
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 39

Ejemplo 3.1.1. En kn el siguiente es un producto interno


n
X
h(x1 , . . . , xn ) , (y1 , . . . , yn )i = xi yi .
i=1

Lo llamaremos producto interno usual de kn y es el que consideraremos en general en kn , a menos que


explicitemos otro.

t
Ejemplo 3.1.2. Si A ∈ Mn (k), definimos A∗ := A , es decir si A = (aij ) y A∗ P= (bij ), es bij = aji (si k = R
es A∗ = At ). Definimos h , i : Mn (k) × Mn (k) → k por hA, Bi := tr (A B ∗ ) = ni,j=1 aij bij .

Ejemplo R 13.1.3. Sea C[0, 1] := {f : [0, 1] → R : f es continua}, definimos h , i : C[0, 1] × C[0, 1] → R por
hf, gi = 0 f (t) g(t) dt.

Ejemplo 3.1.4. Si I = [a, b] ⊂ R es un intervalo cerrado y f : I → C es una función, entonces para cada t
en I es f (t) = f1 (t) + i f2 (t), luego f define dos funciones f1 , f2 : I → R y recı́procamente f1 y f2 definen
f = f1 + if2 . Se dice que f es continua o integrable si f1 y f2 son continuas o integrables respectivamente.
Si f es integrable se define Z Z Z
b b b
f := f1 + i f2 ∈ C.
a a a
1
R 2π
Sea H = {f : [0, 2π] → C : f es continua}, definimos h , i : H × H → C por hf, gi = 2π 0 f (t) g(t) dt.

Observación 3.1.2. Observar que si h , i : V × V → k es un producto interno en V y r ∈ R+ , entonces


h , ir : V × V → k definido por hu, vir := rhu, vi es otro producto interno en V .

De ahora en adelante (V, h , i) es un espacio con producto interno.

Proposición 3.1.1. Vale:


1. hv, vi = 0 si y sólo si v = 0.

2. Si hv, ui = 0 para todo v ∈ V , entonces u = 0.

3. Si hv, ui = hv, wi para todo v ∈ V , entonces u = w.


Dem.
1. Si v 6= 0, entonces es hv, vi > 0 y por lo tanto hv, vi =
6 0; luego hv, vi = 0 implica v = 0.
Recı́procamente, si v = 0 es h0, 0i = h0 + 0, 0i = h0, 0i + h0, 0i ∈ k, luego hv, vi = h0, 0i = 0.

2. Si hv, ui = 0 para todo v ∈ V , entonces tomando v = u es hu, ui = 0 y luego u = 0.

3. Si hv, ui = hv, wi para todo v ∈ V , entonces es 0 = hv, ui − hv, wi = hv, u − wi para todo v ∈ V , luego
es u − w = 0 y resulta u = w.

Observación 3.1.3. De la condición 4 de la definición de producto interno y de la afirmación 1 de la propo-


sición anterior se deduce lo siguiente:

hv, vi ≥ 0, ∀v ∈ V y hv, vi = 0 ⇔ v = 0.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 40

p
Definición 3.1.2. Si v ∈ V , definimos su norma por ||v|| := hv, vi. La norma define una función || || :
V → R.

qP
n 2
Ejemplo 3.1.5. Si V = kn con el producto interno usual, entonces || (x1 , . . . , xn ) || = i=1 |xi | .

Observación 3.1.4. Si z ∈ C, z = a + ib con a, b ∈ R, escribimos Re(z) = a y Im(z) = b. Observar que es


| Re(z)| ≤ |z|, | Im(z)| ≤ |z|, z + z = 2 Re(z) y z − z = 2i Im(z). Vale la siguente igualdad:

||u + v||2 = ||u||2 + 2 Re (hu, vi) + ||v||2 , ∀u, v ∈ V. (3.1)

Observar además que si k = R, la relación (3.1) queda

||u + v||2 = ||u||2 + 2 hu, vi + ||v||2 , ∀u, v ∈ V.

Dem.

||u + v||2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = ||u||2 + hu, vi + hu, vi + ||v||2
= ||u||2 + 2 Re (hu, vi) + ||v||2 .

Proposición 3.1.2. Vale:

1. ||a v|| = |a| ||v||, para todo v ∈ V y a ∈ k.

2. ||v|| ≥ 0 para todo v ∈ V y ||v|| = 0 si y sólo si v = 0.

3. Desigualdad de Cauchy-Schwarz: para todo u, v ∈ V es |hu, vi| ≤ ||u|| ||v|| y vale el sı́mbolo de igual si
y solo si {u, v} es LD.

4. Desigualdad triangular: para todo u, v ∈ V es ||u + v|| ≤ ||u|| + ||v||.

Dem. Las dos primeras afirmaciones se deducen inmediatamente de la definición de norma. Para la
desigualdad de Cauchy-Schwarz, si v = 0 es |hu, vi| = |hu, 0i| = 0 = ||u|| ||0|| = ||u|| ||v|| y el conjunto
{u, v} = {u, 0} es LD.
Supongamos ahora que v 6= 0. Observar que para todo c ∈ k es 0 ≤ ||u − c v||2 . Tomando c = hu, vi/||v||2 y
utilizando la relación (3.1) obtenemos

|hu, vi|2
||u − c v||2 = ||u||2 − 2 Re(hu, c vi) + |c|2 ||v||2 = ||u||2 − 2 Re(c hu, vi) + ||v||2
||v||4
!
hu, vi |hu, vi|2 |hu, vi|2 |hu, vi|2 |hu, vi|2
= ||u||2 − 2 Re hu, vi + = ||u||2
− 2 + = ||u||2
− .
||v||2 ||v||2 ||v||2 ||v||2 ||v||2

Luego
|hu, vi|2
||u − c v||2 = ||u||2 − . (3.2)
||v||2
De las relaciones 0 ≤ ||u − c v||2 y (3.2) se obtiene la desigualdad de Cauchy-Schwarz.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 41

Si {u, v} es LD, como v 6= 0 entonces existe a ∈ k tal que u = a v, luego


|hu, vi| = |ha v, vi| = |a hv, vi| = |a| ||v||2 = |a| ||v|| ||v|| = ||a v|| ||v|| = ||u|| ||v||.
Recı́procamente si |hu, vi| = ||u|| ||v|| y v 6= 0 entonces (3.2) implica ||u − c v||2 = 0 y luego u = c v para
c = hu, vi/||v||2 .

La desigualdad triangular se deduce de:


||u + v||2 = ||u||2 + 2 Re (hu, vi) + ||v||2 ≤ ||u||2 + 2| hu, vi | + ||v||2 ≤ ||u||2 + 2||u|| ||v|| + ||v||2
= (||u|| + ||v||)2 .

Aplicación 3.1.1. En el caso particular de V = kn (con el producto interno usual) la desigualdad de


Cauchy-Schwarz y la desigualdad triangular nos dan las siguientes relaciones:
!1/2 n !1/2
X n Xn X
2 2
xi i ≤
y |xi | |yi | ,

i=1 i=1 i=1
n
!1/2 n
!1/2 n
!1/2
X 2
X 2
X 2
|xi + yi | ≤ |xi | + |yi | .
i=1 i=1 i=1

Definición 3.1.3. Dos vectores u y v se dicen ortogonales si hu, vi = 0. En esta situación escribimos u ⊥ v.
Un subconjunto S de V se dice un conjunto ortogonal si para todo u, v en S es u ⊥ v. Un subconjunto S de V
se dice un conjunto ortonormal si es ortogonal y ||v|| = 1 para todo v en S. Observar que si S = {v1 , . . . , vn },
entonces S es ortonormal si y sólo si hvi , vj i = δij para todo i, j. Una base ortonormal es una base que además
es un conjunto ortonormal.

Ejemplo 3.1.6. La base canónica de kn es una base ortonormal para el producto interno usual de kn .

Ejemplo 3.1.7. El conjunto S = {(1, 1, 0), (1, −1, 1), (−1, 1, 2)} es un subconjunto ortogonal de R3 que
no es ortonormal.

Recordar que si z = a + ib ∈ C, se define ez := ea (cos b + i sen b). La exponencial verifica:


ez1 ez2 = ez1 +z2 , (ez )n = enz , ∀n ∈ Z, ez = ez .
Ejercicio 3.1.1. Probar que para todo z 6= 0 en C es
Z b t=b
zt ezt eaz − ebz
e dt = = .
a z t=a z

Ejemplo 3.1.8. El conjunto S = fn : [0, 2π] → C : fn (x) = einx , x ∈ [0, 2π], n ∈ Z es un subconjunto
ortonormal de H:
Z 2π Z 2π Z 2π
1 1 1
n 6= m, hfn , fm i = eint eimt dt = eint eimt dt = eint e−imt dt
2π 0 2π 0 2π 0
Z 2π 2π
1 1
= ei(n−m)t dt = ei(n−m)t = 0,
2π 0 2πi(n − m) 0
Z 2π Z 2π
1
n = m, hfn , fn i = eint 2 dt = 1 dt = 1.
2π 0 2π 0
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 42

Proposición 3.1.3. Sea S = {v1 , . . . , vn } un conjunto ortogonal de vectores no nulos y u ∈ [v1 , . . . , vn ].


n
X hu, vi i
Si u = ai vi , entonces ai = , ∀i = 1, . . . , n.
||vi ||2
i=1
Dem.
n
* n + n
X X X hu, vi i
u= aj vj ⇒ hu, vi i = aj vj , vi = aj hvj , vi i = ai ||vi ||2 ⇒ ai = .
||vi ||2
j=1 j=1 j=1

Corolario 3.1.4. Si S es un subconjunto ortogonal (finito o infinito) de V formado por vectores no nulos,
entonces S es LI.
P h0,vi i
Dem. Si v1 , . . . , vn ∈ S y a1 , . . . , an ∈ k son tales que ni=1 ai vi = 0 entonces ai = ||vi ||
2 = 0 para todo
i = 1, . . . , n.

Ejemplo 3.1.9. En el ejemplo 3.1.8 el conjunto S es un subconjunto ortonormal de H, luego es LI y por


lo tanto H es un espacio de dimensión infinita.

Ası́ como una base de un espacio vectorial describe completamente al espacio (como combinación lineal
de los elementos de la base), un espacio con producto interno queda totalmente descrito a través de una
base ortonormal. En efecto, los elementos del espacio son combinaciones lineales de los elementos de la base
y, además, se conoce el producto interno a nivel de los elementos de la base (da 1 o 0) y por lo tanto
(extendiendo por sesquilinealidad) a nivel de todo V .

El siguiente resultado muestra cómo quedan las coordenadas de un vector sobre una base ortonormal.
Corolario 3.1.5. Si V tiene dimensión finita y B = {v1 , . . . , vn } es una base ortonormal de V entonces
para todo u en V es
Xn
u= hu, vi i vi .
i=1

Llamamos coeficientes de Fourier de u respecto a B a los escalares hw, vi con v ∈ B.

El siguiente teorema presenta un algoritmo que permite construir, a partir de un conjunto linealmente
independiente cualquiera, otro que es además ortonormal y que sigue generando el mismo subespacio.
Teorema 3.1.6 (Método de Gram-Schmidt). Sea S = {v1 , . . . , vn } un conjunto LI. Definimos S ′ =
{w1 , . . . , wn } mediante:
w1 = v1
hv2 , w1 i
w2 = v2 − w1
||w1 ||2
hv3 , w1 i hv3 , w2 i
w3 = v3 − w1 − w2
||w1 ||2 ||w2 ||2
..
.
hvn , w1 i hvn , wn−1 i
wn = vn − 2
w1 − · · · − wn−1 .
||w1 || ||wn−1 ||2
Entonces S ′ es un conjunto ortogonal de vectores no nulos que verifica [S ′ ] = [S].
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 43

′ = {w , . . . , w } con
Dem. Lo demostraremos por inducción en m, siendo Sm = {v1 , . . . , vm } y Sm 1 m
1 ≤ m ≤ n.

Para m = 1 se cumple. Tomamos ′


 ′  como hipótesis de inducción que Sm−1 es un conjunto ortogonal de
vectores no nulos que verifica Sm−1 = [Sm−1 ].
Consideremos wm . Si fuese wm = 0 entonces serı́a vm ∈ [Sm−1 ′ ] = [Sm−1 ] y Sm = Sm−1 ∪ {vm } resultarı́a
LD contradiciendo que S es LI. Luego es wm 6= 0.

El conjunto Sm−1 = {w1 , . . . , wm−1 } es ortogonal. Afirmamos que wm es ortogonal a w1 , . . . , wm−1 :

hvm , w1 i hvm , wm−1 i


hwm , wi i = hvm , wi i − 2
hw1 , wi i − · · · − hwm−1 , wi i
||w1 || ||wm−1 ||2
hvm , wi i
= hvm , wi i − hwi , wi i = 0, ∀i = 1, . . . , m − 1.
||wi ||2

Luego Sm ′ = {w , . . . , w
 1 m−1 , wm } es ortogonal.

De Sm−1 = [Sm−1 ] se deduce que w1 , . . . , wm−1 ∈ [Sm−1 ] ⊂ [Sm ]. Por otro lado tenemos que wm ∈
[w1 , . . . , wm−1 , vm ] ⊂ Sm , luego [Sm ′ ] ⊂ [S ]. Como S ′ es un conjunto ortogonal de vectores no nulos, es LI
m m

y Sm también es LI, luego dim[Sm ] = dim[Sm ] = m lo cual termina la prueba de [Sm ′ ] = [S ].
m

Observación 3.1.5. Observar que si aplicamos el método de Gram-Schmidt a un conjunto LI de la forma S =


{v1 , . . . , vl , vl+1 , . . . , vn } con {v1 , . . . , vl } un conjunto ortonormal entonces es wi = vi para todo i = 1, . . . , l.

Corolario 3.1.7. Si la dimensión de V es finita, entonces V admite una base ortonormal.

Dem. Sea C = {v1 , . . . , vn } una base cualquiera de V . Aplicando el método de Gram-Schmidt obtenemos
una base ortogonal C ′ = {u1 , . . . , un }. Si definimos wi = ui /||ui ||, i = 1 . . . , n, entonces B = {w1 , . . . , wn } es
una base ortonormal de V .

Observación 3.1.6.
P PnSea V de dimensión finita y B = {v1 , . . . , vn } una base ortonormal de V . Sean v =
n
x v
i=1 i i y w = i=1 yi vi , entonces vale:

n
X n
X
hv, wi = xi yi , kvk2 = |xi |2 .
i=1 i=1

En efecto, * +
n
X n
X n
X n
X n
X
hv, wi = xi vi , yj vj = xi yj hvi , vj i = xi yj δij = xi yi .
i=1 j=1 i,j=1 i,j=1 i=1

De la observación anterior y el Corolario 3.1.5 se obtiene:

Proposición 3.1.8 (Identidad de Parseval). Sea V de dimensión finita y B = {v1 , . . . , vn } una base orto-
normal de V . Entonces n
X
hv, wi = hv, vi i hw, vi i, ∀v, w ∈ V.
i=1
Pn 2
En particular, kvk2 = i=1 |hv, vi i| .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 44

Observación 3.1.7. Sea V un espacio vectorial real o complejo (aquı́ no suponemos que V tenga producto
interno) de
Pndimensión finita
Pny B = {v1 , . . . ,P
vn } una base cualquiera de V . Definimos h , i : V × V → k por
hv, wi = i=1 xi yi si v = i=1 xi vi y w = ni=1 yi vi . Es un ejercico del práctico 3 el probar que h , i define
un producto interno en V y que B es una base ortonormal respecto a h , i.

Proposición 3.1.9 (Teorema de Pitágoras). Si v y w son ortogonales, es

||v + w||2 = ||v||2 + ||w||2 .

Dem.
||v + w||2 = ||v||2 + 2 Re (hv, wi) + ||w||2 = ||v||2 + ||w||2 .

Corolario 3.1.10. Si {v1 , . . . , vn } es un conjunto ortogonal en V , es


2
Xn n
X

vi = ||vi ||2 .

i=1 i=1

Dem. Lo demostramos por inducción en n. Si n = 2 es el Teorema de Pitágoras. Supongamos que


vale para n y consideremos un
P conjunto ortogonal {v1 , . . . , vn , vn+1 }. Como vn+1 es ortogonal a v1 , . . . , vn
entonces resulta ortogonal a ni=1 vi . Luego aplicando Pitágoras y la hipótesis de inducción obtenemos:
n+1 2 n 2 n 2
X X X n
X n+1
X
2 2 2
vi = vi + vn+1 = vi + ||vn+1 || = ||vi || + ||vn+1 || = ||vi ||2 .

i=1 i=1 i=1 i=1 i=1

Si W es un subespacio de un espacio vectorial V , existen muchos posibles complementos directos para


V . En el caso de un espacio con producto interno V de dimensión finita, la noción de ortogonalidad permite
distinguir uno de todos estos complementos directos que llamamos complemento ortogonal y definimos a
continuación.

Definición 3.1.4. Si S es un subconjunto cualquiera de V , el conjunto

S ⊥ := {v ∈ V : v ⊥ w, ∀w ∈ S}

se llama el complemento ortogonal de S.

Observación 3.1.8. Observar que S ⊥ es un subespacio de V (aunque S no lo sea) y que S ⊥ = [S]⊥ . En


particular, si W es un subespacio de V y S es un generador de W , entonces v ∈ W ⊥ si y sólo si v ⊥ w para
todo w en S.

Ejemplo 3.1.10. {0}⊥ = V y V ⊥ = {0}.


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 45

Teorema 3.1.11. Sea W un subespacio de dimensión finita de V , entonces:


V = W ⊕ W ⊥.
Dem. Sea B = {w1 , . . . , wn } una base ortonormal de W , si v ∈ V es
n
X n
X
v= hv, wi i wi + v − hv, wi i wi .
i=1 i=1
P Pn
Observar que hv − ni=1 hv, wi i wi , wP
j i = hv, wj i − i=1 hv, wi i hwi , wj i =P
0 para todo j = 1, . . . , n, luego
n ⊥ n
por la observación anterior es v − i=1 hv, wi i wi ∈ W y claramente i=1 hv, wi i wi ∈ W , de donde
V = W + W ⊥ . Por otro lado si w ∈ W ∩ W ⊥ es w ⊥ w y luego w = 0 lo cual prueba que W ∩ W ⊥ = {0}.

Corolario 3.1.12. Si la dimensión de V es finita y W es un subespacio de V es dim W + dim W ⊥ =


dim V .

Observación 3.1.9. Si la dimensión de V es finita y S = {v1 , . . . , vm } es un subconjunto ortonormal de


V , entonces completando S a una base cualquiera de V y aplicándole a esta el método de Gram-Schmidt
obtenemos:
1. Existen vectores vm+1 , . . . , vn en V tales que el conjunto
{v1 , . . . , vm , vm+1 , . . . , vn } es una base ortonormal de V .
2. Si W = [v1 , . . . , vm ], entonces W ⊥ = [vm+1 , . . . , vn ].

Definición 3.1.5. Sea W un subespacio de dimensión finita de V . Sean PW ∈ L(V ) y PW ⊥ ∈ L(V ) las
proyecciones asociadas a la descomposición V = W ⊕ W ⊥ , siendo Im PW = W y Im PW ⊥ = W ⊥ . La
proyección PW se llama la proyección ortogonal sobre el espacio W . Observar que si B = {w1 , . . . , wn } es
una base ortonormal de W , entonces
Xn n
X
PW (v) = hv, wi i wi , PW ⊥ (v) = v − hv, wi i wi , ∀v ∈ V.
i=1 i=1

Definición 3.1.6. 1. Sean v y w en V , definimos la distancia entre v y w por d(v, w) = kv − wk.


2. Sea S un subconjunto de V y v ∈ V , se define la distancia de v a S por d(v, S) := ı́nf{d(v, w) : w ∈ S}.

Corolario 3.1.13. Sea W un subespacio de dimensión finita de V , PW ∈ L(V ) la proyección ortogonal


sobre W y v ∈ V . Entonces:
1. ∀w ∈ W es
||v − w|| ≥ ||v − PW (v)||. (3.3)
2. Si w0 ∈ W verifica
||v − w|| ≥ ||v − w0 ||, (3.4)
∀w ∈ W , entonces w0 = PW (v).
Dem. Observar que si w ∈ W , es v − PW (v) ∈ W ⊥ y PW (v) − w ∈ W , luego aplicando el teorema de
Pitágoras resulta
||v − w||2 = ||v − PW (v) + PW (v) − w||2 = ||v − PW (v)||2 + ||PW (v) − w||2 ≥ ||v − PW (v)||2 . (3.5)
Esto implica la primera afirmación. Para la segunda afirmación, tomando w = PW (v) en (3.4) resulta
||v − PW (v)|| ≥ ||v − w0 ||. Por otro lado tomando w = w0 en (3.3) resulta ||v − w0 || ≥ ||v − PW (v)||. Luego
||v − w0 || = ||v − PW (v)||. Teniendo en cuenta esta última relación, tomando w = w0 en (3.5) deducimos
||PW (v) − w0 || = 0 y luego PW (v) = w0 .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 46

Observación 3.1.10. Notar que si escribimos la relación (3.3) en términos de distancias, es

d(v, w) ≥ d (v, PW (v)) , ∀w ∈ W.

Esto implica que d (v, PW (v)) es una cota inferior para {d(v, w) : w ∈ W }, pero como PW (v) ∈ W , resulta

d(v, W ) = d (v, PW (v)) = mı́n{d(v, w) : w ∈ W }.

La relación (3.4) nos dice que PW (v) es el único elemento de W que realiza la distancia de v a W .

Corolario 3.1.14 (Desigualdad de Bessel). Sea {v1 , . . . , vn } un subconjunto ortonormal de V , entonces


n
X
||v||2 ≥ |hv, vi i|2 , ∀v ∈ V.
i=1

Dem. Sea W = [v1 , . . . , vn ]. Aplicando el teorema de Pitágoras se deduce


n
X
2 2 2 2
2
||v|| = ||PW (v) + v − PW (v)|| = ||PW (v)|| + ||v − PW (v)|| ≥ ||PW (v)|| = |hv, vi i|2 .
i=1

Ejemplo 3.1.11. Sea S el conjunto ortonormal de H definido en el ejemplo 3.1.8. Si consideramos f ∈ H


definida por f (x) = x, ∀x ∈ [0, 2π], es
Z 2π
2 1 4
||f || = hf, f i = t2 dt = π 2 ,
2π 0 3
Z 2π Z 2π Z 2π 
1 −int 1
hf, fn i = te dt = t cos(nt) dt − i t sen(nt) dt , luego
2π 0 2π 0 0
(
1
− in , si n 6= 0,
hf, fn i =
π, si n = 0.

A[licando la desigualdad de Bessel obtenemos


h
X h
X
−1
X
h h
4 2 −1 2 −1 2 X −1 2 X 1
2
π = ||f || ≥ 2
|hf, fn i| = 2 2
3 in = π + in + in = π + 2 n2
,
n=−h n=−h n=−h n=1 n=1
h
X 1 1
⇒ 2
≤ π2, ∀h = 1, 2, . . . .
n=1
n 6
P∞ 1 P∞ 1
Luego la serie n=1 n2 es convergente y n=1 n2 ≤ 16 π 2 .

3.2. Operadores en espacios con producto interno


El tomar conjugados de números complejos puede caracterizarse, desde el punto de vista del producto
interno de C, como la única función de C en C que verifica

hzλ, µi = hλ, zµi, ∀λ, µ.


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 47

En este sentido, la conjugación se generaliza a operadores en un espacio V con producto interno, como la
(única) función ∗ de L(V ) en L(V ) que verifica:

hT (v), wi = hv, T ∗ (w)i, ∀v, w ∈ V.

Esta operación sobre L(V ) se llama adjunción y es de crucial importancia. En efecto, el “buen comporta-
miento” de un operador T dependerá ahora no sólo de las propiedades de T sino además de la relación entre
T y T ∗.

En esta sección presentamos este operador ∗ y sus propiedades más importantes. A pesar de que la
teorı́a vale en el contexto general, para nosotros V será siempre un espacio vectorial con producto interno
de dimensión finita.

Definición 3.2.1. Sea w ∈ V , definimos ηw : V → k por ηw (v) := hv, wi, ∀v ∈ V . Claramente ηw ∈ V ∗ ,


∀w ∈ V .

Proposición 3.2.1. Para todo w1 , w2 ∈ V y a ∈ k se cumple:


1. ηa w1 +w2 = ā ηw1 + ηw2 .

2. ηw1 = ηw2 ⇔ w1 = w2 .
Dem.
1. ηa w1 +w2 (v) = hv, a w1 + w2 i = āhv, w1 i + hv, w2 i = ā ηw1 (v) + ηw2 (v) = (ā ηw1 + ηw2 )(v).

2. ηw1 = ηw2 ⇔ hv, w1 i = hv, w2 i, ∀v ∈ V ⇔ w1 = w2 .

Teorema 3.2.2 (Teorema de Riesz). Si α ∈ V ∗ , existe un único w ∈ V tal que α = ηw .


Pn
Dem. Sea B = {v1 , . . . , vn } una base ortonormal de V y α ∈ V ∗ , consideremos w = i=1 α(vi ) vi .
Entonces
* n
+ n n
X X X
ηw (vj ) = vj , α(vi ) vi = α(vi ) hvj , vi i = α(vi ) δi,j = α(vj ), ∀j = 1, . . . , n.
i=1 i=1 i=1

Luego ηw = α.

Teorema 3.2.3. Sea T ∈ L(V ). Existe un único T ∗ ∈ L(V ) tal que

hT (v), wi = hv, T ∗ (w)i, ∀v, w ∈ V.

Dem. Sea w ∈ V fijo y consideremos βw : V → k definida por βw (v) := hT (v), wi para todo v ∈ V .
Observar que βw = ηw ◦ T , luego βw ∈ V ∗ . Aplicando el Teorema de Riesz, tenemos que existe un único
w̃ ∈ V tal que βw = ηw̃ , es decir tal que hT (v), wi = hv, w̃i , ∀v ∈ V . Definimos entonces T ∗ : V → V por
T ∗ (w) = w̃. Ası́ dado w ∈ W , T ∗ (w) queda definido por ser el único vector de V que verifica hT (v), wi =
hv, T ∗ (w)i, ∀v ∈ V .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 48

La función T ∗ es lineal:
hv, T ∗ (aw1 + w2 )i = hT (v), aw1 + w2 i = āhT (v), w1 i + hT (v), w2 i = āhv, T ∗ (w1 )i + hv, T ∗ (w2 )i
= hv, aT ∗ (w1 ) + T ∗ (w2 )i, ∀v ∈ V
luego T ∗ (aw1 + w2 ) = aT ∗ (w1 ) + T ∗ (w2 ).

Unicidad de T ∗ : Supongamos que existe S ∈ L(V ) tal que hT (v), wi = hv, S(w)i, ∀v, w ∈ V . Luego es
hv, T ∗ (w)i = hv, S(w)i, ∀v ∈ V ⇒ T ∗ (w) = S(w), ∀w ∈ V ⇒ T ∗ = S.

Definición 3.2.2. El operador T ∗ se llama el operador adjunto de T .

Observación 3.2.1. Se deduce de la demostración anterior que si B = {v1 , . . . , vn } es una base ortonormal
de V y T ∈ L(V ) entonces es
Xn

T (w) = hw, T (vi )i vi , ∀w ∈ V.
i=1
Pn Pn Pn
Prueba: T ∗ (w) = w̃ = i=1 βw (vi ) vi = i=1 hT (vi ), wi vi = i=1 hw, T (vi )i vi .

Proposición 3.2.4. Sean T, S ∈ L(V ). Entonces:


1. hv, T (w)i = hT ∗ (v), wi, ∀v, w ∈ V .
2. (aT + S)∗ = āT ∗ + S ∗ .
3. (T ◦ S)∗ = S ∗ ◦ T ∗ .
4. (T ∗ )∗ = T .
5. id ∗ = id .
Dem.
1. hv, T (w)i = hT (w), vi = hw, T ∗ (v)i = hT ∗ (v), wi.

Las pruebas de 2,. . . ,5 se basan en la unicidad del operador adjunto.


2.
h(aT + S)(v), wi = haT (v) + S(v), wi = ahT (v), wi + hS(v), wi = ahv, T ∗ (w)i + hv, S ∗ (w)i
= hv, (āT ∗ + S ∗ )(w)i , ∀v, w ∈ V.
Luego (aT + S)∗ = āT ∗ + S ∗ .
3.
h(T ◦ S)(v), wi = hT (S(v)), wi = hS(v), T ∗ (w)i = hv, S ∗ (T ∗ (w))i = hv, (S ∗ ◦ T ∗ )(w)i , ∀v, w ∈ V.

Luego (T ◦ S)∗ = S ∗ ◦ T ∗ .
4. Por definición de (T ∗ )∗ es hT ∗ (v), wi = hv, (T ∗ )∗ (w)i , ∀v, w ∈ V y por la parte 1 es hT ∗ (v), wi =
hv, T (w)i , ∀v, w ∈ V . Luego (T ∗ )∗ = T .
5. hid (v), wi = hv, wi = hv, id (w)i, ∀v, w ∈ V . Luego id ∗ = id .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 49

t
Recordemos que si A ∈ Mn (k) es A∗ = A y si k = R es A∗ = At .
Ejercicio 3.2.1. Probar que si A, B ∈ Mn (k) y a ∈ k, entonces se cumple:
1. (A + aB)∗ = A∗ + āB ∗ .

2. (AB)∗ = B ∗ A∗ .

3. (A∗ )∗ = A.

4. I ∗ = I.

Proposición 3.2.5. Si T ∈ L(V ), B = {v1 , . . . , vn } es una base ortonormal de V y [T ]B = (aij ). Entonces


aij = hT (vj ), vi i, ∀i, j = 1, . . . , n.
P
Dem. Si [T ]B = (aij ) es T (vi ) = nj=1 aji vj , ∀i = 1, . . . , n. Como B es una base ortonormal es aji =
hT (vi ), vj i.

Proposición 3.2.6. Si T ∈ L(V ) y B es una base ortonormal de V entonces

[T ∗ ]B = ([T ]B )∗ .

Dem. Sea [T ]B = (aij ) y [T ∗ ]B = (cij ). Entonces

aij = hT (vj ), vi i = hvj , T ∗ (vi )i = hT ∗ (vi ), vj i = cji ⇒ [T ∗ ]B = ([T ]B )∗ .

Corolario 3.2.7. Sea A ∈ Mn (k), consideremos el producto interno usual en kn y LA : kn → kn definida


por LA (v) = Av, ∀v ∈ kn . Entonces (LA )∗ = LA∗ .
Dem. La base canónica B es ortonormal respecto al producto interno usual de kn , luego [(LA )∗ ]B =
([LA ]B )∗ = A∗ ⇒ (LA )∗ = LA∗ .

Ejemplo 3.2.1. Consideremos C2 con el producto interno usual, B la base canónica de C2 y T : C2 → C2


definida por T (x, y) = (2ix + 3y, x − y), (x, y) ∈ C2 . Es
   t  
2i 3 ∗ ∗ 2i 3 −2i 1
[T ]B = ⇒ [T ]B = ([T ]B ) = = ,
1 −1 1 −1 3 −1

luego T ∗ (x, y) = (−2ix + y, 3x − y).

Definición 3.2.3. Decimos que un operador T ∈ L(V ) es normal si T ◦ T ∗ = T ∗ ◦ T .


Una matriz A ∈ Mn (k) se dice normal si A A∗ = A∗ A

Proposición 3.2.8. Si T ∈ L(V ) y B es una base ortonormal de V , entonces T es normal si y sólo si [T ]B


es normal.
Dem. Como B es una base ortonormal de V es [T ∗ ]B = ([T ]B )∗ , luego [T ◦T ∗ ]B = [T ]B [T ∗ ]B = [T ]B ([T ]B )∗
y análogamente [T ∗ ◦ T ]B = ([T ]B )∗ [T ]B . Entonces es claro que T ◦ T ∗ = T ∗ ◦ T si y sólo si [T ]B ([T ]B )∗ =
([T ]B )∗ [T ]B .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 50

Definición 3.2.4. 1. Un operador T ∈ L(V ) es autoadjunto si T ∗ = T . Observar que T es autoadjunto


si y sólo si
hT (u), vi = hu, T (v)i, ∀u, v ∈ V.

2. Una matriz A ∈ Mn (R) es simétrica si At = A.

3. Una matriz A ∈ Mn (C) es hermitiana si At = A ⇔ At = A.

Proposición 3.2.9. Si T ∈ L(V ), B base ortonormal de V y A = [T ]B . Entonces T es autoadjunto si y


sólo si A es simétrica en el caso k = R o hermitiana en el caso k = C.

Dem. Como B es una base ortonormal y A = [T ]B , entonces A∗ = [T ∗ ]B . Luego T = T ∗ si y sólo si


A = A∗ .

Observación 3.2.2. Si T ∈ L(V ) es autoadjunto, entonces T es normal:

T ◦ T ∗ = T ◦ T = T ∗ ◦ T.

El recı́proco es falso como lo muestra el siguiente ejemplo:


 
cos θ − sen θ
Ejemplo 3.2.2. Sea 0 < θ < π y A = . Es A A∗ = A∗ A = Id, luego A es normal. Por
sen θ cos θ
 
∗ t cos θ sen θ
otro lado es A = A = 6= A y A no es simétrica.
− sen θ cos θ

Si consideramos en R2 el producto interno usual, T = Rθ : R2 → R2 la rotación de ángulo θ y B la base


canónica de R2 , es [T ]B = A, luego T es un ejemplo de un operador que es normal y no es autoadjunto.

Teorema 3.2.10. Sea T ∈ L(V ). Si T es diagonalizable en una base ortonormal de V , entonces T es


normal. Más áun, si k = R, T es autoadjunto.
 
λ1 . . . 0
 
Dem. Sea B una base ortonormal de V tal que [T ]B =  ... . . . ... , es
0 ... λn
 
λ1 . . . 0
∗ ∗  .. . . ..  .
[T ]B = ([T ]B ) =  . . . 
0 ... λn

Si k = R es λi = λi , ∀i = 1, . . . , n, luego [T ∗ ]B = [T ]B y esto equivale a T ∗ = T .


En general es  
|λ1 |2 . . . 0
 ..  = [T ] [T ∗ ] ,
[T ∗ ]B [T ]B =  ... ..
. .  B B
0 . . . |λn |2

luego [T ∗ ◦ T ]B = [T ◦ T ∗ ]B y es T ∗ ◦ T = T ◦ T ∗ .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 51

Proposición 3.2.11. Sea T ∈ L(V ). Si λ es un valor propio de T , entonces λ es un valor propio de T ∗


Dem. Sea B una base ortonormal de V y A = [T ]B . Sabemos que [T ∗ ]B = A∗ , luego si λ ∈ k es

χT ∗ λ = χA∗ (λ) = det(A∗ − λ Id) = det[(A − λ Id)∗ ] = det(A − λ Id) = χA (λ) = χT (λ).

Entonces si λ es valor propio de T es χT ∗ (λ) = χT (λ) = 0 = 0 y por tanto λ es valor propio de T ∗ .

La siguiente proposición muestra como los operadores normales “se portan bien” respecto del producto
interno.
Proposición 3.2.12. Sea T ∈ L(V ) un operador normal. Entonces
1. ||T (v)|| = ||T ∗ (v)||, ∀v ∈ V .
2. T − λ id es normal, ∀λ ∈ k.
3. Si v es vector propio de T correspondiente al valor propio λ, entonces v es vector propio de T ∗
correspondiente al valor propio λ.
4. Si λ1 6= λ2 son valores propios de T con vectores propios correspondientes v1 y v2 , entonces v1 ⊥ v2 .
Dem.
1.

||T (v)||2 = hT (v), T (v)i = hv, T ∗ (T (v))i = hv, T (T ∗ (v))i = hT ∗ (v), T ∗ (v)i = ||T ∗ (v)||2 .

2.

(T − λ id ) ◦ (T − λ id )∗ = (T − λ id ) ◦ (T ∗ − λ id ) = T ◦ T ∗ − λ T ∗ − λ T + |λ|2 id
= (T − λ id )∗ ◦ (T − λ id ).
Ya que T ◦ T ∗ = T ∗ ◦ T .

3. Es 0 = ||T (v) − λv|| = ||(T − λ id )(v)|| = ||(T − λ id )∗ (v)||, por 1) y 2). Luego T ∗ (v) − λv =
||(T − λ id )∗ (v)|| = 0 y es T ∗ (v) = λ v.
4. λ1 hv1 , v2 i = hλ1 v1 , v2 i = hT (v1 ), v2 i = hv1 , T ∗ (v2 )i = hv1 , λ2 v2 i = λ2 hv1 , v2 i y como λ1 6= λ2 resulta
hv1 , v2 i = 0.

Lema 3.2.13. Sea T ∈ L(V ) y W ⊂ V un subespacio que es T -invariante y T ∗ -invariante. Si consideramos


la restricción T |W ∈ L(W ), es (T |W )∗ = T ∗ |W . Si además T es normal, entonces también lo es T |W .
Dem. Sean w1 , w2 ∈ W ,

hT |W (w1 ), w2 i = hT (w1 ), w2 i = hw1 , T ∗ (w2 )i = hw1 , T ∗ |W (w2 )i, ∀w1 , w2 ∈ W,

luego (T |W )∗ = T ∗ |W .

Si T es normal, es

T |W ◦ (T |W )∗ = T |W ◦ T ∗ |W = (T ◦ T ∗ )|W = (T ∗ ◦ T )|W = T ∗ |W ◦ T |W = (T |W )∗ ◦ T |W .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 52

Teorema 3.2.14. Si k = C y T ∈ L(V ) es normal, entonces T es diagonalizable en una base ortonormal

Dem.
La prueba es por inducción en n = dim V .
n o
v
Para n = 1: Si 0 6= v ∈ V entonces ||v|| es una base ortonormal de V formada por vectores propios de
T

Sea ahora n > 1 y supongamos, por hipoótesis inductiva, que para todo operador normal en un espacio
de dimensión n − 1, existe una base ortonormal del espacio formada por vectores propios del operador.
Como k = C existe λ valor propio de T . Sea v un vector propio de T correspondiente a λ y consideremos
W := [v]⊥ = {w ∈ V | hw, vi = 0}. Sabemos que W es un subespacio de V y que dim W = n − 1. Sea
w ∈ W,


hT (w), vi = hw, T ∗ (v)i = w, λ v = λ hw, vi = λ 0 = 0 ⇒ T (w) ∈ W,
hT ∗ (w), vi = hw, T (v)i = hw, λ vi = λ hw, vi = λ 0 = 0 ⇒ T ∗ (w) ∈ W.

Luego W es T y T ∗ -invariante, como T es normal, el lema anterior implica que T |W ∈ L(W ) es normal.
Tenemos que T |W ∈ L(W ) normal y que dim W = n − 1 entonces por la hipótesis inductiva existe
{v1 , . . . , vn−1 } base ortonormal de W formada por vectores propios de T |W (y por lo tanto vectores propios
v
de T ). Sea vn = ||v|| , como v1 , . . . , vn−1 ∈ W = [v]⊥ y vn ∈ [v] es vi ⊥ vn , ∀i = 1, . . . , n − 1. Luego
B = {v1 , . . . , vn−1 , vn } es una base ortonormal de V formada por vectores propios de T .

Corolario 3.2.15. Si A ∈ Mn (C) es normal, entonces es diagonalizable.

Dem. Si A es normal, entonces LA ∈ L (Cn ) es normal, luego LA es diagonalizable y por lo tanto A es


diagonalizable.

Esto no es cierto en el caso en que el cuerpo de base es R. Es decir, no todo operador normal sobre
un espacio vectorial real diagonaliza. El principal obstáculo está dado porque debemos asegurarnos de que
las raı́ces del polinomio caracterı́stico estén en R. La siguiente proposición prueba que es suficiente que el
operador sea autoadjunto para que tenga todos sus valores propios reales.

Proposición 3.2.16. Sea T ∈ L(V ) autoadjunto y λ ∈ k un valor propio de T , entonces λ ∈ R.

Dem. Sea v ∈ V un vector propio correspondiente a λ. Es

λ v = T (v) = T ∗ (v) = λ v

ya que como T es autoadjunto, es normal. Entonces λ v = λ v y v 6= 0, de donde λ = λ y luego λ ∈ R.

Corolario 3.2.17. Si A ∈ Mn (C) es hermitiana y λ es un valor propio de A, entonces λ ∈ R.

Dem. Como A hermitiana, entonces LA ∈ L(Cn ) es autoadjunta. Si λ es valor propio de A, entonces es


valor propio de LA y luego λ ∈ R por la proposición anterior.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 53

Un segundo obstáculo para la diagonalización de un operador T autoadjunto podrı́a estar dado por el
hecho de que no exista una base ortonormal de vectores propios para cada subespacio propio. Los resultados
que siguen prueban que los resultados obtenidos para k = C pueden pasar sin problemas al caso k = R.
Proposición 3.2.18. Sea S = {v1 , v2 , · · · , } ⊆ Rn . Entonces S es linealmente independiente en el espacio
vectorial real Rn si y sólo si S es linealmente independiente en el espacio vectorial complejo Cn .
Dem. Supongamos que S es linealmente independiente en Rn y que λ1 , λ2 , · · · , λn ∈ C son tales que
n
X
λj vj = 0. (∗)
j=1

Si escribimos para cada j, λj = λR I R I


j + iλj , con λj , λj ∈ R, entonces descomponiendo la igualdad (∗) en sus
partes real e imaginaria se tiene respectivamente:
n
X n
X
λR
j vj = 0, y λIj vj = 0
j=1 j=1

y por lo tanto se deduce λR I


j = λj = 0, ∀j ∈ {1, 2, · · · , n}.
El recı́proco es inmediato.
Corolario 3.2.19. Sea A ∈ Mn (R). El rango de A es el mismo si consideramos A ∈ Mn (R) o A ∈ Mn (C).

Observación 3.2.3. Esto puede generalizarse al caso de dos cuerpos cualesquiera k ⊆ K ′ (ver apéndice 5.4).

Teorema 3.2.20. Si A ∈ Mn (R) es simétrica, entonces es diagonalizable.


Dem. Como Mn (R) ⊂ Mn (C), es A ∈ Mn (C). Como A es simétrica en Mn (R), entonces A es hermitiana
en Mn (C) y luego A es normal en Mn (C). Aplicando el Corolario 3.2.15 deducimos que A es diagonalizable
en Mn (C). Entonces χA (t) escinde en C
χA (t) = (−1)n (t − λ1 )n1 · · · (t − λk )nk (3.6)

donde λ1 , . . . , λk son los valores propios distintos de A y M G(λi ) = M A(λi ), ∀i = 1, . . . , k, es decir

n − rango(A − λi Id) = ni , ∀i = 1, . . . , k. (3.7)

Como A ∈ Mn (C) es hermitiana, el Corolario 3.2.17 implica que λi ∈ R, ∀i = 1, . . . , k. Entonces la igualdad


(3.6) nos dice que χA (t) escinde en R y la igualdad (3.7) nos prueba que M G(λi ) = M A(λi ), ∀i = 1, . . . , k,
luego A es diagonalizable en R.

Teorema 3.2.21. Si k = R y T ∈ L(V ) es autoadjunto, entonces T es diagonalizable en una base ortonormal


de V .
Dem. Sea C una base ortonormal de V , la matriz A = [T ]C ∈ Mn (R) es simétrica, Lk luego A es diagona-
lizable (por el teorema anterior). Entonces T ∈ L(V ) es diagonalizable y V = i=1 Eλi , donde Eλi es el
subespacio propio correspondiente a λi , i = 1, . . . , k, siendo λ1 , . . . , λk los valores propios distintos de T .
Como T es autoadjunto, es normal, entonces la Proposición 3.2.12 implica que Eλi ⊥ Eλj si i 6= j.
Sea Bi base ortonormal de Eλi , i = 1, . . . , k, entonces B := B1 ∪ · · · ∪ Bk es una base ortonormal de V
formada por vectores propios de T .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 54

Resumiendo lo anterior hemos probado el siguiente teorema:


Teorema 3.2.22. Sea V un k-espacio vectorial de dimensión finita con producto interno y T ∈ L(V ).
Si k = C: T es diagonalizable en una base ortonormal si y sólo si T es normal
Si k = R: T es diagonalizable en una base ortonormal si y sólo si T es autoadjunto en el caso k = R.

Recordar que si W es un subespacio de V , tenemos definida PW la proyección ortogonal sobre W .


Definición 3.2.5. Sea P ∈ L(V ), decimos P es una proyección ortogonal si P 2 = P = P ∗ i.e. si P es una
proyección que es autoadjunta.

Proposición 3.2.23. 1. Si W ⊂ V es un subespacio, entonces PW es una proyección ortogonal.


2. Si P ∈ L(V ) es una proyección ortogonal, entonces existe un único subespacio W ⊂ V tal que P = PW .
Dem. (1): Ya sabemos que como V = W ⊕ W ⊥ , si definimos PW : V → V por PW (v) = w si v = w + w′ ,
w ∈ W , w′ ∈ W ⊥ , entonces PW2 = PW . Lo que resta probar es que PW es autoadjunta.
Sean v1 , v2 ∈ V arbitrarios. Escribimos v1 = w1 + w1′ y v2 = w2 + w2′ , donde wi ∈ W , wi′ ∈ W ⊥ , i = 1, 2.
hPW (v1 ), v2 i = hw1 , w2 + w2′ i = hw1 , w2 i + hw1 , w2′ i = hw1 , w2 i
hv1 , PW (v2 )i = hw1 + w1′ , w2 i = hw1 , w2 i + hw1′ , w2 i = hw1 , w2 i
Entonces hPW (v1 ), v2 i = hv1 , PW (v2 )i, ∀v1 , v2 ∈ V y es PW∗ = PW .

(2): El operador P ∈ L(V ) verifica P 2 = P = P ∗ . La relación P 2 = P implica V = Im P ⊕ Ker P y P


es la proyección sobre Im(P ) en la dirección de Ker P . Sean u ∈ Im P (luego P (u) = u) y v ∈ Ker P , es
hu, vi = hP (u), vi = hu, P (v)i = hu, 0i = 0 ⇒ Ker P ⊂ (Im P )⊥ .
De V = Im P ⊕ Ker P y V = Im P ⊕ (Im P )⊥ se deduce que dim Ker P = dim(Im P )⊥ , luego la relación
Ker P ⊂ (Im P )⊥ implica Ker P = (Im P )⊥ . Luego P = PW , siendo W = Im P .

3.3. El Teorema Espectral


En esta sección V será siempre un espacio vectorial con producto interno de dimensión finita.
Teorema 3.3.1 (Teorema Espectral). Supongamos que T ∈ L(V) es un operador que es normal si k = C o
autoadjunto si k = R, entonces existen únicos λ1 , . . . , λk ∈ k distintos y P1 , . . . , Pk ∈ L(V ) no nulos, tales
que:
1. Pi2 = Pi = Pi∗ , ∀i = 1, . . . , k (los Pi son proyecciones ortogonales).
2. Pi ◦ Pj = 0 si i 6= j.
P
3. id = ki=1 Pi .
P
4. T = ki=1 λi Pi .
Dem. Como T es normal si k = C o autoadjunto si k = R, entonces T es diagonalizable en una base
ortonormal. L
Al ser T diagonalizable, si λ1 , . . . , λk son sus valores propios distintos, tenemos que V = ki=1 Eλi , siendo
Eλi el subespacio propio asociado a λi . Luego si definimos Pi (v) = vi siendo v = vi + · · · + vk , vi ∈ Eλi , se
verifican las propiedades 1,2,3,4, salvo eventualmente la condición Pi = Pi∗ , ∀i = 1, . . . , k.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 55

L
Afirmación: En este caso vale Eλ⊥i = j6=i Eλj ,
∀i = 1, . . . , k. En efecto, como T es normal (k = C o R),
es L 
Eλi ⊥ Eλj , ∀j 6= i ⇒ Eλj ⊂ Eλ⊥i , ∀j 6= i ⇒ j6=i Eλj ⊂ Eλ⊥i M
L ⊥
⇒ E = Eλj .
dim( j6=i Eλj ) = dimV − dimEλi = dimEλ⊥i λi
j6=i
L
Pero entonces V = Eλi ⊕ j6=i Eλj = Eλi ⊕ Eλ⊥i , y Pi es la proyección asociada a esta descomposición, es
decir Pi = PEλi . Luego Pi es una proyección ortogonal.

La unicidad de la descomposición se deduce inmediatamente de la unicidad en el caso clásico (el caso de


V sin producto interno y T un operador diagonalizable en V ).

Teorema 3.3.2. Sean P1 , . . . , Pk ∈ L(V) que verifican:


1. Pi2 = Pi = Pi∗ , ∀i = 1, . . . , k.
2. Pi ◦ Pj = 0 si i 6= j.
P
3. id = ki=1 Pi .
Pk
Dados λ1 , . . . , λk ∈ k arbitrarios, definimos T ∈ L(V) mediante T = i=1 λi Pi . Entonces T es normal.
Más aún, si k = R, T es autoadjunto.
P P P
Dem. Como T = ki=1 λi Pi , es T ∗ = ki=1 λi Pi∗ = ki=1 λi Pi .
Si k = R es λi = λi , ∀i = 1, . . . , k, luego T ∗ = T .
Si k = C es
k
!  k

k k
X X X X
T ◦T = ∗
λi Pi ◦ λj Pj  = λi λj Pi ◦ Pj = |λi |2 Pi2
i=1 j=1 i,j=1 i=1

k k
!  k 
X X X
= λi λj Pi ◦ Pj = λi Pi ◦  λj Pj  = T ∗ ◦ T.
i,j=1 i=1 j=1

Observación 3.3.1. Sea T ∈ L(V ) normal si k = C o autoadjunto si k = R. Sean λ1 , . . . , λk los valores propios
distintos de T y P1 , . . . , Pk las proyecciones ortogonales sobre los subespacios propios correspondientes.
Recordemos que la descomposición
T = λ1 P1 + · · · + λk Pk
se llama la descomposición espectral de T y {λ1 , . . . , λk } es el espectro de T .

Observación 3.3.2. Recordar que si c1 , . . . , ck son elementos distintos de k y b1 , . . . , bk son elementos de k,


entonces, existe un polinomio p ∈ k[x] tal que p(ci ) = bi , ∀i = 1, . . . , k.

Corolario 3.3.3. Sea k = C y T ∈ L(V). Entonces T es normal si y sólo si T ∗ = p(T ) para algún p ∈ C[x].
P
Dem. Si T ∗ = p(T ) con p = ni=0 ai xi , entonces
n
! n n
X X X
∗ i i+1
T ◦ T = p(T ) ◦ T = ai T ◦ T = ai T =T ◦ ai T i = T ◦ p(T ) = T ◦ T ∗ ,
i=0 i=0 i=0

luego T es normal.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 56

P P
Si T es normal y T = ki=1 λi Pi es la descomposición espectral de T , entonces T ∗ = ki=1 λi Pi .
Sea p ∈ k[x] tal que p(λi ) = λi , ∀i = 1, . . . , k. Entonces
k
! k k
X (∗) X X
p(T ) = p λi Pi = p(λi ) Pi = λi Pi = T ∗ ,
i=1 i=1 i=1

luego T ∗ = p(T ).

(∗) Esta igualdad es un ejercicio del práctico 2.

Corolario 3.3.4. Sea k = C y T ∈ L(V ) un operador normal. Entonces T es autoadjunto si y sólo si todos
los valores propios de T son reales.

Dem. (⇒)PYa lo sabemos. P P


(⇐) Sea T = ki=1 λi Pi la descomposición espectral de T , entonces T ∗ = ki=1 λi Pi = ki=1 λi Pi = T.

De la Proposición 1.22 se deduce inmediatamente el siguiente.

Pk
Proposición 3.3.5. Sea T ∈ L(V ) normal si k = C o autoadjunto si k = R y consideremos T = i=1 λi Pi
la descomposición espectral de T . Entonces cada Pi es un polinomio en T .

3.4. Isometrı́as
En esta sección V será siempre un espacio vectorial con producto interno de dimensión finita.

Definición 3.4.1. Sean (V, h , iV ) y (W, h , iW ) dos espacios con producto interno. Una transformación
lineal T ∈ L(V, W ) se dice una isometrı́a si verifica:

hT (u), T (v)iW = hu, viV , ∀u, v ∈ V.

Si V = W y T ∈ L(V ) es una isometrı́a, se dice que T es un operador ortogonal si k = R o que es un


operador unitario si k = C.

Lema 3.4.1. Si T ∈ L(V ) es autoadjunto y verifica hT (v), vi = 0, ∀v ∈ V , entonces T = 0.

Dem. Sea B = {v1 , . . . , vn } una base ortonormal de V formada por vectores propios de T con valores
propios correspondientes λ1 , . . . , λn . Entonces es

0 = hT (vi ), vi i = hλi vi , vi i = λi kvi k2 = λi , ∀i = 1, . . . , n ⇒ [T ]B = 0 ⇒ T = 0.

Observación 3.4.1. Para todo T ∈ L(V ), los operadores T ∗ ◦ T y T ◦ T ∗ son autoadjuntos:

(T ∗ ◦ T )∗ = T ∗ ◦ T ∗∗ = T ∗ ◦ T, (T ◦ T ∗ )∗ = T ∗∗ ◦ T ∗ = T ◦ T ∗ .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 57

Teorema 3.4.2. Sea T ∈ L(V ). Las siguientes afirmaciones son equivalentes:


1. T ◦ T ∗ = T ∗ ◦ T = id ⇔ T es invertible y T −1 = T ∗ .
2. hT (u), T (v)i = hu, vi, ∀u, v ∈ V .
3. Para toda base ortonormal B de V , T (B) es una base ortonormal de V .
4. Existe una base ortonormal B de V tal que T (B) es una base ortonormal de V .
5. kT (v)k = kvk, ∀v ∈ V .
Dem. (1 ⇒ 2): hT (u), T (v)i = hu, T ∗ (T (v))i = hu, id (v)i = hu, vi.

(2 ⇒ 3): Sea B = {v1 , . . . , vn } una base ortonormal de V , es hT (vi ), T (vj )i = hvi , vj i = δij , luego
T (B) = {T (v1 ), . . . , T (vn )} es una base ortonormal de V .
(3 ⇒ 4): Esto es obvio, dado que V siempre admite una base ortonormal.

(4 ⇒ 5): Consideremos B = {w1 , . . . , wn } una base ortonormal de V tal que T (B) = {T (w1 ), . . . , T (wn )}
es también una base ortonormal de V . P
Sea v ∈ V P . , an ∈ k tales que v = ni=1 ai wi ,
. Como B es una base de V , entonces existen únicos a1 , . .P
luego T (v) = ni=1 ai T (wP
i ). Como B es una base ortonormal es kvk =
2 n 2
i=1 |ai | y como T (B) es una base
ortonormal es kT (v)k2 = ni=1 |ai |2 , luego kT (v)k = kvk, ∀v ∈ V .

(5 ⇒ 1): En la observación anterior vimos que T ∗ ◦ T es autoadjunto, luego id −T ∗ ◦ T es autoadjunto.


Calculamos:
h(id −T ∗ ◦ T )(v), vi = hv, vi − hT ∗ (T (v)), vi = kvk2 − hT (v), T (v)i = kvk2 − kT (v)k2 = 0, ∀v ∈ V.
Luego por el lema anterior es T ∗ ◦ T = id ; además T ∈ L(V ) y la dimensión de V es finita, entonces T es
invertible y T −1 = T ∗ .

Observación 3.4.2. 1. Si T es una isometrı́a, es T ◦ T ∗ = T ∗ ◦ T = id , luego T es normal.


2. Si T es una isometrı́a y λ ∈ k es un valor propio de T , entonces |λ| = 1:
Sea 0 6= v ∈ V : T (v) = λ v ⇒ kvk = kT (v)k = |λ| kvk ⇒ |λ| = 1.
En particular, si k = R es λ = ±1.
3. Si T es una isometrı́a, entonces | det(T )| = 1:
1 = det(id ) = det (T ◦ T ∗ ) = det(T ) det(T ∗ ) = det(T ) det(T ) = | det(T )|2 ⇒ | det(T )| = 1.
En particular, si k = R es det T = ±1.
4. Sea T una isometrı́a. Si k = C, como T es normal, entonces T es diagonalizable en una base ortonormal.
Si k = R esto no es cierto. Por ejemplo, la rotación de ángulo θ (θ 6= kπ, k ∈ Z) es una isometrı́a y no
es diagonalizable.
5. Una isometrı́a en R2 o R3 es un operador que conserva las normas; también conserva los ángulos porque
hu,vi
cos(d
u, v) = kukkvk .
Se puede probar que todo movimiento rı́gido del plano, es decir toda función F : R2 → R2 que verifica
kF (u) − F(v)k = ku − vk, ∀u, v ∈ R2 , es de la forma F (v) = T (v) + v0 donde v0 es un vector fijo y
T ∈ L R2 es una isometrı́a. De hecho es v0 = F (0) y T (v) := F (v) − v0 , ∀v ∈ V .
A su vez toda isometrı́a T de R2 es o bien una rotación de centro en el origen (det T = 1), o bien una
simetrı́a axial respecto a un eje que pasa por el origen (det T = −1).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 58

Proposición 3.4.3. Sea T ∈ L(V).

1. Si k = C, entonces T es una isometrı́a si y sólo si T es normal y |λ| = 1 para todo valor propio λ de
T.

2. Si k = R, entonces T es una isometrı́a autoadjunta si y sólo si T es autoadjunta y λ = ±1 para todo


valor propio λ de T .

Dem.

1. (⇒): Ya lo sabemos.
P
(⇐): Sea T = ki=1 λi Pi la descomposición espectral de T , entonces

k
!  k 
k k k
X X X X X
T ◦ T∗ = λi Pi ◦  λj Pj  = λi λj Pi ◦ Pj = |λi |2 Pi = Pi = id .
i=1 j=1 i,j=1 i=1 i=1

Análogamente se prueba que T ∗ ◦ T = id .

2. (⇒): Ya lo sabemos.
(⇐): Vale la misma prueba del caso 1.

Definición 3.4.2. Sea k un cuerpo cualquiera, una matriz A ∈ Mn (k) se dice ortogonal si

At = A−1 ⇔ At A = A At = Id .

Una matriz A ∈ Mn (C) se dice unitaria si

A∗ = A−1 ⇔ A∗ A = A A∗ = Id .

Observar que si k = R, A ∈ Mn (R) es ortogonal si y sólo si A∗ A = A A∗ = Id.

Proposición 3.4.4. Sea T ∈ L(V), B una base ortonormal de V y A = [T ]B . Entonces T es una isometrı́a
si y sólo si A es ortogonal en el caso k = R o A es unitaria en el caso k = C.

Dem.

T ◦ T ∗ = T ∗ ◦ T = id ⇔ [T ◦ T ∗ ]B = [T ∗ ◦ T ]B = [id ]B ⇔ [T ]B [T ∗ ]B = [T ∗ ]B [T ]B = Id
⇔ [T ]B ([T ]B )∗ = ([T ]B )∗ [T ]B = Id ⇔ A A∗ = A∗ A = Id .

Proposición 3.4.5. Sea A ∈ Mn (R). Las siguientes afirmaciones son equivalentes:

1. La matriz A es unitaria en el caso de k = C u ortogonal en el caso de k = R.

2. Las filas de A forman una base ortonormal de kn .

3. Las columnas de A forman una base ortonormal de kn .


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 59

Dem.    
a11 · · · a1n a1i
 .. ..  = [A | . . . |A ], siendo A =  .. . Sea A∗ = (b ), siendo b = a .
Sea A = [aij ] =  . .  1 n i  .  ij ij ji
an1 · · · ann ani
Si A∗ A = (cij ), entonces
n
X n
X
cij = bik akj = aki akj = hAj , Ai i
k=1 k=1

Luego
A∗ A = Id ⇔ cij = δij ⇔ hAj , Ai i = δij ⇔ hAi , Aj i = δij .
Entonces A∗ A = Id si y sólo si {A1 , . . . , An } es una base ortonormal de kn .

Análogamente se prueba que A A∗ = Id si y sólo si las filas de A forman una base ortonormal de kn .

Es un ejercicio del práctico 5 el probar el siguiente resultado:

Proposición 3.4.6. Sean B y C bases de kn y A = B [id ]C . Entonces:

1. Si B y C son bases ortonormales, entonces A es unitaria si k = C, u ortogonal si k = R.

2. Si B o C es una base ortonormal y A es unitaria si k = C u ortogonal si k = R, entonces la otra base


es también ortonormal.

Definición 3.4.3. 1. Dos matrices A y B en Mn (C) son unitariamente equivalentes si existe una matriz
Q en Mn (C) unitaria tal que A = Q∗ B Q(= Q−1 B Q).

2. Dos matrices A y B en Mn (R) son ortogonalmente equivalentes si existe Q en Mn (R) ortogonal tal
que A = Qt B Q(= Q−1 B Q).

Ejercicio 3.4.1. Probar que la relación “ser unitariamente equivalentes” es de equivalencia en Mn (C) y
que la relación “ser ortogonalmente equivalentes” es de equivalencia en Mn (R).

Teorema 3.4.7. 1. Sea A ∈ Mn (C). La matriz A es normal si y sólo si A es unitariamente equivalente


a una matriz diagonal.

2. Sa A ∈ Mn (R). La matriz A es simétrica si y sólo si A es ortogonalmente equivalente a una matriz


diagonal.

Dem.

1. (⇒): Consideremos LA : Cn → Cn . Como A es normal, entonces LA es normal, luego existe una base
ortonormal B de Cn tal que [LA ]B = D, siendo D una matriz diagonal.
Sea C la base canónica de Cn y Q = B [id ]C . Es

A = [LA ]C = C [id ]B [LA ]B B [id ]C = Q−1 D Q.

Como C y B son bases ortonormales de Cn y Q = B [id ]C , entonces Q es unitaria y A = Q∗ B Q.


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 60

(⇐): Sean Q y D en Mn (C), con Q unitaria y D diagonal tales que A = Q∗ D Q. Es A∗ = (Q∗ D Q)∗ =
Q∗ D ∗ Q∗∗ = Q∗ D Q. Entonces

A A∗ = (Q∗ D Q)(Q∗ D Q) = Q∗ D Q Q∗ D Q = Q∗ DD Q
A∗ A = (Q∗ D Q)(Q∗ D Q) = Q∗ D Q Q∗ D Q = Q∗ D D Q

Como D D = D D, es A A∗ = A∗ A.

2. (⇒): Es la misma idea que en 1. Como A es simétrica, LA ∈ L(Rn ) es autoadjunta y luego diagonali-
zable en una base ortonormal. El resto sigue igual.

(⇐): Sea A = Qt D Q, con Q ortogonal y D diagonal. Es

At = (Qt D Q)t = Qt Dt Qtt = Qt D Q = A,

luego At = A y A es simétrica.

 
4 2 2
Ejemplo 3.4.1. Sea A =  2 4 2  ∈ M3 (R) matriz simétrica. Es un ejercicio el verificar que χA (t) =
2 2 4
2
−(t − 2) (t − 8) y que los subespacios propios son

E2 = [(−1, 1, 0), (−1, 0, 1)], E8 = [(1, 1, 1)].

Aplicando Gram-Schmidt a la base de E2 obtenemos

E2 = [(−1/2, 1, −1/2), (−1, 0, 1)] = [(−1, 2, −1), (−1, 0, 1)] .

Luego {(−1, 2, −1), (−1, 0, 1), (1, 1, 1)} es una base ortogonal de R3 , normalizando obtenemos
     
1 2 1 1 1 1 1 1
−√ , √ , −√ , − √ , 0, √ , √ ,√ ,√
6 6 6 2 2 3 3 3

que es una base ortonormal de R3 .  


  − √16 − √12 √13
2 0 0
 √1 
Entonces si D =  0 2 0  y Q =  √26 0 3 
, es D = Qt A Q o A = Q D Qt (recordar
0 0 8 − √16 √1
2
√1
3
que Qt = Q−1 ). Es decir
   − √1 − √1 √1     − √1 √2 − √1 
4 2 2 6 2 3 2 0 0 6 6 6
 2 4 2 =  √6
2
0 √1   0 2 0   − √1 0 √1 
.
3 2 2 
2 2 4 1 1 1 0 0 8 1 1 1
− √6 √
2

3

3

3

3
Capı́tulo 4

Formas multilineales
1

4.1. Formas multilineales


Sea k un cuerpo arbitrario, V un k-espacio vectorial y n un entero positivo. Una n-forma multilineal en
V es una función α : V · · × V} → k que verifica:
| × ·{z
n

α (v1 , . . . , a vi + wi , . . . , vn ) = a α (v1 , . . . , vi , . . . , vn ) + α (v1 , . . . , wi , . . . , vn )

para todo a ∈ k, v1 , . . . , vn , wi ∈ V y todo i = 1, . . . , n.

Observar que una forma multilineal es una función que es lineal en cada variable, en particular una
1-forma multilineal es simplemente un elemento del espacio dual V ∗ .

Es un ejercicio verificar que el conjunto de las n-formas multilineales es un subespacio del espacio vectorial
de las funciones con dominio V × · · · × V y codominio k, en el cual las operaciones se definen punto a punto:

(f + g)(v1 , . . . , vn ) = f (v1 , . . . , vn ) + g(v1 , . . . , vn ), (a f )(v1 , . . . , vn ) = a f (v1 , . . . , vn ). (4.1)

En particular esto implica que el conjunto de las n-formas multilineales tiene estructura de espacio vectorial.

4.2. Formas bilineales


Una forma bilineal es una 2-forma multilineal, es decir una función ϕ : V × V → k que verifica

ϕ(a u + v, w) = a ϕ(u, w) + ϕ(v, w),


ϕ(w, a u + v) = a ϕ(w, u) + ϕ(w, v).

Sea Bil(V ) el conjunto de las formas bilineales en V . Por lo que vimos anteriormente Bil(V ) tiene estructura
de espacio vectorial definiendo las operaciones como en (4.1).
1
Notas redactadas por Andrés Abella, adaptadas por Mariana Haim para el curso 2007

61
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 62

Ejemplos de formas bilineales son los siguientes:

Ejemplo 4.2.1. Un producto interno real h , i : V × V → R.

Ejemplo 4.2.2. La función ϕ : k2 × k2 → k definida por



ϕ (x, y) , x′ , y ′ = 2 x x′ + 3 x y ′ + 4 y x′ − y y ′ .

Observar que podemos escribir:


  
′ ′
 2 3 x′
ϕ (x, y) , x , y = (x, y) .
4 −1 y′

Ejemplo 4.2.3. Este ejemplo generaliza el anterior. Si A ∈ Mn (k), definimos ϕA : kn × kn → k por


ϕA (u, v) = ut A v, siendo
     
u1 v1 a11 · · · a1n
     ..  .
u =  ...  , v =  ...  , A =  ... . 
un vn an1 · · · ann
P
Explı́citamente es ϕA (u, v) = ni,j=1 aij ui vj .

Proposición 4.2.1. Sean ϕ : V × V → k una forma bilineal, W un espacio vectorial y T, S : W → V dos


transformaciones lineales. Si definimos ϕ′ : W × W → k mediante

ϕ′ (w1 , w2 ) = ϕ(T (w1 ), S(w2 )), ∀w1 , w2 ∈ W,

Entonces ϕ′ es una forma bilineal en W .

Dem.

ϕ′ (w1 + a w1′ , w2 ) = ϕ(T (w1 + a w1′ ), S(w2 )) = ϕ(T (w1 ) + a T (w1′ ), S(w2 ))
= ϕ(T (w1 ), S(w2 )) + a ϕ(T (w1′ ), S(w2 )) = ϕ′ (w1 , w2 ) + a ϕ′ (w1′ , w2 ).

Esto prueba que ϕ′ es lineal en la primer variable y análogamente se prueba que es lineal en la segunda
variable.

Definición 4.2.1. Si V tiene dimensión finita n, B = {v1 , . . . , vn } es una base de V y ϕ ∈ Bil(V ), definimos
MB (ϕ) la matriz asociada a la forma bilineal ϕ en la base B mediante
 
ϕ (v1 , v1 ) · · · ϕ (v1 , vn )
 .. .. 
MB (ϕ) := (ϕ (vi , vj ))i,j =  . .  ∈ Mn (k).
ϕ (vn , v1 ) · · · ϕ (vn , vn )

 
2 3
Ejemplo 4.2.4. En el Ejemplo 4.2.2, si B = {(1, 0), (0, 1)}, es MB (ϕ) = .
4 −1
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 63

Teorema 4.2.2. Sea V un espacio de dimensión finita n y B = {v1 , . . . , vn } una base de V . La función
MB : Bil(V ) → Mn (k) que a cada forma bilineal ϕ le asocia la matriz MB (ϕ) es un isomorfismo lineal.
Dem. Sean ϕ, ϕ′ ∈ Bil(V ) y a ∈ k. Es
    
MB a ϕ + ϕ′ = a ϕ + ϕ′ (vi , vj ) i,j = a ϕ (vi , vj ) + ϕ′ (vi , vj ) i,j = a (ϕ (vi , vj ))i,j + ϕ′ (vi , vj ) i,j

= a MB (ϕ) + MB ϕ′ .

Luego MB es lineal.

Sea ϕ ∈ Bil(V ) tal que MP B (ϕ) = 0 ∈ Mn (k),


Pn entonces es ϕ(vi , vj ) = 0 para todo i, j = 1, . . . , n. Sean
n
v, w ∈ V que escribimos v = i=1 xi vi y w = j=1 yj vj . Entonces
 
n
X n
X n
X n
X
ϕ(v, w) = ϕ  xi vi , yj vj  = xi yj ϕ (vi , vj ) = 0.
i=1 j=1 i=1 j=1

Luego Ker MB = {0} y MB es inyectiva.

Sea A = (aij )i,j ∈ Mn (k). Definimos ϕ : V × V → k mediante ϕ(v, w) = ϕA (coordB v, coordB w), siendo
ϕA : kn × kn → k la forma bilineal definida en el Ejemplo 4.2.3. La Proposición 4.2.1 nos prueba que
ϕ ∈ Bil(V ). Operando obtenemos

ϕ(vi , vj ) = ϕA (ei , ej ) = aij , ∀i, j = 1, . . . , n.

Luego MB (ϕ) = A y MB es sobreyectiva.

Corolario 4.2.3. Si V es un espacio de dimensión finita n, entonces la dimensión de Bil(V ) es n2 .


Dem. Es Bil(V ) ≃ Mn (k) y dim Mn (k) = n2 .

Corolario 4.2.4. Si V es un espacio de dimensión finita n, B es una base de V y ϕ ∈ Bil(V ), entonces


una matriz A ∈ Mn (k) verifica

ϕ(v, w) = (coordB v)t A coordB w, ∀v, w ∈ V

si y sólo si A = MB (ϕ).
Dem. Se deduce inmediatamente de la demostración del teorema anterior.

Observar que en particular el corolario anterior nos da la siguiente fórmula:

ϕ(v, w) = (coordB v)t MB (ϕ) coordB w, ∀v, w ∈ V

Corolario 4.2.5. Si ϕ ∈ Bil (kn ) entonces existe una única matriz A ∈ Mn (k) tal que ϕ(v, w) = v t A w
para todo v, w en kn (es decir ϕ = ϕA ).
Dem. Sea B la base canónica de kn y A = MB (ϕ), entonces

ϕ(v, w) = (coordB v)t A coordB w = v t A w, ∀v, w ∈ kn .


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 64

De ahora en adelante supondremos que V es un k-espacio vectorial de dimensión finita n.


Proposición 4.2.6. Sean B y C dos bases de V y ϕ ∈ Bil(V ). Entonces
MC (ϕ) = (B [id ]C )t MB (ϕ) B [id ]C .
Dem. Sean v, w ∈ V ,
ϕ(v, w) = (coordB v)t MB (ϕ) coordB w
= (B [id ]C coordC v)t MB (ϕ) (B [id ]C coordC w)
= (coordC v)t (B [id ]C )t MB (ϕ) B [id ]C coordC w.

Luego el Corolario 4.2.4 implica MC (ϕ) = (B [id ]C )t MB (ϕ) B [id ]C .

Definición 4.2.2. Dos matrices A y B en Mn (k) se dicen congruentes si existe una matriz invertible Q en
Mn (k) tal que A = Qt B Q.

Ejercicio 4.2.1. Probar que la congruencia es una relación de equivalencia en Mn (k).

Teorema 4.2.7. Sea ϕ ∈ Bil(V ) y B una base de V . Si A ∈ Mn (k) es congruente con MB (ϕ), entonces
existe C base de V tal que MC (ϕ) = A.
Dem. Sea Q = (qij ) ∈ Mn (k) invertible tal que A = Qt MB (ϕ) Q. Si B = {v1 , . . . , vn }, definimos
C = {w1 , . . . , wn } mediante
Xn
wj = qij vi , j = 1, . . . , n.
i=1
Como Q es invertible, resulta que C es una base de V y B [id ]C = Q. Luego
A = Qt MB (ϕ) Q = (B [id ]C )t MB (ϕ) B [id ]C = MC (ϕ).

Corolario 4.2.8. Dos matrices son congruentes si y sólo si representan a la misma forma bilineal.
Dem. Sean A y A′ en Mn (k) dos matrices congruentes. Si consideramos la forma bilineal ϕA′ ∈ Bil (kn )
y B es la base canónica de kn es A′ = MB (ϕA′ ). Luego A es congruente con MB (ϕA′ ) y el teorema anterior
implica que A = MC (ϕA′ ) para alguna base C de V . El recı́proco es la Proposición 4.2.6.

4.3. Formas bilineales simétricas


Sea k un cuerpo arbitrario, decimos que el cuerpo tiene caracterı́stica 2 y escribimos car k = 2 si en k se
verifica 1 + 1 = 0. Un ejemplo en el cual pasa esto es el caso del conjunto formado por dos elementos que
llamamos 0 y 1, F2 = {0, 1}, en el cual definimos dos operaciones +, · : F2 × F2 → F2 mediante:
0 + 0 = 0, 1 + 1 = 0, 0 + 1 = 1, 1 + 0 = 1,
0 · 0 = 0, 0 · 1 = 0, 1 · 0 = 0, 1 · 1 = 1.
Es un ejercicio verificar que (F2 , +, ·) es un cuerpo y claramente car F2 = 2. Otro ejemplo es el cuerpo de
expresiones racionales con coeficientes en F2 , es decir los cocientes de polinomios con coeficients en F2 .
Ejemplos de cuerpos con caracterı́stica distinta de 2 son Q, R y C. En un cuerpo k con car k 6= 2 es
2 := 1 + 1 6= 0 y luego 2 es invertible en k.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 65

En este sección V será siempre un k-espacio vectorial de dimensión finita y car k 6= 2.

Definición 4.3.1. Una forma bilineal ϕ se dice simétrica si

ϕ(u, v) = ϕ(v, u), ∀u, v ∈ V.

Escribimos BilS (V ) := {ϕ ∈ Bil(V ) : ϕ es simétrica} .


Ejercicio 4.3.1. Probar que BilS (V ) es un subespacio de Bil(V ).
Proposición 4.3.1. Sea ϕ ∈ Bil(V ). Son equivalentes:
1. ϕ ∈ BilS (V ).

2. Para toda base B de V es MB (ϕ) simétrica.

3. Existe una base B de V tal que MB (ϕ) es simétrica.


Dem. 1 ⇒ 2: Sea B = {v1 , . . . , vn } una base de V y MB (ϕ) = (aij ), entonces

aij = ϕ(vi , vj ) = ϕ(vj , vi ) = aji , ∀i, j = 1, . . . , n

luego MB (ϕ) = (aij ) es simétrica.

2 ⇒ 3: Esto es obvio.

3 ⇒ 1: Sea B = {v1 , . . . , vn } una base de V tal que MB (ϕ) es simétrica, esto último equivale a ϕ(vi , vj ) =
ϕ(vj P
, vi ), ∀i, j = 1, . P
. . , n. Sean u, v ∈ V , entonces existen escalares ai , bi ∈ k, i = 1, . . . , n tales que
u = ni=1 ai vi y v = ni=1 bi vi . Luego
 
Xn n
X n
X n
X n
X n
X
ϕ(u, v) = ϕ  ai vi , bj vj  = ai bj ϕ (vi , vj ) = ai bj ϕ (vj , vi )
i=1 j=1 i=1 j=1 i=1 j=1
 
n
X n
X
= ϕ bj vj , ai vi  = ϕ(v, u).
j=1 i=1

Como u y v son arbitrarios, se deduce que ϕ ∈ BilS (V ).

n(n+1)
Corolario 4.3.2. Si dim(V ) = n, entonces dim BilS (V ) = 2 .

Definición 4.3.2. Sea ϕ ∈ BilS (V ). La función Φ : V → k definida por Φ(v) = ϕ(v, v), ∀v ∈ V se llama la
forma cuadrática asociada a ϕ.

Observación 4.3.1. Las formas cuadráticas en V forman un subespacio de las funciones de V en k: es claro
que la función nula es una forma cuadrática (correspondiente a la forma bilineal nula). Si Φ y Ψ son dos
formas cuadráticas en V y a ∈ k, entonces existen ϕ y ψ en BilS (V ) tales que Φ(v) = ϕ(v, v) y Ψ(v) =
ψ(v, v), ∀v ∈ V, luego

(a Φ + Ψ) (v) = a Φ(v) + Ψ(v) = a ϕ(v, v) + ψ(v, v) = (a ϕ + ψ) (v, v), ∀v ∈ V y a ϕ + ψ ∈ BilS (V ).

Esto prueba que a Φ + Ψ es una forma cuadrática en V .


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 66

Proposición 4.3.3. Sea ϕ ∈ BilS (V ) y Φ : V → k la forma cuadrática asociada a ϕ. Entonces:


1. Φ(a v) = a2 Φ(v), ∀a ∈ k, v ∈ V .
2. Φ(0) = 0.
3. Φ(u + v) = Φ(u) + 2 ϕ(u, v) + Φ(v), ∀u, v ∈ V .
1
4. ϕ(u, v) = 2 (Φ(u + v) − Φ(u) − Φ(v)), ∀u, v ∈ V .
Dem.
1. Φ(a v) = ϕ(a v, a v) = a2 ϕ(v, v) = a2 Φ(v).
2. Se deduce de la fórmula anterior tomando a = 0.
3. Φ(u + v) = ϕ(u + v, u + v) = ϕ(u, u) + ϕ(u, v) + ϕ(v, u) + ϕ(v, v) = Φ(u) + 2 ϕ(u, v) + Φ(v).
4. Se deduce de la fórmula anterior despejando ϕ(u, v).

Observación 4.3.2. Notar que para la propiedad 4 de la Proposición anterior es necesaria la condición
car k 6= 2.

Definición 4.3.3. Un polinomio homogéneo de grado 2 en las indeterminadas x1 ,. . .,xn es un polinomio en


k[x1 , . . . , xn ] de la forma X
aij xi xj .
1≤i≤j≤n

Observar que los polinomios homogéneos de grado 2 en las indeterminadas x1 ,. . .,xn forman un subespacio
de k[x1 , . . . , xn ].

Ejemplo 4.3.1. Si n = 2, un polinomio homogéneo de grado 2 en las indeterminadas x, y es un polinomio


en k[x, y] de la forma
ax2 + bxy + cy 2 , a, b, c ∈ k.
Si n = 3, un polinomio homogéneo de grado 2 en las indeterminadas x, y, z es un polinomio en k[x, y, z] de
la forma
ax2 + by 2 + cz 2 + dxy + exz + f yz, a, b, . . . , f ∈ k.

Proposición 4.3.4. Los siguientes espacios vectoriales son isomorfos.


1. El espacio de las matrices simétricas de orden n con coeficientes en k.
2. El espacio de las formas bilineales simétricas en kn .
3. El espacio de las formas cuadráticas en kn .
4. El espacio de los polinomios homogéneos de grado 2 en las indeterminadas x1 , . . . , xn con coeficientes
en k.
Dem. Nosotros habı́amos visto anteriormente que la correspondencia que a una matriz A le hace corres-
ponder la forma bilineal ϕ definida por ϕ(u, v) = ut A v establece un isomorfismo entre las matrices de orden
n con coeficientes en k y las formas bilineales en kn . La Proposición 4.3.1 nos dice que este isomorfismo
restringido a las matrices simétricas de orden n nos da un isomorfismo entre las matrices simétricas y las
formas bilineales simétricas.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 67

El isomorfismo entre formas bilineales simétricas y formas cuadráticas viene dado por las fórmulas
siguientes:
1
Φ(v) = ϕ(v, v), ϕ(u, v) = (Φ(u + v) − Φ(u) − Φ(v)) . (4.2)
2
Si A = (aij ) ∈ Mn (k) es una matriz simétrica, le asociamos el polinomio p en las indeterminadas
x1 , . . . , xn definido por 
X aii si i = j,
p= bij xi xj , bij =
2 aij si i < j.
i≤j

Es claro que que p es un polinomio homogéneo de grado 2 en las indeterminadas x1 , . . . , xn y que esta
correspondencia es un isomorfismo entre las matrices simétricas y los polinomios homogéneos de grado
dos.


Ejemplo 4.3.2. En el caso n = 2, una matriz simétrica de orden 2 es una matriz de la forma A = ab bc .
La forma bilineal simétrica, la forma cuadrática y el polinomio homogéneo que corresponden a A son:
   ′
′ ′
 a b x
ϕ (x, y), x , y = (x, y) · · = a x x′ + b x y ′ + b x′ y + c y y ′ ,
b c y′
Φ(x, y) = ϕ ((x, y), (x, y)) = a x2 + 2 b x y + c y 2 ,
p = a x2 + 2 b x y + c y 2 .

Observar que la única diferencia ente Φ y p es que Φ es una función de k × k en k, mientras que p es un
polinomio en dos variables.

De ahora en adelante V es un k-espacio vectorial de dimensión finita, ϕ ∈ BilS (V ) y Φ : V → k es la


forma cuadrática asociada a ϕ.
Definición 4.3.4. Dos vectores u y v en V son ϕ-ortogonales si ϕ(u, v) = 0. Dos subespacios U y W de
V son ϕ-ortogonales si ϕ(u, w) = 0 para todo u ∈ U y w ∈ W . Una base B = {v1 , . . . , vn } de V se dice
ϕ-ortogonal si ϕ(vi , vj ) = 0 si i 6= j y se dice ϕ-ortonormal si además Φ(vi ) ∈ {−1, 0, 1}, ∀i = 1, . . . , n.
P P
Observar que si B = {v1 , . . . , vn } es una base ϕ-ortogonal de V y u = ni=1 xi vi y v = ni=1 yi vi son
dos vectores de V , entonces
 
Xn n
X Xn n
X n
X n
X
ϕ(u, v) = ϕ  xi vi , 
yj vj = xi yj ϕ (vi , vj ) = xi yi ϕ (vi , vi ) = Φ (vi ) xi yi .
i=1 j=1 i=1 j=1 i=1 i=1

Luego tenemos las fórmula siguientes:


n
X n
X
ϕ(u, v) = Φ (vi ) xi yi , Φ(u) = Φ (vi ) x2i . (4.3)
i=1 i=1


Ejemplo 4.3.3. Sea ϕ ∈ BilS R3 tal que Φ(x, y, z) = x2 − y 2 . Entonces la base canónica {e1 , e2 , e3 } es
ϕ-ortonormal.


Ejemplo 4.3.4. Sea ϕ ∈ BilS Q2 tal que Φ(x, y) = 2x2 . Entonces la base canónica {e1 , e2 } es ϕ-ortogonal.
Observar que no existe ningún vector v de Q2 tal que Φ(v) = ±1, luego no existe ninguna base ϕ-ortonormal
de Q2 .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 68

Observación 4.3.3. Sea B una base de V . Es equivalente que B sea una base ϕ-ortogonal de V con que la
matriz MB (ϕ) sea diagonal y que B sea una base ϕ-ortonormal de V con que la matriz MB (ϕ) sea diagonal
y sus entradas diagonales sean 0, 1 o −1.

Definición 4.3.5. Si W es un subespacio de V , la restricción de ϕ a W es la función ϕ|W ×W : W × W → k.


Claramente ϕ|W ×W ∈ BilS (W ).

De las fórmulas (4.2) se deduce inmediatamente el siguiente:

Lema 4.3.5. Es ϕ = 0 si y sólo si Φ = 0.

Teorema 4.3.6. Existe una base ϕ-ortogonal de V .


Dem. Lo probaremos por inducción en n = dim V .

Si n = 1, toda base B = {v} de V es ϕ-ortogonal. Supongamos ahora que vale la tesis si la dimensión
del espacio es n − 1 y sea ϕ ∈ BilS (V ) con dim V = n. Si ϕ = 0, entonces toda base de V es ϕ-ortogonal.
Supongamos ahora que ϕ 6= 0. Por el lema anterior es Φ 6= 0, luego existe u ∈ V tal que Φ(u) 6= 0.

Definimos α ∈ V ∗ mediante α(v) = ϕ(v, u), ∀v ∈ V . Observar que α(u) = ϕ(u, u) = Φ(u) 6= 0, luego
α 6= 0 y entonces dim Ker α = n − 1. Aplicando la hipótesis de inducción ϕ restringida a Ker α tenemos que
existe {v1 , . . . , vn−1 } base de Ker α tal que ϕ(vi , vj ) = 0 si i 6= j.

Como u 6∈ Ker α = [v1 , . . . , vn−1 ], entonces el conjunto B = {v1 , . . . , vn−1 , u} es LI y al tener n elementos
es base de V . Como {v1 , . . . , vn−1 } ⊂ Ker α resulta que v1 , . . . , vn−1 son ϕ-ortogonales con u y luego B es
una base ϕ-ortogonal de V .

Definición 4.3.6. Llamamos núcleo de ϕ a

V0 := {v ∈ V : ϕ(v, u) = 0, ∀u ∈ V } = {v ∈ V : ϕ(u, v) = 0, ∀u ∈ V }.

Ejercicio 4.3.2. Probar que V0 es un subespacio de V .

Definición 4.3.7. Decimos que ϕ es no degenerada si V0 = {0}, es decir si

ϕ(u, v) = 0, ∀v ∈ V ⇒ u = 0.

Si W es un subespacio de V , decimos que ϕ es no degenerada en W si la restricción de ϕ a W es no


degenerada.

Ejemplo 4.3.5. Consideremos la matriz identidad I ∈ Mn (k) y ϕI ∈ BilS (kn ), ϕI (u, v) = ut I v = ut v,


∀u, v ∈ kn . Explı́citamente

ϕI ((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + · · · + xn yn .

Sea v = (v1 , . . . , vn ) ∈ kn ,

v ∈ V0 ⇔ ut v = 0, ∀u ∈ V ⇔ eti v = 0, ∀i = 1, . . . , n ⇔ vi = 0, ∀i = 1, . . . , n ⇔ v = 0,

luego ϕI es no degenerada.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 69

Proposición 4.3.7. Sea A ∈ Mn (k) y consideremos ϕA ∈ BilS (kn ), ϕA (u, v) = ut A v. Vale V0 = Ker(LA ).

Dem.

v ∈ V0 ⇔ ut A v = 0, ∀u ∈ V ⇔ ϕI (u, A v) = 0, ∀u ∈ V ⇔ A v = 0 ⇔ v ∈ Ker(LA ).

Teorema 4.3.8. Sea B = {v1 , . . . , vn } una base ϕ-ortogonal de V y supongamos que ordenamos B de forma
tal que

Φ(vi ) = 0, ∀i = 1, . . . , s,
Φ(vi ) 6= 0, ∀i = s + 1, . . . , n.

Sea W = [vs+1 , . . . , vn ]. Vale lo siguiente:

1. V0 = [v1 , . . . , vs ].

2. ϕ es no degenerada en W .

3. V = V0 ⊕ W .
P
Dem. Sea u ∈ V . Sabemos que existen únicos escalares a1 , . . . , an tales que u = nj=1 aj vj . Sea i ∈
{1, . . . , s}. Aplicando la fórmula (4.3) obtenemos ϕ(vi , u) = ai Φ (vi ) = ai 0 = 0, luego v1 , . . . , vs pertenecen
a V0 .
P
Sea ahora w ∈ V0 , luego existen únicos escalares b1 , . . . , bn tales que w = nj=1 bj vj . Al ser w ∈ V0 , es
ϕ(w, v) = 0 para todo v ∈ V , en particular si i ∈ {s + 1, . . . , n} y aplicamos (4.3) obtenemos 0 = ϕ(w, vi ) =
bi Φ (vi ) y como Φ(vi ) 6= 0, resulta bi = 0 para todo i = s + 1, . . . , n y w ∈ [v1 , . . . , vs ]. Esto completa la
prueba de V0 = [v1 , . . . , vs ].

Como V0 = [v1 , . . . , vs ], resulta

V = [v1 , . . . , vs ] ⊕ [vs+1 , . . . , vn ] = V0 ⊕ W.

Probaremos
P ahora que ϕ es no degenerada en W . Sea w ∈ W tal que ϕ(w, v) = 0 para todo v ∈ W . Es
w = nj=s+1 bj vj , con bs+1 , . . . , bn ∈ k. Si i ∈ {s + 1, . . . , n}, es vi ∈ W . Luego la misma cuenta que antes
nos prueba que 0 = ϕ(w, vi ) = bi Φ (vi ) y como Φ(vi ) 6= 0 es bi = 0, para todo i = s + 1, . . . , n y resulta
w = 0.

Observación 4.3.4. El espacio W en la descomposición anterior no es único. Por ejemplo, si ϕ ∈ BilS R2
está definida mediante ϕ((x, y), (x′ , y ′ )) = x x′ , entonces es R2 0 = [(0, 1)] y podemos tomar como W a
cualquier recta por el origen distinta del eje Oy.

Definición 4.3.8. Llamamos rango de ϕ al rango de MB (ϕ), siendo B una base cualquiera de V . Esta
definición tiene sentido porque dos matrices congruentes siempre tienen el mismo rango.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 70

Proposición 4.3.9. La forma bilineal ϕ es no degenerada si y sólo si rango(ϕ) = n, siendo n = dim V .

Dem. Sea B = {v1 , . . . , vn } una base ϕ-ortogonal de V y supongamos que ordenamos B de forma tal
que

Φ(vi ) = 0, ∀i = 1, . . . , s,
Φ(vi ) 6= 0, ∀i = s + 1, . . . , n.

En el teorema anterior probamos que V0 = [v1 , . . . , vs ], luego ϕ es no degenerada si y sólo si s = 0.

Por otro lado es  


0
 .. 
 . 
 
 0 
MB (ϕ) = 

,

 Φ(vs+1 ) 
 .. 
 . 
Φ(vn )
luego rango(ϕ) = rango (MB (ϕ)) = n − s. Esto implica que rango(ϕ) = n si y sólo si n − s = n si y sólo si
s = 0.

4.4. Matrices elementales


En esta sección k es un cuerpo cualquiera.

Definición 4.4.1. Sea A ∈ Mn (k). Se llaman operaciones elementales en las filas o columnas de A a las
siguientes:

1. Operación de tipo I. Intercambiar dos filas o columnas de A.

2. Operación de tipo II. Multiplicar una fila o columna de A por una constante no nula.

3. Operación de tipo III. Sumarle a una fila o columna un múltiplo de otra fila o columna respectivamente.

Definición 4.4.2. Se llaman matrices elementales de tipo I, II o III a las matrices que se obtienen aplicando
las operaciones elementales correspondientes a la matriz identidad.

Es decir que las matrices elementales son las siguientes:

Matrices de tipo I:  
1
 .. 
 . 
 
 0 ··· 1 
 
 .. . . .. 
 . . . .
 
 1 ··· 0 
 
 .. 
 . 
1
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 71

Matrices de tipo II:  


1
 .. 
 . 
 
 1 
 
 p , p 6= 0.
 
 1 
 
 .. 
 . 
1
Matrices de tipo III:
   
1 1
 ..   .. 
 .   . 
   
 1 ··· q   1 
   
 .. ..   .. . . 
 . .  o  . . , q ∈ k.
   
 1   q ··· 1 
   
 ..   .. 
 .   . 
1 1

Observación 4.4.1. Observar que la traspuesta de una matriz elemental es una matriz elemental del mismo
tipo.

Ejercicio 4.4.1. Probar que las matrices elementales son invertibles y hallar sus inversas.

Ejercicio 4.4.2. Probar que realizar una operación elemental de tipo I, II o III en las columnas (filas) de
una matriz A, equivale a multiplicar a A por la derecha (izquierda) con una matriz elemental del mismo
tipo.

   
1 2 3 4 1 0 0 0
5 6 7 8  
Ejemplo 4.4.1. Sea A =   y E = 0 0 1 0 que se obtiene intercambiando las columnas
9 1 2 3   0 1 0 0
4 5 6 7 0 0 0 1
2 y 3 en la matriz identidad (matriz de tipo I). Observar que tenemos
     
1 2 3 4 1 0 0 0 1 3 2 4
5 6 7 8    
A·E =  · 0 0 1 0 = 5 7 6 8 ,
9 1 2 3 0 1 0 0 9 2 1 3
4 5 6 7 0 0 0 1 4 6 5 7
     
1 0 0 0 1 2 3 4 1 2 3 4
0 0 1 0    
E ·A=  · 5 6 7 8 = 9 1 2 3 .
0 1 0 0   9 1 2 3   5 6 7 8
0 0 0 1 4 5 6 7 4 5 6 7

Es decir que multiplicar a la matriz A por la derecha con la matriz E equivale a intercambiar las columnas
2 y 3 de A, mientras que multiplicar a la matriz A por la izquierda con la matriz E equivale a intercambiar
las filas 2 y 3 de A.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 72

Aplicación 4.4.1. Cálculo del rango de una matriz.


Sea A ∈ Mn (k). Multiplicar la matriz A (a izquierda o derecha) por una matriz invertible, es una
operación que no afecta el rango de A. La matrices elementales son invertibles, luego multiplicar por ellas deja
invariante el rango de A. Por otro lado multiplicar por matrices elementales equivale a realizar operaciones
elementales. De lo anterior se deduce que realizar operaciones elementales en las filas y columnas de A no
afecta al rango de A. Esto nos da un método muy simple para hallar el rango de una matriz, simplemente
realizamos operaciones elementales en sus filas y columnas hasta transformarla en una matriz a la cual sea
simple calcular su rango. De hecho mediante este método se puede transformar cualquier matriz en una
matriz diagonal que en la diagonal principal tenga entradas que son solo 0 y 1, en este caso el rango es la
cantidad de unos que aparecen en la diagonal principal.
Ejemplo 4.4.2. Sea ϕ ∈ BilS (R3 ) tal que su forma cuadrática asociada es
Φ(x, y, z) = −7x2 − 2y 2 + 7z 2 + 8xy + 2xz − 4yz, ∀(x, y, z) ∈ R3 .
Luego si C es la base canónica e R3 , es
 
−7 4 1
MC (ϕ) =  4 −2 −2 .
1 −2 7
Para calcular el rango de ϕ, observar que si primero le sumamos a la primer columna la segunda multiplicada
por 2 y luego a la tercer fila le sumamos la primera multiplicada por 3, tenemos:
     
−7 4 1 1 4 1 1 4 1
 4 −2 −2 ⇒  0 −2 −2 ⇒ 0 −2 −2 .
1 −2 7 −3 −2 7 0 10 10
Luego el rango de ϕ coincide con el rango de la última matriz que claramente es 2. En particular esto nos
dice que ϕ degenera.

Aplicación 4.4.2. Diagonalización de una forma bilineal simétrica.


La operación que nos interesa consiste en transformar una matriz simétrica A en una de la forma Qt A Q,
siendo Q una matriz invertible. Observar que si Q es una matriz elemental de tipo I, II o III, entonces Qt A Q
es la matriz que se obtiene realizando la operación elemental correspondiente en las filas y columnas de A.
Por ejemplo sean
     
1 2 3 4 1 0 0 0 1 0 0 2
2 5 6 7    
A=  , E1 = 0 0 1 0 , E2 = 0 1 0 0
3 6 8 9 0 1 0 0 0 0 1 0
4 7 9 0 0 0 0 1 0 0 0 1
Luego
       
1 0 0 0 1 2 3 4 1 0 0 0 1 3 2 4
     
0 0 1 0 2 5 6 7 0 0 1 0 3 8  6 9
E1t A E1 = 
0 1 0 0 · 3 6 8 9 · 0 1 0 0 = 2 6
,
5 7
0 0 0 1 4 7 9 0 0 0 0 1 4 9 7 0
       
1 0 0 0 1 2 3 4 1 0 0 2 1 2 3 6
0 1 0 0  2 5 6 7  0 1 0 0  11
E2t A E2 =       2 5 6 .
0 0 1 0 · 3 6 8 9 · 0 0 1 0 = 3 6 8 15
2 0 0 1 4 7 9 0 0 0 0 1 6 11 15 20
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 73

Ejercicio 4.4.3. Probar que si realizar una operación elemental en las columnas de A corresponde a multi-
plicar por la derecha a A con una cierta matriz elemental E, entonces realizar la misma operación elemental
en las filas de A corresponde a multiplicar por la izquierda a A con E t .
Nuestro objetivo es obtener una forma diagonal para la matriz asociada a la forma bilineal simétrica
ϕ ∈ BilS (V ), lo cual corresponde a hallar una base ϕ-ortogonal de V .

Mostraremos el método mediante un ejemplo. Consideremos ϕ ∈ BilS (R3 ) definida en el Ejemplo 4.4.2.
Primero sumamos a la tercer columna de A = MC (ϕ) la segunda multiplicada por −1 y luego sumamos a la
tercer fila la segunda multiplicada por −1.
     
−7 4 1 −7 4 −3 −7 4 −3
 4 −2 −2 ⇒  4 −2 0  ⇒  4 −2 0  . (4.4)
1 −2 7 1 −2 9 −3 0 9
Ahora le sumamos a la primer columna la segunda multiplicada por 2 y luego sumamos a la primer fila la
segunda multiplicada por 2.
     
−7 4 −3 1 4 −3 1 0 −3
 4 −2 0  ⇒  0 −2 0  ⇒  0 −2 0  . (4.5)
−3 0 9 −3 0 9 −3 0 9
Finalmente le sumamos a la tercer columna la primera multiplicada por 3 y luego sumamos a la tercer fila
la primera multiplicada por 3.
     
1 0 −3 1 0 0 1 0 0
 0 −2 0  ⇒  0 −2 0 ⇒ 0 −2 0 = D. (4.6)
−3 0 9 −3 0 0 0 0 0
Observar que la matriz obtenida en (4.4) corresponde a calcular E1t A E1 siendo
 
1 0 0
E1 = 0 1 −1 .
0 0 1
La matriz obtenida en (4.5) corresponde a calcular E2t E1t A E1 E2 , siendo
 
1 0 0
E2 = 2 1 0 .
0 0 1
Finalmente la matriz obtenida en (4.6) corresponde a calcular E3t E2t E1t A E1 E2 E3 , siendo
 
1 0 3
E3 = 0 1 0 .
0 0 1
Luego es D = Qt A Q, siendo  
1 0 3
Q = E1 E2 E3 = 2 1 5 .
0 0 1
Esto nos dice que si
B = {(1, 2, 0), (0, 1, 0), (3, 5, 1)}
entonces MB (ϕ) = D y B es una base ϕ-ortogonal de R3 .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 74

Un método para obtener la matriz Q es el siguiente, escribimos a la izquierda la matriz A y a la


derecha la matriz identidad I, luego realizamos operaciones elementales en A y cada vez que hacemos una
operación elemental en las colummnas de A, también la hacemos en las columnas de I, pero cuando hacemos
operaciones elementales en las filas de A no hacemos nada en la matriz I. Al finalizar el algoritmo, cuando
en la izquierda obtenemos la matriz diagonal D, en la derecha está la matriz de congruencia Q. Veamos esto
en el ejemplo anterior:
   
−7 4 1 1 0 0 −7 4 −3 1 0 0
 4 −2 −2 0 1 0  ⇒  4 −2 0 0 1 −1  ⇒

1 −2 7 0 0 1 1 −2 9 0 0 1
   
−7 4 −3 1 0 0 1 4 −3 1 0 0
 4 −2 0 0 1 −1  ⇒  0 −2 0 2 1 −1  ⇒

−3 0 9 0 0 1 −3 0 9 0 0 1
   
1 0 −3 1 0 0 1 0 0 1 0 3
 0 −2 0 2 1 −1  ⇒  0 −2 0 2 1 5  ⇒

−3 0 9 0 0 1 −3 0 0 0 0 1
     
1 0 0 1 0 3 1 0 0 1 0 3
 0 −2 0 2 1 5  , luego D =  0 −2 0  , Q =  2 1 5  .

0 0 0 0 0 1 0 0 0 0 0 1

4.5. Formas bilineales simétricas reales


En esta sección el cuerpo de base k es R y V es un R-espacio vectorial de dimensión finita.

Definición 4.5.1. Sean ϕ ∈ BilS (V ) y Φ la forma cuadrática asociada a ϕ.

1. Φ es definida positiva si Φ(v) > 0, ∀v 6= 0.

2. Φ es definida negativa si Φ(v) < 0, ∀v 6= 0.

3. Φ es definida si es definida positiva o es definida negativa.

4. Φ es semidefinida positiva si Φ(v) ≥ 0, ∀v ∈ V y existe 0 6= v0 ∈ V tal que Φ (v0 ) = 0.

5. Φ es semidefinida negativa si Φ(v) ≤ 0, ∀v ∈ V y existe 0 6= v0 ∈ V tal que Φ (v0 ) = 0.

6. Φ es semidefinida si es semidefinida positiva o es semidefinida negativa.

7. Φ es no definida si existen v1 y v2 en V tales que Φ(v1 ) > 0 y Φ(v2 ) < 0.

8. Φ es no degenerada si lo es ϕ, es decir si

ϕ(u, v) = 0, ∀v ∈ V ⇒ u = 0.

Decimos que una forma bilineal simétrica verifica una propiedad de las anteriores si la verifica su forma
cuadrática asociada, por ejemplo decimos que ϕ es definida positiva si lo es Φ, etcétera.

Observación 4.5.1. Φ es definida positiva si y sólo si ϕ es un producto interno en V .


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 75

Teorema 4.5.1. Si ϕ ∈ BilS (V ) y Φ es la forma cuadrática asociada a ϕ, entonces existen subespacios V+


y V− de V tales que
1. Φ es definida positiva en V+ y Φ es definida negativa en V− .

2. V+ y V− son ϕ-ortogonales.

3. V = V0 ⊕ V+ ⊕ V− .
Dem. Sea B = {v1 , . . . , vn } una base ϕ-ortogonal de V . Podemos suponer B ordenada de forma tal que

Φ(vi ) = ai , ∀i = 1, . . . , p
Φ(vi ) = −ai , ∀i = p + 1, . . . , r
Φ(vi ) = 0, ∀i = r + 1, . . . , n.

siendo ai > 0, ∀i = 1, . . . , r. Es decir que la matriz asociada a ϕ es


 
a1
 .. 
 . 
 
 ap 
 
 −ap+1 
 
 .. 
MB (ϕ) =  . 
 
 −ar 
 
 0 
 
 .. 
 . 
0

Sabemos que V0 = [vr+1 , . . . , vn ]. Sean

V+ = [v1 , . . . , vp ], V− = [vp+1 , . . . , vr ].

Es claro que V = V0 ⊕ V+ ⊕ V− . Además como B es una base ϕ-ortogonal, sus vectores Pnson ϕ-ortogonales
dos a dos, luego V+ y V− son ϕ-ortogonales. Por otro lado observemos que si v = i=1 xi vi ∈ V , con
x1 , . . . , xn ∈ R, es
 
n
X n
X n
X n
X Xn
Φ(v) = ϕ(v, v) = ϕ  xi vi , xj vj  = xi xj ϕ (vi , vj ) = x2i ϕ (vi , vi ) = x2i Φ (vi )
i=1 j=1 i,j=1 i=1 i=1
p
X r
X
= ai x2i − ai x2i .
i=1 i=p+1
Pp
Sea 0 6= w ∈ V+ . Es w = i=1 yi vi , con y1 , . . . , yp ∈ R y algún yi 6= 0, luego
p
X
Φ(w) = ai yi2 > 0.
i=1

Esto prueba que Φ es definida positiva en V+ . Análogamente se prueba que Φ es definida negativa en V− .

Observación 4.5.2. En el teorema anterior, la dimensión de V+ es la cantidad de entradas diagonales positivas


de MB (ϕ) y la dimensión de V− es la cantidad de entradas diagonales negativas de MB (ϕ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 76

Ejemplo 4.5.1. Sea ϕ ∈ BilS (V ), V = R2 , tal que Φ(x, y) = x2 − y 2 , x, y ∈ R. Es fácil de probar que el
rango de ϕ es 2, luego ϕ es no degenerada y V0 = {0}. Observar que las bases

C = {(1, 0), (0, 1)} y B = {(2, 1), (1, 2)} .

son ϕ-ortogonales. Esto da lugar a dos descomposiciones del tipo V = V+ ⊕ V− :

R2 = [(1, 0)] ⊕ [(0, 1)] y R2 = [(2, 1), (1, 2)] .

Luego no hay unicidad respecto a los subespacios V+ y V− .

Definición 4.5.2. Sea ϕ ∈ BilS (V ). Decimos que dos subespacios V+ y V− forman una ϕ-descomposición
de V si verifican

1. Φ es definida positiva en V+ y Φ es definida negativa en V− .

2. V+ y V− son ϕ-ortogonales.

3. V = V0 ⊕ V+ ⊕ V− .

El teorema anterior nos prueba que siempre existe una ϕ-descomposición de V .

Observación 4.5.3. Sea V = V0 ⊕ V+ ⊕ V− una ϕ-descomposición de V , entonces:

1. Φ es definida positiva en V+ y es definida negativa en V− .

2. Si V0 6= {0}, entonces Φ es semidefinida positiva en V0 ⊕ V+ y Φ es semidefinida negativa en V0 ⊕ V− .

3. Φ es definida positiva si y sólo si V− = V0 = {0}.

4. Φ es definida negativa si y sólo si V+ = V0 = {0}.

5. Φ es semidefinida positiva si y sólo si V− = {0} y V0 6= {0}.

6. Φ es semidefinida negativa si y sólo si V+ = {0} y V0 6= {0}.

7. Φ es no definida si y sólo si V− 6= {0} y V+ 6= {0}.

8. Φ es no degenerada si y sólo si V0 = {0}.

En particular lo anterior implica que si Φ es semidefinida entonces degenera.

Ejercicio 4.5.1. Interpretar la observación anterior en términos de las entradas diagonales de una repre-
sentación matricial diagonal de ϕ.

Teorema 4.5.2. Sean V = V0 ⊕ V+ ⊕ V− y V = V0 ⊕ W+ ⊕ W− dos ϕ-descomposiciones de V , es decir

1. Φ es definida positiva en V+ y Φ es definida negativa en V− .

2. V+ y V− son ϕ-ortogonales.

3. Φ es definida positiva en W+ y Φ es definida negativa en W− .

4. W+ y W− son ϕ-ortogonales.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 77

Entonces dim V+ = dim W+ y dim V− = dim W− .


Dem. Sea v ∈ W− ∩ (V+ ⊕ V0 ). Como v ∈ V+ ⊕ V0 , entonces existen únicos v0 ∈ V0 y v+ ∈ V+ tales que
v = v+ + v0 . Luego

Φ(v) = Φ (v+ + v0 ) = Φ (v+ ) + 2 ϕ (v+ , v0 ) + Φ (v0 ) = Φ (v+ ) ≥ 0.

Por otro lado, como v ∈ W− , si fuese v 6= 0 serı́a Φ(v) < 0 lo cual nos lleva a una contradicción. Entonces
la única posibilidad es v = 0 y resulta W− ∩ (V+ ⊕ V0 ) = {0}. Como es

V0 ⊕ V+ ⊕ V− = V ⊃ W− + (V+ ⊕ V0 ) = W− ⊕ (V+ ⊕ V0 ) ,

deducimos
dim V0 + dim V+ + dim V− ≥ dim W− + dim V+ + dim V0 .
Luego es dim V− ≥ dim W− . Razonando análogamente con V− ∩(W+ ⊕ V0 ) deducimos que dim W− ≥ dim V−
y resulta dim V− = dim W− . Finalmente tomando dimensiones en V = V0 ⊕ V+ ⊕ V− y V = V0 ⊕ W+ ⊕ W−
deducimos que dim V+ = dim W+ .

Del teorema anterior y la Observación 4.5.2 se deduce inmediatamente el siguiente.

Corolario 4.5.3 (Ley de inercia de Sylvester). El número de entradas positivas, negativas y nulas de una
matriz diagonal asociada a una forma cuadrática no depende de la representación diagonal.

Definición 4.5.3. Sean V = V0 ⊕ V+ ⊕ V− una ϕ-descomposición de V . Llamamos ı́ndice de Φ a dim V+


y signatura de Φ a dim V+ − dim V− . Por el teorema anterior esta definición no depende de V+ y V− . La
signatura, el ı́ndice y el rango son los invariantes de Φ.

Observación 4.5.4. Consideremos ϕ ∈ BilS (V ) siendo dim V = n y B una base ϕ-ortogonal de V . Sean s
la signatura de ϕ, r el rango de ϕ, p el número de entradas positivas de MB (ϕ), q el número de entradas
negativas de MB (ϕ) y t el número de entradas nulas de MB (ϕ). Entonces el ı́ndice de Φ es p y tenemos las
siguientes relaciones

s = p − q, r =p+q
1 1
p = (r + s), q = (r − s), t = n − r.
2 2
En particular es 2p = r + s, luego los tres invariantes quedan determinados conociendo dos de ellos.

Proposición 4.5.4. Si ϕ ∈ BilS (V ), entonces existe una base ϕ-ortonormal de V .


Dem. Sea B = {v1 , . . . , vn } una base ϕ-ortogonal de V . Podemos suponer B ordenada de forma tal que

Φ(vi ) = 0, ∀i = 1, . . . , s
Φ(vi ) > 0, ∀i = s + 1, . . . , p
Φ(vi ) < 0, ∀i = p + 1, . . . , n.

Observar que podemos escribir

Φ(vi ) = a2i , ∀i = s + 1, . . . , p
Φ(vi ) = −b2i , ∀i = p + 1, . . . , n.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 78

siendo ai > 0, ∀i = s + 1, . . . , p y bi > 0, ∀i = p + 1, . . . , n. Definimos

wi = vi , ∀i = 1, . . . , s
1
wi = vi , ∀i = s + 1, . . . , p
ai
1
wi = vi , ∀i = p + 1, . . . , n.
bi

La base C = {w1 , . . . , wn } es claramente ϕ-ortogonal y


 
1 1
Φ(wi ) = Φ vi = 2 Φ (vi ) = 1, ∀i = s + 1, . . . , p
ai ai
 
1 1
Φ(wi ) = Φ vi = 2 Φ (vi ) = −1, ∀i = p + 1, . . . , n.
bi bi

Luego C es una base ϕ-ortonormal de V .

Ejemplo 4.5.2. Sea ϕ ∈ BilS (V ), V = R2 , tal que Φ(x,n y) = x2 −y 2, x, y ∈ o


R. En el ejemplo 4.5.1 vimos
2 1 1 2
que {(2, 1), (1, 2)} es una base ϕ-ortogonal de R2 , luego √ ,√
3 3
, √3 , √3 es una base ϕ-ortonormal
de R2 (otra base ϕ-ortonormal es la canónica).

Proposición 4.5.5 (Ley de inercia de Sylvester para matrices). Si A es una matriz simétrica real, entonces
el número de entradas positivas, negativas y nulas de una matriz diagonal congruente con A es independiente
de la matriz diagonal.

Dem. Sea ϕ ∈ BilS (Rn ) definida por ϕ(u, v) = ut A v. Si D es una matriz diagonal congruente con A,
entonces existe B base de Rn tal que MB (ϕ) = D. Luego la Ley de inercia de Sylvester nos dice que el
número de entradas positivas, negativas y nulas de D depende solo de ϕ (por lo tanto de A) y no de D.

Definición 4.5.4. Sea A ∈ Mn (R) simétrica y D una matriz diagonal congruente con A. Definimos el ı́ndice
de A como el número de entradas diagonales positivas de D y la signatura de A como la diferencia entre el
número de entradas diagonales positivas y el de entradas diagonales negativas de D. La Ley de Inercia de
Sylvester para matrices nos garantiza que esta definición no depende de la matriz diagonal D.
Observar que el ı́ndice y la signatura de A coinciden con el ı́ndice y la signatura de ϕA ∈ BilS (Rn )
definida por ϕA (u, v) = ut A v. La signatura, el ı́ndice y el rango son los invariantes de la matriz simétrica
A.

Observación 4.5.5. De la Ley de Inercia de Sylvester para matrices se deduce inmediatamente que si dos
matrices simétricas son congruentes, entonces tienen los mismos invariantes.

Teorema 4.5.6. Si A es una matriz simétrica real, entonces A es congruente con una única matriz diagonal
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 79

D de la forma  
1
 .. 
 . 
 
 1 
 
 −1 
 
 .. 
D= . . (4.7)
 
 −1 
 
 0 
 
 .. 
 . 
0

Dem. Sea ϕA ∈ BilS (Rn ) definida por ϕA (u, v) = ut A v. Por la Proposición 4.5.4 sabemos que existe
B base ϕA -ortonormal de Rn . Si D = MB (ϕA ), entonces podemos considerar B ordenada de forma tal que
D tiene la forma (4.7). Si C es la base canónica de Rn , entonces es A = MC (ϕA ) y D = Qt A Q, siendo
Q = C [id ]B . Esto prueba la existencia de la matriz D.

Para probar la unicidad, si la matriz A es congruente con D y con D̂, siendo D y D̂ matrices diagonales
de la forma (4.7), entonces D y D̂ son congruentes entre sı́ y luego tienen los mismos invariantes. Como el
ı́ndice de una matriz de esta forma es la cantidad de entradas diagonales que valen 1 y la signatura es la
diferencia entre la cantidad de entradas diagonales que valen 1 y la de entradas diagonales que valen −1,
resulta que D y D̂ tienen la misma cantidad de entradas diagonales que valen 1 y la misma cantidad de
entradas diagonales que valen −1, luego D = D̂.

Corolario 4.5.7. Dos matrices simétricas reales son congruentes si y sólo si tienen los mismos invariantes.

Dem. Ya sabemos que si dos matrices simétricas reales son congruentes, entonces tienen los mismos
invariantes. Para probar el recı́proco, si A y B son matrices simétricas, entonces sabemos que A es congruente
con una única matriz diagonal DA de forma (4.7) y B es congruente con una única matriz diagonal DB
de forma (4.7). Como la cantidad de entradas diagonales que valen 1 y la cantidad de entradas diagonales
que valen −1 en DA y DB depende solo de los invariantes de A y de B respectivamente y estos coinciden,
entonces DA = DB . Luego A y B son congruentes entre sı́.

Teorema 4.5.8. Sea ϕ ∈ BilS (V ), siendo V un espacio vectorial real con producto interno de dimensión
finita. Entonces existe una base ortonormal B de V tal que MB (ϕ) es diagonal.

Dem. Sea C = {w1 , . . . , wn } una base ortonormal cualquiera de V y A = MC (ϕ). La matriz A es simétrica
real, luego existen matrices D y Q = (qij ) en Mn (R) tales que D es diagonal, Q es ortogonal y

D = Q−1 A Q = Qt A Q.
P
Sea B = {v1 , . . . , vn } el conjunto definido por vj = ni=1 qij wi , j = 1, . . . , n. Como la matriz Q es ortogonal
y la base C es ortonormal, entonces el conjunto B es una base ortonormal de V y Q = C [id ]B . Luego

D = Qt A Q = (C [id ]B )t MC (ϕ) C [id ]B = MB (ϕ).


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 80

Corolario 4.5.9. Sea ϕ ∈ BilS (V ), B una base de V y A = MB (ϕ). Entonces la cantidad de entradas
diagonales positivas, negativas y nulas de una representación matricial diagonal cualquiera de ϕ coincide
respectivamente con la cantidad de valores propios positivos, negativos y nulos de A.

Dem. Por la Ley de Inercia de Sylvester, basta probar que se cumple el enunciado para alguna repre-
sentación matricial diagonal de ϕ.

Sea h , i el único producto interno de V que hace que B sea una base ortonormal de V . Aplicando el
teorema anterior sabemos que existe una base ortonormal B̃ de V tal que D = MB̃ (ϕ) es diagonal. Luego es

A = MB (ϕ) = Qt MB̃ (ϕ) Q = Qt D Q, Q = B̃ [id ]B .

Como B y B̃ son dos bases ortonormales, entonces Q = B̃ [id ]B es una matriz ortogonal i.e. Qt = Q−1 . Luego
A = Q−1 D Q y resulta que A y D tienen los mismos valores propios. Por otro lado, como D es una matriz
diagonal, tenemos que los valores propios de D coinciden con sus entradas diagonales. Luego la cantidad de
entradas diagonales positivas, negativas y nulas de D es la cantidad de valores propios positivos, negativos
y nulos de D y estos coinciden con los de A.

4.6. Formas multilineales alternadas


Sea V un k-espacio vectorial y n un entero positivo. Una n-forma multilineal ω en V se dice alternada
si verifica:
ω (v1 , . . . , vi , . . . , vj , . . . , vn ) = 0 (4.8)
cada vez que existan i 6= j tales que vi = vj .

Observar que si ω es una n-forma alternada, entonces verifica:

ω (v1 , . . . , vi , . . . , vj , . . . , vn ) = −ω (v1 , . . . , vj , . . . , vi , . . . , vn ) , ∀i 6= j, v1 , . . . , vn ∈ V. (4.9)

En efecto, es

0 = ω(v1 , . . . , vi + vj , . . . , vi + vj , . . . , vn )
= ω (v1 , . . . , vi , . . . , vi , . . . , vn ) + ω (v1 , . . . , vi , . . . , vj , . . . , vn ) + ω (v1 , . . . , vj , . . . , vi , . . . , vn )
+ω (v1 , . . . , vj , . . . , vj , . . . , vn )
= 0 + ω (v1 , . . . , vi , . . . , vj , . . . , vn ) + ω (v1 , . . . , vj , . . . , vi , . . . , vn ) + 0
= ω (v1 , . . . , vi , . . . , vj , . . . , vn ) + ω (v1 , . . . , vj , . . . , vi , . . . , vn ) ,

luego ω (v1 , . . . , vi , . . . , vj , . . . , vn ) = −ω (v1 , . . . , vj , . . . , vi , . . . , vn ).

Recı́procamente, si car k 6= 2 y ω es una n-forma multilineal que verifica (4.9) entonces verifica (4.8):

Sean v1 , . . . , vi , . . . , vj , . . . , vn ∈ V con vi = vj e i 6= j. Utilizando (4.9) y que vi = vj obtenemos:

ω (v1 , . . . , vi , . . . , vj , . . . , vn ) = −ω (v1 , . . . , vj , . . . , vi , . . . , vn ) = −ω (v1 , . . . , vi , . . . , vj , . . . , vn ) .

Luego 2 ω (v1 , . . . , vi , . . . , vj , . . . , vn ) = 0 y como car k 6= 2 es ω (v1 , . . . , vi , . . . , vj , . . . , vn ) = 0.

Observar que lo anterior prueba que (4.8) y (4.9) son equivalentes si car k 6= 2.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 81

Escribiremos

Altk (V ) = {ω : V
| × ·{z
· · × V} → k : ω es una k-forma multilineal alternada}, k = 1, 2, . . .
k

Es un ejercicio verificar que Altk (V ) es un subespacio del espacio de las k-formas multilineales en V , luego
Altk (V ) es un espacio vectorial. Observar que Alt1 (V ) = V ∗ . Definimos Alt0 (V ) := k.

Ejemplo 4.6.1. Si V = R3 , definimos ω ∈ Alt2 (V ) mediante ω ((x, y, z), (x′ , y ′ , z ′ )) = x y ′ − y x′ + 2 y z ′ −


2 y ′ z. Observar que podemos reescribir ω mediante:
 
ω (x, y, z), x′ , y ′ , z ′ = x y ′ − y x′ + 2 y z ′ − 2 y ′ z = x y ′ + y −x′ + 2 z ′ − 2 y ′ z
    ′ 
y′ 0 1 0 x
= (x, y, z)  ′
−x + 2 z ′  = (x, y, z)  −1 0 2   y′  . (4.10)
−2 y ′ 0 −2 0 z′

De esta forma es fácil probar que ω es una 2-forma alternada en R3 . Observar que la matriz en la igualdad
(4.10) es antisimétrica, es decir verifica At = −A.

Ejemplo 4.6.2. Si V = Rn , definimos ω ∈ Altn (V ) mediante la función determinante:



x11 · · · x1n

.. .
ω ((x11 , . . . , xn1 ) , . . . , (x1n , . . . , xnn )) = ... .

xn1 · · · xnn

De ahora en adelante supondremos que V es un espacio vectorial de dimensión finita n.

Proposición 4.6.1. Altk (V ) = {0} para todo k > n.

Dem. Consideremos {eP 1 , . . . , en } una base de P


V y sea ω ∈ Altk (V ).
Sean v1 , . . . , vk ∈ V , v1 = nj1 =1 aj1 ej1 , . . . , vk = njk =1 ajk ejk , luego
 
n
X n
X n
X
ω(v1 , . . . , vk ) = ω  aj1 ej1 , . . . , ajk ejk  = aj1 · · · ajk ω (ej1 , . . . , ejk ) .
j1 =1 jk =1 j1 =···=jk =1

Como k > n, en el conjunto ej1 , . . . , ejk necesariamente hay elementos repetidos, luego ω (ej1 , . . . , ejk ) = 0,
∀j1 , . . . , jk y ω(v1 , . . . , vk ) = 0. Como v1 , . . . , vk ∈ V son arbitrarios se deduce que ω = 0

Proposición 4.6.2. Supongamos que {e1 , . . . , en } es una base de V y ω ∈ Altk (V ), k ≤ n. Entonces ω = 0


si y sólo si

ω (ei1 , . . . , eik ) = 0, ∀i1 , . . . , ik ∈ {1, . . . , n} tales que 1 ≤ i1 < i2 < · · · < ik ≤ n. (4.11)

Dem. Es claro que ω = 0 implica (4.11).


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 82

Pn Pn
Supongamos que ω verifica (4.11). Sean v1 , . . . , vk ∈ V , v1 = j1 =1 aj1 ej1 , . . . , vk = jk =1 ajk ejk , luego
 
n
X n
X n
X
ω(v1 , . . . , vk ) = ω  aj1 ej1 , . . . , ajk ejk  = aj1 · · · ajk ω (ej1 , . . . , ejk ) . (4.12)
j1 =1 jk =1 j1 =···=jk =1

Observar que si existen p 6= q tales que ejp = ejq , entonces ω (ej1 , . . . , ejk ) = 0. Por otro lado, si ej1 , . . . , ejk son
distintos entre sı́, podemos reordenarlos para obtener un conjunto ei1 , . . . , eik con 1 ≤ i1 < i2 < · · · < ik ≤ n.
Notar que siempre podemos pasar de la k-upla (ej1 , . . . , ejk ) a la k-upla (ei1 , . . . , eik ) realizando una cantidad
finita de intercambios entre los elementos de (ej1 , . . . , ejk ), cada intercambio corresponde a un cambio de
signo en ω, de donde aplicando (4.11) obtenemos

ω (ej1 , . . . , ejk ) = ± ω (ei1 , . . . , eik ) = 0.

Luego todos los sumandos de (4.12) son nulos y ω(v1 , . . . , vk ) = 0. Como v1 , . . . , vk ∈ V son arbitrarios se
deduce que ω = 0.

Corolario 4.6.3. Supongamos que {e1 , . . . , en } es una base de V y ω, η ∈ Altk (V ), k ≤ n. Entonces ω = η


si y sólo si

ω (ei1 , . . . , eik ) = η (ei1 , . . . , eik ) , ∀i1 , . . . , ik ∈ {1, . . . , n} tales que 1 ≤ i1 < i2 < · · · < ik ≤ n.

Dem. Aplicar la proposición anterior a ω − η ∈ Altk (V ).

Observación 4.6.1. Llamaremos Sn al conjunto de permutaciones de n elementos. Es decir que Sn es el


conjunto de biyecciones del conjunto {1, 2, . . . , n} en sı́ mismo. Si σ ∈ Sn , llamaremos sg(σ) al signo de σ.
 
1 2 3 4
Recordemos cómo se calcula el signo de una permutación. Por ejemplo, si σ = , entonces
3 1 4 2
en la cuaterna (3, 1, 4, 2) tenemos:

el 3 está en inversión con el 1 y el 2,

El 1 no esta en inversión con ninguno,

el 4 está en inversión con el 2,

luego el número total de inversiones es 2 + 0 + 1 = 3 y por lo tanto sg(σ) = (−1)3 = −1.

Sea ω ∈ Altk (V ). Consideremos i, j ∈ {1, . . . , k}, i 6= j y definimos τ ∈ Sk como la trasposición que


intercambia i con j, entonces la condición de que ω sea alternada se refleja en

ω vτ (1) , . . . , vτ (k) = −ω (v1 , . . . , vk ) , ∀v1 , . . . , vk ∈ V.

De hecho este resultado se generaliza al siguiente (omitimos la prueba):

Proposición 4.6.4. Sea ω ∈ Altk (V ) y σ ∈ Sk , entonces



ω vσ(1) , . . . , vσ(k) = sg(σ) ω (v1 , . . . , vk ) , ∀v1 , . . . , vk ∈ V.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 83

Definición 4.6.1. Si α1 , . . . , αk ∈ V ∗ , definimos α1 ∧ · · · ∧ αk : V


| × ·{z
· · × V} → k mediante
k

α1 (v1 ) · · · α1 (vk )

.. ..
(α1 ∧ · · · ∧ αk ) (v1 , . . . , vk ) = . . , ∀v1 , . . . , vv ∈ V.

αk (v1 ) · · · αk (vk )

Claramente α1 ∧ · · · ∧ αk ∈ Altk (V ), α1 , . . . , αk ∈ V ∗ .

Ejemplo 4.6.3. Si α, β ∈ V ∗ es α ∧ β ∈ Alt2 (V ) y



α(u) α(v)

(α ∧ β) (u, v) = = α(u) β(v) − α(v) β(u), ∀u, v ∈ V.
β(u) β(v)

Consideremos V = R3 , {e1 , e2 , e3 } la base canónica y {e∗1 , e∗2 , e∗3 } la base dual en V ∗ , es decir

e∗1 (x, y, z) = x, e∗2 (x, y, z) = y, e∗3 (x, y, z) = z.

Entonces

 x x′
(e∗1∧ (x, y, z), x , y , z =
e∗2 ) ′ ′ ′
= x y ′ − y x′ ,
y y′

 x x′
(e1 ∧ e3 ) (x, y, z), x , y , z =
∗ ∗ ′ ′ ′
= x z ′ − z x′ ,
z z′

 y y ′
(e2 ∧ e3 ) (x, y, z), x , y , z =
∗ ∗ ′ ′ ′
= y z′ − z y′,
z z′

Observar que si ω es la 2-forma del ejemplo 4.6.1, entonces ω = e∗1 ∧ e∗2 + 2 e∗2 ∧ e∗3 .

Ejemplo 4.6.4. Si α, β, γ ∈ V ∗ es α ∧ β ∧ γ ∈ Alt3 (V ) y



α(u) α(v) α(w)

(α ∧ β ∧ γ) (u, v, w) = β(u) β(v) β(w)
γ(u) γ(v) γ(w)

Si consideramos de nuevo V = R3 , {e1 , e2 , e3 } la base canónica y {e∗1 , e∗2 , e∗3 } la base dual en V ∗ , entonces

x x′ x′′
 
∗ ∗ ∗ ′ ′ ′ ′′ ′′ ′′
(e1 ∧ e2 ∧ e3 ) (x, y, z), x , y , z , x , y , z = y y ′ y ′′ .
z z′ z ′′

La prueba de las siguientes propiedades es simple y queda como ejercicio.

1. α ∧ α = 0 y α ∧ β = −β ∧ α, ∀α, β ∈ V ∗ .

2. Si existen i 6= j tales que αi = αj , entonces α1 ∧ · · · ∧ αi ∧ · · · ∧ αj ∧ · · · ∧ αk = 0.

3. ασ(1) ∧ · · · ∧ ασ(k) = sg(σ) α1 ∧ · · · ∧ αk , ∀σ ∈ Sk ; en particular

α1 ∧ · · · ∧ αi ∧ · · · ∧ αj ∧ · · · ∧ αk = −α1 ∧ · · · ∧ αj ∧ · · · ∧ αi ∧ · · · ∧ αk .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 84

Teorema 4.6.5. Sea {e1 , . . . , en } una base de V y {e∗1 , . . . , e∗n } la base dual en V ∗ , entonces

B = e∗i1 ∧ · · · ∧ e∗ik : 1 ≤ i1 < · · · < ik ≤ n

es una base de Altk (V ), para todo k = 1, . . . , n.

Dem. Sea k ∈ {1, . . . , n} y ω ∈ Altk (V ). Probaremos que ω se escribe en forma única como combinación
lineal de B, es decir que existen únicos ai1 ,...,ik ∈ k, 1 ≤ i1 < · · · < ik ≤ n tales que
X
ω= ai1 ,...,ik e∗i1 ∧ · · · ∧ e∗ik .
1≤i1 <···<ik ≤n

Observar que aplicando el Corolario 4.6.3, obtenemos que se verifica esta última igualdad si y sólo si
X 
ω (j1 , . . . , jk ) = ai1 ,...,ik e∗i1 ∧ · · · ∧ e∗ik (ej1 , . . . , ejk ) , (4.13)
1≤i1 <···<ik ≤n

para todo j1 , . . . , jk ∈ {1, . . . , n} con 1 ≤ j1 < · · · < jk ≤ n.

Calculando tenemos dos casos posibles:



e (ej1 ) · · · e∗i1 (ejk ) 
 i1
∗ ∗ .. .. (A) si ∃l : jl 6∈ {i1 , . . . , ik },
ei1 ∧ · · · ∧ eik (ej1 , . . . , ejk ) = = (4.14)
∗ . . (B) si {j1 , . . . , jk } = {i1 , . . . , ik }.
e (ej1 ) · · · e∗ik (ejk )
ik

En el caso (A), es e∗i1 (ejl ) = · · · = e∗ik (ejl ) = 0, luego en el determinante de la ecuación (4.14) la columna

l-ésima es nula y resulta e∗i1 ∧ · · · ∧ e∗ik (ej1 , . . . , ejk ) = 0.

En el caso (B) es {j1 , . . . , jk } = {i1 , . . . , ik } siendo 1 ≤ j1 < · · · < jk ≤ n y 1 ≤ i1 < · · · < ik ≤ n, luego
necesariamente es i1 = j1 , . . . , ik = jk y

1 0 ··· 0

  0 1 ··· 0
∗ ∗ ∗ ∗
ei1 ∧ · · · ∧ eik (ej1 , . . . , ejk ) = ei1 ∧ · · · ∧ eik (ei1 , . . . , eik ) = . . . .. = 1.
.. .. .. .

0 0 ··· 1

Entonces en la suma de la ecuación


 (4.13) el único término no nulo corresponde al caso i1 = j1 , . . . , ik = jk
∗ ∗
y en ese caso es ei1 ∧ · · · ∧ eik (ei1 , . . . , eik ) = 1, luego la ecuación (4.13) equivale a

ω (j1 , . . . , jk ) = aj1 ,...,jk , ∀j1 , . . . , jk ∈ {1, . . . , n}, 1 ≤ j1 < · · · < jk ≤ n

Esto concluye la prueba de que B es base de Altk (V ), además obtuvimos cómo representar una k-forma ω
en términos de esta base: X
ω= ω (ei1 , . . . , eik ) e∗i1 ∧ · · · ∧ e∗ik .
1≤i1 <···<ik ≤n

n
 n!
Recordemos el sı́mbolo combinatorio k = (n−k)!k! que está definido para todo n, k ∈ N, n ≥ k.

n

Corolario 4.6.6. Si dim V = n y k ≤ n, entonces dim Altk (V ) = k .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 85

Ejemplo 4.6.5. Supongamos que dim V = 3 y sea {e1 , e2 , e3 } una base de V , entonces Altk (V ) = {0}, ∀k ≥
4y
 
3
{1} es una base de Alt0 (V ) = k, dim Alt0 (V ) = = 1,
0
 
∗ ∗ ∗ ∗ 3
{e1 , e2 , e3 } es una base de Alt1 (V ) = V , dim Alt1 (V ) = = 3,
1
 
∗ ∗ ∗ ∗ ∗ ∗ 3
{e1 ∧ e2 , e1 ∧ e3 , e2 ∧ e3 } es una base de Alt2 (V ), dim Alt2 (V ) = = 3,
2
 
3
{e∗1 ∧ e∗2 ∧ e∗3 } es una base de Alt3 (V ), dim Alt3 (V ) = = 1.
3

En el caso de V = R3 estas bases fueron halladas explı́citamente en los ejemplos 4.6.3 y 4.6.4.


Ejemplo 4.6.6. Si V = kn y {e1 , . . . , en } es la base canónica de kn , entonces dim Altn (V ) = nn = 1 y
{e∗1 ∧ · · · ∧ e∗n } es una base de Altn (V ).

e (x11 , . . . , xn1 ) · · · e∗ (x1n , . . . , xnn )
1 1
.. .. ..
(e∗1 ∧ · · · ∧ e∗n ) ((x11 , . . . , xn1 ) , . . . , (x1n , . . . , xnn )) = . . .

en (x11 , . . . , xn1 ) · · · e∗n (x1n , . . . , xnn )

x11 · · · x1n

.. .
= ... ..
. .

xn1 · · · xnn

Luego e∗1 ∧ · · · ∧ e∗n = det (el determinante) y {det} es una base de Altn (V ).
Capı́tulo 5

Apéndices

5.1. Apéndice A: Acción de k[x] en L(V )


Presentamos la acción de k[x] en L(V ) y sus propiedades generales, lo que permite entender formalmente
la expresión p(T ) (el polinomio p “evaluado” en T ).

Sea T ∈ L(V ). Si p = an xn + an−1 xn−1 + · · · + a1 x + a0 ∈ k[x], definimos

p(T ) := an T n + an−1 T n−1 + · · · + a1 T + a0 id ∈ L(V ),


Pn
siendo T n = T · · ◦ T}, n = 1, 2, . . .. Si definimos T 0 = id , podemos escribir p(T ) =
| ◦ ·{z i=0 ai T i siendo
P n
p = ni=0 ai xi .
Pn Pn
Si A ∈ Mn (k) y p = i=0 ai xi , definimos p(A) := i=0 ai Ai .

Observación 5.1.1. Si consideramos el polinomio constante 1 ∈ k[x], resulta 1(T ) = id y 1(A) = I para todo
T ∈ L(V ), A ∈ Mn (k).

Proposición 5.1.1. Sea T ∈ L(V ) y B una base de V . Entonces

[p(T )]B = p ([T ]B ) , ∀p ∈ k[x].


P Pn  Pn
Dem. Si p = ni=0 ai xi , es [p(T )]B = i
i=0 ai T B =
i
i=0 ai ([T ]B ) = p ([T ]B ) .

Corolario 5.1.2. Si A ∈ Mn (k), es p (LA ) = Lp(A) ∈ L(kn ) para todo p ∈ k[x].

Dem. Si B es la base canónica de kn , es A = [LA ]B . Aplicando la proposición anterior obtenemos


[p (LA )]B = p(A). Luego p (LA ) = Lp(A) .


Ejemplo 5.1.1. Sea T ∈ L R2 definida por T (x, y) = (x, 2x+y) y consideremos p = x3 +x2 −x+2 ∈ R[x].
   
1 0 3 2 3 0
Es T = LA , siendo A = . Luego p(A) = A + A − A + 2I = y p(T )(x, y) = (3x, 8x + 3y),
2 1 8 3
∀(x, y) ∈ R2 .

86
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 87

Proposición 5.1.3. Sean φ ∈ L(V ), A ∈ Mn (k), λ ∈ k y p, q ∈ k[x]. Vale:

1. (λ p + q)(A) = λ p(A) + q(A), (p q)(A) = p(A) q(A).

2. (λ p + q)(T ) = λ p(T ) + q(T ), (p q)(T ) = p(T ) ◦ q(T ).


P P
Dem. Podemos suponer p = ni=0 ai xi y q = ni=0 bi xi en que puede ser an = 0 o bn = 0.
Pn
Es p + λ q = i=0 (ai + λ bi ) xi , luego
n
X n
X n
X
i i
(p + λ q)(A) = (ai + λ bi ) A = ai A + λ bi Ai = p(A) + λ q(A).
i=0 i=0 i=0

Es p q = an bn x2n + (an−1 b1 + a1 bn−1 ) x2n−1 + · · · + (a1 b0 + a0 b1 ) x + a0 b0 , luego

(p q)(A) = an bn A2n + (an−1 b1 + a1 bn−1 ) A2n−1 + · · · + (a1 b0 + a0 b1 ) A + a0 b0 I


n
! n !
X X
i i
= ai A bi A = p(A) q(A).
i=0 i=0

Sea B una base de V . Aplicando la proposición anterior obtenemos:

[(λ p + q)(T )]B = (λ p + q) ([T ]B ) = λ p ([T ]B ) + q ([T ]B ) = λ [p(T )]B + [q(T )]B = [λ p(T ) + q(T )]B ,

luego (λ p + q)(T ) = λ p(T ) + q(T ). La otra relación se prueba en forma análoga.

Corolario 5.1.4. Sean p, q ∈ k[x], A ∈ Mn (k) y T ∈ L(V ). Vale:

p(A) q(A) = q(A) p(A), p(T ) ◦ q(T ) = q(T ) ◦ p(T ).

Dem. Probaremos solo la primera relación ya que la otra se prueba igual.

p(A) q(A) = (p q)(A) = (q p)(A) = q(A) p(A).


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 88

5.2. Apéndice B: Las proyecciones de la descomposición espectral


Probamos en esta sección que si V es un k-espacio vectorial de dimensión finita y T ∈ L(V ) es un operador
diagonalizable, las proyecciones que aparecen en la descomposición espectral de T pueden expresarse como
polinomios en T . Usamos para esto algunos resultados generales sobre polinomios.

5.2.1. Algunos resultados útiles sobre polinomios


Definición 5.2.1. Sean c1 , . . . , ck elementos distintos de k, definimos p1 (x), . . . , pk (x) ∈ kk−1 [x] por
Y x − cj (x − c1 ) (x − ci−1 ) (x − ci+1 ) (x − ck )
pi (x) = = ··· ··· , ∀i = 1, . . . , k.
ci − cj (ci − c1 ) (ci − ci−1 ) (ci − ci+1 ) (ci − ck )
j6=i

Observar que estos polinomios verifican pi (cj ) = δij , ∀i, j = 1, . . . , k :


( )
Y cl − cj 0, l 6= i
pi (cl ) = = Q ci −cj = δil .
ci − cj
j6=i j6=i ci −cj = 1, l = i

Los polinomios p1 (x), . . . , pk (x) se llaman los polinomios de Lagrange asociados a c1 , . . . , ck .

Proposición 5.2.1. Sean c1 , . . . , ck elementos distintos de k y b1 , . . . , bk elementos de k. Entonces existe


un polinomio p(x) ∈ k[x] tal que p(ci ) = bi , ∀i = 1, . . . , k.
P
Dem. Sea p(x) = ki=1 bi pi (x), siendo p1 (x), . . . , pk (x) los polinomios de Lagrange asociados a c1 , . . . , ck .
P P
Luego p(cl ) = ki=1 bi pi (cl ) = ki=1 bi δil = bl , ∀l = 1, . . . , k.

5.2.2. El teorema
Recordar (ver capı́tulo 1, teorema 1.0.20) que si T ∈ L(V ) es diagonalizable, existen escalares distintos
λ1 , . . . , λh y operadores no nulos P1 , . . . , Ph únicos tales que

1. Pi2 = Pi , ∀i = 1, . . . , h (los operadores Pi son proyecciones).

2. Pi ◦ Pj = 0 si i 6= j.

3. id = P1 + · · · + Ph .

4. T = λ1 P1 + · · · + λh Ph .

Vamos a probar que para cada i, existe un polinomio pi ∈ k[x] tal que pi (T ) = Pi .
P
Observación 5.2.1. Es un ejercicio del práctico probar que si T = ki=1 λi Pi es la descomposición espectral
de un operador diagonalizable T y q(x) ∈ k[x], entonces
 
X k Xk
q  
λj Pj = q(λj ) Pj .
j=1 j=1
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 89

Pk
Proposición 5.2.2. Sea T ∈ L(V ) un operador diagonalizable y consideremos T = i=1 λi Pi la descom-
posición espectral de T . Entonces cada Pi es un polinomio en T .

Dem. Dado que λ1 , . . . , λk son escalares distintos, podemos considerar los polinomios de Lagrange
q1 (x), . . . , qk (x) asociados a λ1 , . . . , λk ; luego
 
Xk Xk k
X
qi (T ) = qi  
λj Pj = qi (λj ) Pj = δij Pj = Pi ⇒ Pi = qi (T ), ∀i = 1, . . . , k.
j=1 j=1 j=1

Ejemplo 5.2.1. Consideramos (este ejemplo ya fue citado en el capı́tulo 1) el operador


T ∈ L R3 definido por
T (x, y, z) = (4x + z, 2x + 3y + 2z, x + 4z).
Buscamos polinomios q1 y q2 tales que P1 = q1 (T ) y P2 = q2 (T ). Los valores propios de T son 3 y 5, luego
tenemos que encontrar los polinomios de Lagrange q1 y q2 asociados a 3 y 5:
x−5 1 5
q1 (x) = =− x+
3−5 2 2
x−3 1 3
q2 (x) = = x− .
5−3 2 2
Observar que q1 y q2 verifican
q1 (3) = 1, q2 (3) = 0,
q1 (5) = 0, q2 (5) = 1.
Luego
1 5
P1 = q1 (T ) = − T + id
2 2
1 3
P2 = q2 (T ) = T − id .
2 2
Queda como ejercicio verificar que P1 y P2 coinciden con los obtenidos en el ejemplo 1.0.16.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 90

5.3. Apéndice C: Divisibilidad en polinomios


Presentamos aquı́ algunos resultados de polinomios que permiten probar la proposición 2.3.4 del capı́tulo
2.

En los cursos de secundaria se prueba que si tenemos p(x) y q(x) en k[x] con q(x) no nulo y gr p(x) ≥
gr q(x), entonces mcd (p(x), q(x)) = mcd (q(x), r(x)), siendo r(x) el resto de dividir p(x) por q(x). Iterando
este proceso obtenemos el algoritmo de Euclides que permite obtener el máximo común divisor de dos
polinomios:

p(x) = q(x) d1 (x) + r1 (x), gr r1 (x) < gr q(x) 



q(x) = r1 (x) d2 (x) + r2 (x), gr r2 (x) < gr r1 (x) 



r1 (x) = r2 (x) d3 (x) + r3 (x), gr r3 (x) < gr r2 (x) 

r2 (x) = r3 (x) d4 (x) + r4 (x), gr r4 (x) < gr r3 (x) 1
⇒ mcd (p(x), q(x)) = rn (x). (5.1)
.. 
 a
. 



rn−2 (x) = rn−1 (x) dn (x) + rn (x), gr rn (x) < gr rn−1 (x)  


rn−1 (x) = rn (x) dn+1 (x), rn+1 (x) = 0

siendo a el coeficiente del término de mayor grado de rn (x).

Ejemplo 5.3.1. Sean x8 − x6 + 2x5 + 2x4 + 2x3 + 2x2 + x + 1 y x6 − x4 + 2 x3 + 2 x2 + x + 1 en R[x].

x8 − x6 + 2x5 + 2x4 + 2x3 + 2x2 + x + 1 = (x6 − x4 + 2 x3 + 2 x2 + x + 1)(x2 ) + x3 + x2 + x + 1


x6 − x4 + 2 x3 + 2 x2 + x + 1 = (x3 + x2 + x + 1)(x3 − x2 − x + 3) + x2 − x − 2
x3 + x2 + x + 1 = (x2 − x − 2)(x + 2) + 5x + 5
x2 − x − 2 = (5 x + 5)( 15 x − 52 )

luego mcd (x8 − x6 + 2x5 + 2x4 + 2x3 + 2x2 + x + 1, x6 − x4 + 2 x3 + 2 x2 + x + 1) = x + 1.

Proposición 5.3.1. Sean p(x) y q(x) en k[x] no simultáneamente nulos. Entonces existen a(x) y b(x) en
k[x] tales que
mcd (p(x), q(x)) = a(x) p(x) + b(x) q(x). (5.2)
1
Dem. Si q(x) = 0 entonces mcd (p(x), 0) = a p(x), siendo a el coeficiente del término de mayor grado de
p(x). Luego es a(x) = a1 y b(x) = 0.

Supongamos que tenemos p(x) y q(x) en k[x] no nulos con gr p(x) ≥ gr q(x). Consideremos el algoritmo
de Euclides (5.1). Probaremos por inducción que para todo l ∈ {1, 2, . . . , n} existen polinomios al (x) y bl (x)
tales que
rl (x) = al (x) p(x) + bl (x) q(x).
Luego la relación (5.2) se obtiene considerando el caso l = n y dividiendo por el coeficiente del término de
mayor grado de rn (x).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 91

Observar que de la primera ecuación de (5.1) deducimos r1 (x) = d(x) p(x) − q(x), si llamamos a1 (x) =
d(x) y b1 (x) = −1, es
r1 (x) = a1 (x) p(x) + b1 (x) q(x).
De la segunda ecuación de (5.1) obtenemos
r2 (x) = −d2 (x) r1 (x) + q(x) = −d2 (x) (a1 (x) p(x) + b1 (x) q(x)) + q(x)
= (−d2 (x) a1 (x)) p(x) + (1 − d2 (x) b1 (x)) q(x).
Si llamamos a2 (x) = −d2 (x) a1 (x) y b2 (x) = 1 − d2 (x) b1 (x), es
r2 (x) = a2 (x) p(x) + b2 (x) q(x).
Razonando inductivamente, sea h < n y supongamos que para todo l ≤ h es rl (x) = al (x) p(x) + bl (x) q(x).
Despejando rh+1 (x) en (5.1) obtenemos
rh+1 (x) = −rh (x) dh+1 (x) + rh−1 (x)
= −(ah (x) p(x) + bh (x) q(x)) dh+1 (x) + ah−1 (x) p(x) + bh−1 (x) q(x)
= (−ah (x) dh+1 (x) + ah−1 (x)) p(x) + (−bh (x) dh+1 (x) + bh−1 (x)) q(x)
= ah+1 (x) p(x) + bh+1 (x) q(x),
siendo ah+1 = −ah (x) dh+1 (x) + ah−1 (x) y bh+1 (x) = −bh (x) dh+1 (x) + bh−1 (x).

Ejemplo 5.3.2. Sean p(x) = x6 − x4 + 2 x3 + 2 x2 + x + 1 y q(x) = x3 + x2 + x + 1 en R[x]. Aplicando el


algoritmo de Euclides obtenemos
x6 − x4 + 2 x3 + 2 x2 + x + 1 = (x3 + x2 + x + 1)(x3 − x2 − x + 3) + x2 − x − 2
x3 + x2 + x + 1 = (x2 − x − 2)(x + 2) + 5x + 5
x2 − x − 2 = (5 x + 5)( 15 x − 25 )
luego mcd (p(x), q(x)) = x + 1.

Observar que es
p(x) = q(x) d1 (x) + r1 (x), gr r1 (x) < gr q(x)
q(x) = r1 (x) d2 (x) + r2 (x), gr r2 (x) < gr r1 (x)
r1 (x) = r2 (x) d3 (x), r3 (x) = 0.
Luego despejando r2 (x) de las dos primeras ecuaciones obtenemos
r2 (x) = −d2 (x) p(x) + (1 + d1 (x) d2 (x)) q(x) (5.3)
siendo r2 (x) = 5x + 5, d1 (x) = x3 − x2 − x + 3 y d2 (x) = x + 2. Si substituimos r2 (x), d1 (x) y d2 (x) en (5.3)
llegamos a
5x + 5 = −(x + 2) p(x) + (x4 + x3 − 3x2 + x + 7) q(x),
luego x + 1 = − 51 (x + 2) p(x) + 51 (x4 + x3 − 3x2 + x + 7) q(x) (verificarlo!).
Proposición 5.3.2. Sean p(x) y q(x) polinomios no nulos. Entonces se verifica que mcd (p(x), q(x)) = 1 si
y sólo si existen a(x) y b(x) en k[x] tales que
a(x) p(x) + b(x) q(x) = 1.
Dem. Si mcd (p(x), q(x)) = 1, entonces la proposición anterior nos prueba que existen a(x) y b(x) en
k[x] tales que a(x) p(x) + b(x) q(x) = 1.

Supongamos que existen polinomios a(x) y b(x) que verifican a(x) p(x) + b(x) q(x) = 1. Si m(x) divide
a p(x) y a q(x), entonces m(x) divide a a(x) p(x) + b(x) q(x) = 1, luego m(x) ∈ k. Esto prueba que
mcd (p(x), q(x)) = 1.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 92

5.4. Apéndice D: Diagrama de puntos


Sea T ∈ L(V ) y supongamos que χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh , con λi 6= λj si i 6= j.
Sea B = B1 ∪ · · · ∪ Bh una base de Jordan para T , en la cual cada Bi es una base de Ker (T − λi id )ni .
Podemos suponer
   i 
A1 J1
 ..   .. 
[T ]B =  .  , Ai =  .  , ∀i = 1, . . . , h,
Ah Jki i
 
λi 1
 λi 1 
 
 .. .. 
Jji =  . .  , ∀j = 1, . . . , ki ,
 
 λi 1 
λi

siendo Ai ∈ Mni (k), Jji ∈ Mpi (k), con pi1 ≥ pi2 ≥ · · · ≥ piki . Probaremos que, con este orden en los bloques,
j
las matrices Ai y Jji dependen solo de T y no de la elección de la base B, luego la forma de Jordan es única
a menos del orden de los valores propios.

Definición 5.4.1. Sea


 
  λ 1
J1  λ 1 
 
 ..   .. .. 
A= .  ∈ Mn (k), Jj =  . .  ∈ Mpj (k),
 
Jk  λ 1 
λ

con p1 ≥ p2 ≥ · · · ≥ pk . A la matriz A le asociamos su diagrama de puntos

• • ··· • • ··· • ··· • ··· •


• • ··· • • ··· •
.. .. .. .. ..
. . . . .
• • ··· • • ··· •
• • ··· •

que se construye poniendo p1 puntos en la primer columna, p2 puntos en la segunda y ası́ sucesivamente
(ordenamos las columnas de izquierda a derecha). Observar que esto corresponde a poner en cada columna
tantos puntos como el tamaño del bloque de Jordan correspondiente.

Observación 5.4.1. 1. El total de puntos del diagrama es p1 + p2 + · · · + pk = n.

2. Si llamamos rj al número de puntos de la fila j (contando de arriba hacia abajo), es r1 ≥ r2 ≥ · · · ≥ rp1 .

3. El número de puntos de la primera fila coincide con el número de bloques de A, es decir r1 = k.

4. Para conocer el diagrama de puntos de A, basta con conocer el número de filas (p1 ) y el número de
puntos de cada fila (rj ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 93

Ejemplo 5.4.1. 1. Si
 
λ 1 0
 0 λ 1 
 
 0 0 λ 
 
 λ 1 0 
 
A=
 0 λ 1  ∈ M9 (R),

 0 0 λ 
 
 λ 1 
 
 0 λ 
λ
el diagrama de puntos de A es
• • • •
• • • .
• •

2. Si  
λ 1 0
 0 λ 1 
 
 0 0 λ 
 
A=
 λ 1  ∈ M7 (R),

 0 λ 
 
 λ 1 
0 λ
el diagrama de puntos de A es
• • •
• • • .

3. Si  
λ 1 0
 0 λ 1 
 
 0 0 λ 
 
A=
 λ  ∈ M7 (R),

 λ 
 
 λ 
λ
el diagrama de puntos de A es
• • • • •
• .

Observar que en los dos últimos ejemplos es mA (t) = (t − λ)3 , es decir que ambas matrices tienen el
mismo polinomio minimal pero distinto diagrama de puntos.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 94

Proposición 5.4.1. Sea


 
  λ 1
J1  λ 1 
 
 ..   .. .. 
A= .  ∈ Mn (k), Jj =  . .  ∈ Mpj (k),
 
Jk  λ 1 
λ
con p1 ≥ p2 ≥ · · · ≥ pk . Entonces
1. r1 = n − rango (A − λ I).
2. rj = rango (A − λ I)j−1 − rango (A − λ I)j , j ≥ 2.
Dem. Para simplificar la notación lo probaremos en un caso particular, aunque el razonamiento vale en
general. Sea  
B
 .. 
 . 
 
 B 
 
 C 
 
 .. 
 . 
 
 C 
A=  .
D 
 
 . .. 
 
 
 D 
 
 E 
 
 .. 
 . 
E
Siendo  
λ 1 0 0  
λ 1 0  
 0 λ 1 0 
B=  , C =  0 λ 1  , D = λ 1 , E = (λ).
 0 0 λ 1  0 λ
0 0 λ
0 0 0 λ
Supongamos que la matriz B aparece b veces, la matriz C aparece c veces, la matriz D aparece d veces y la
matriz E aparece e veces. Si A ∈ Mn (k), es n = 4b + 3c + 2d + e.

El diagrama de puntos correspondiente es


• ··· • • ··· • • ··· • • ··· •
• ··· • • ··· • • ··· •
.
• ··· • • ··· •
• ··· •
Luego
r1 = b + c + d + e,
r2 = b + c + d,
r3 = b + c,
r4 = b.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 95

Observar que  
B − λI
 .. 
A − λI =  . ,
E − λI
siendo
 
0 1 0 0  
0 1 0  
 0 0 1 
0 
B − λI =  , C − λ I =  0 0 1 , D − λI = 0 1 ,
 0 0 0 1  0 0
0 0 0
0 0 0 0
E − λ I = (0).

Luego  
(B − λ I)l
 .. 
(A − λ I)l =  . , l = 1, 2, . . .
(E − λ I)l
Calculando obtenemos
   
0 0 1 0 0 0 0 1
 0 0 0 1   0 
(B − λ I)2 =   , (B − λ I)3 =  0 0 0  , (B − λ I)4 = 0,
 0 0 0 0   0 0 0 0 
0 0 0 0 0 0 0 0
 
0 0 1
(C − λ I)2 =  0 0 0  , (C − λ I)3 = 0, (D − λ I)2 = 0.
0 0 0

Luego es

rango (A − λ I) = 3b + 2c + d,
rango (A − λ I)2 = 2b + c,
rango (A − λ I)3 = b,
rango (A − λ I)4 = 0.

y deducimos

n − rango (A − λ I) = 4b + 3c + 2d + e − (3b + 2c + d)
= b + c + d + e = r1 ,
2
rango (A − λ I) − rango (A − λ I) = 3b + 2c + d − (2b + c) = b + c + d = r2 ,
rango (A − λ I)2 − rango (A − λ I)3 = 2b + c − b = b + c = r3 ,
rango (A − λ I)3 − rango (A − λ I)4 = b − 0 = b = r4 .

El siguiente teorema prueba la unicidad de la forma de Jordan.


Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 96

Teorema 5.4.2. Sea T ∈ L(V ) y supongamos que


χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh ,

con λi 6= λj si i 6= j. Sea B una base de Jordan para T , tal que


   i 
A1 J1
 ..   .. 
[T ]B =  .  , Ai =  .  , ∀i = 1, . . . , h,
i
Jki
Ah
 
λi 1
 λi 1 
 
 .. .. 
Jji =  . .  , ∀j = 1, . . . , ki ,
 
 λi 1 
λi

siendo Ai ∈ Mni (k), Jji ∈ Mpi (k), con pi1 ≥ pi2 ≥ · · · ≥ piki .
j

Para i ∈ {1, . . . , h} fijo, sea rj el número de puntos de la fila j del diagrama de puntos de Ai , entonces
1. r1 = dim V − rango (T − λi id ).

2. rj = rango (T − λi id )j−1 − rango (T − λi id )j , j ≥ 2.


Dem. Por la proposición anterior sabemos:

r1 = ni − rango (Ai − λi I),


rj = rango (Ai − λi I)j−1 − rango (Ai − λi I)j , j ≥ 2.

Luego lo que tenemos que probar es

dim V − rango (T − λi id ) = ni − rango (Ai − λi I),


rango (T − λi id )j−1 − rango (T − λi id )j =
rango (Ai − λi I)j−1 − rango (Ai − λi I)j , j ≥ 2.

Es  
h i (A1 − λi I)l
 .. 
(T − λi id )l = . , l = 1, 2, . . . ,
B
(Ah − λi I)l
Ph
luego rango (T − λi id )l = j=1 rango (Aj − λi I)l , l = 1, 2, . . . .

Afirmación: Si j 6= i, es rango (Aj − λi I)l = nj , ∀l = 1, 2, . . . .

Es  
λj ∗
 .. .. 
 . . 
Aj =   ∈ Mnj (k), siendo ∗ = 0 o ∗ = 1.
 λj ∗ 
λj
Luego det (Aj − λi I) = (λj − λi )nj 6= 0 si j 6= i. Esto implica que Aj − λi I es invertible y por lo tanto
(Aj − λi I)l ∈ Mnj (k) es invertible ∀l = 1, 2, . . . . Entonces rango (Aj − λi I)l = nj , ∀l = 1, 2, . . . .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 97

Con este resultado obtenemos:


X
rango (T − λi id )l = nj + rango (Ai − λi I)l , l = 1, 2, . . . .
j6=i

Luego

rango (T − λi id )j−1 − rango (T − λi id )j =


 
X X
= nj + rango (Ai − λi I)j−1 −  nj + rango (Ai − λi I)j 
j6=i j6=i
j−1
= rango (Ai − λi I) − rango (Ai − λi I)j , j ≥ 2.
dim V − rango (T − λi id ) =
 
Xh X
= nj −  nj + rango (Ai − λi I)
j=1 j6=i
= ni − rango (Ai − λi I).

Definición 5.4.2. Si A ∈ Mn (k) y χA (t) = χLA (t) ∈ k[t] escinde, definimos la forma de Jordan de A como
la de LA .

Observar que si J es la forma de Jordan de A y B = {v1 , . . . , vn } es la base de Jordan para LA


correspondiente, entonces es
J = Q−1 A Q, Q = [v1 | · · · |vn ].

Ejemplo 5.4.2. Sea  


2 −1 0 1
 0 3 −1 0 
A=
 0
 ∈ M4 (R).
1 1 0 
0 −1 0 3
Es χA (t) = (t − 2)3 (t − 3), luego R4 = Ker(LA − 2 id )3 ⊕ Ker(LA − 3 id ), siendo dim Ker(LA − 2 id )3 = 3 y
dim Ker(LA − 3 id ) = 1. Luego será
 
A1
J= , A1 ∈ M3 (R), A2 ∈ M1 (R).
A2

Necesariamente es A2 = (3). Para el valor propio 2, el diagrama de puntos tiene tres puntos y r1 = 4 −
rango(A−2I) = 4−2 = 2 (ver (5.4.2) más adelante), esto implica que el diagrama de puntos correspondiente
es  
2 1 0
• •
luego A1 =  0 2 0  .

0 0 2
Entonces la forma de Jordan de A es  
2 1 0 0
 0 2 0 0 
J =
 0
.
0 2 0 
0 0 0 3
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 98

Para hallar la matriz de semejanza Q tenemos que hallar la base de Jordan correspondiente. Observar que
esta base es de la forma
B = {(LA − 2 id ) (v), v, u, w} ,
siendo {(LA − 2 id ) (v), u} una base de Ker (LA − 2 id ), Ker (LA − 2 id )2 = Ker (LA − 2 id ) ⊕ [v] y {w} una
base de Ker (LA − 3 id ).
Calculando obtenemos
     
0 −1 0 1 0 −2 1 1 −1 −1 0 1
 0 1 −1 0   0 0 0   0 −1 0 
A − 2I =   , (A − 2I)2 =  0  , A − 3I =  0 .
 0 1 −1 0   0 0 0 0   0 1 −2 0 
0 −1 0 1 0 −2 1 1 0 −1 0 0
Luego
Ker (LA − 2 id ) = {(x, y, z, t) : y = z = t} = [(1, 0, 0, 0), (0, 1, 1, 1)],
Ker (LA − 2 id )2 = {(x, y, z, t) : −2y + z + t = 0} = [(1, 0, 0, 0), (0, 1, 0, 2), (0, 0, 1, −1)],
Ker (LA − 3 id ) = {(x, y, z, t) : x = t e y = z = 0} = [(1, 0, 0, 1)].

Observar que v = (0, 1, 0, 2) ∈ Ker (LA − 2 id )2 \ Ker (LA − 2 id ), luego


Ker (LA − 2 id )2 = Ker (LA − 2 id )2 ⊕ [v].
Entonces sabemos que (LA − 2 id ) (v) = (1, 1, 1, 1) ∈ Ker (LA − 2 id ). Observar que si u = (1, 0, 0, 0), el
conjunto
{(LA − 2 id ) (v), u} = {(1, 1, 1, 1), (1, 0, 0, 0)} ⊂ Ker (LA − 2 id )
y es LI, luego es base de Ker (LA − 2 id ). Si tomamos w = (1, 0, 0, 1), es
B = {(1, 1, 1, 1), (0, 1, 0, 2), (1, 0, 0, 0), (1, 0, 0, 1)}
 
1 0 1 1
 1 1 0 0 
la base de Jordan correspondiente y si Q =  
 1 0 0 0  es J = Q A Q.
−1

1 2 0 1

Proposición 5.4.3. Sea T ∈ L(V ), B una base de V y A = [T ]B . Supongamos que χA (t) = χT (t) escinde.
Entonces la forma de Jordan de T coincide con la forma de Jordan de A.
Dem. Sea χA (t) = χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh , con λi =
6 λj si i 6= j. Para probar que la forma
de Jordan de T coincide con la de A, basta con probar que tienen el mismo diagrama de puntos. Esto se
deduce de observar que para cada i es
rango(T − λi id ) = rango(A − λi I) = rango(LA − λi id )
y luego se aplica el Teorema 5.4.2.

Teorema 5.4.4. Sean A y B en Mn (k) tales que ambas tienen forma de Jordan y suponemos que los
bloques de Jordan correspondientes a los mismos valores propios están ordenados en tamaños decrecientes.
Entonces A y B son semejantes si y sólo si tienen (a menos de permutar los valores propios) la misma
forma de Jordan.
Dem. Si A y B tienen la misma forma de Jordan J, entonces A y B son semejantes a J y por lo tanto
son semejantes entre sı́.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 99

Si A y B son semejantes, entonces existen T ∈ L (kn ) y B y C bases de kn tales que A = [T ]B y B = [T ]C .


Luego la proposición anterior implica que A y B tienen la misma forma de Jordan (que coincide con la de
T ).

5.5. Apéndice E: Superficies cuádricas


Usaremos aquı́ los criterios de clasificación de las formas cuadráticas que vimos en el capı́tulo 4 para
clasificar las llamadas superficies cuádricas.
Definición 5.5.1. Una superficie cuádrica es un subconjunto de R3 de la forma

S = (x, y, z) ∈ R3 : a11 x2 + a22 y 2 + a33 z 2 + 2 a12 xy + 2 a13 xz + 2 a23 yz + b1 x + b2 y + b3 z + c = 0 ,
 
a11 a12 a13
siendo A =  a21 a22 a23  6= 0.
a31 a32 a33

5.5.1. Ejemplos de superficies cuádricas.


Ejemplos con det A 6= 0.
x2 y2 z2
1. Hiperboloide de una hoja: a2 + b2 − c2 = 1.
x2 y2 z2
2. Hiperboloide de dos hojas: a2 − b2 − c2 = 1.
x2 y2 z2
3. Elipsoide: a2
+ b2
+ c2
= 1.
x2 y2 z2
4. Cono: a2
+ b2
− c2
= 0.
x2 y2 z2
5. Punto: a2
+ b2
+ c2
= 0 ((x, y, z) = (0, 0, 0)).
x2 y2 z2
6. Conjunto vacı́o: a2
+ b2
+ c2
= −1.
Ejemplos con det A = 0.
x2 y2
1. Paraboloide elı́ptico: a2 + b2 − z = 0.
x2 y2
2. Paraboloide hiperbólico: a2
− b2
− z = 0.
x2 y2
3. Cilindro elı́ptico: a2
+ b2
= 1.
x2 y2
4. Cilindro hiperbólico: a2
− b2
= 1.
x2
5. Cilindro parabólico: a2 − y = 0.
x2
6. Dos planos paralelos: a2
= 1 (x = a y x = −a).
x2 y2 y y
7. Dos planos secantes: a2 − b2 = 0 ( xa − b =0y x
a + b = 0).
x2
8. Un plano (doble): a2
= 0 (x = 0).
x2 y2
9. Una recta (doble): a2
+ b2
= 0 (x = 0 e y = 0).
x2
10. Conjunto vacı́o: a2
= −1.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 100

5.5.2. Clasificación de las superficies cuádricas


Probaremos a continuación que toda superficie cuádrica coincide con una de las anteriores, a menos de
trasladar, rotar o intercambiar los ejes de coordenadas.

Sea

S = (x, y, z) ∈ R3 : a11 x2 + a22 y 2 + a33 z 2 + 2 a12 xy + 2 a13 xz + 2 a23 yz + b1 x + b2 y + b3 z + c = 0 ,
 
a11 a12 a13
siendo A =  a21 a22 a23  =
6 0.
a31 a32 a33

Definimos Φ : R3 → R y α : R3 → R mediante:

Φ(x, y, z) = a11 x2 + a22 y 2 + a33 z 2 + 2 a12 xy + 2 a13 xz + 2 a23 yz, α(x, y, z) = b1 x + b2 y + b3 z.


∗
Claramente Φ es una forma cuadrática y α ∈ R3 . Sea ϕ la forma bilineal simétrica asociada a Φ. Observar
   
x b1
que si escribimos X =  
y yB=  b2 , entonces es
z b3

Φ(X) = X t A X = hX, A Xi, ϕ(X, Y ) = hX, A Y i, α(X) = hX, Bi, ∀X ∈ R3 ,

siendo h , i el producto interno usual (escalar) de R3 . Luego



S = X ∈ R3 : Φ(X) + α(X) + c = 0 .

Como A es una matriz simétrica


 real, entonces existe Q ∈ M3 (R) matriz ortogonal tal que Qt A Q = D,
λ1 0 0
siendo D =  0 λ2 0 . Observar que det A = λ1 λ2 λ3 .
0 0 λ3

Caso det A 6= 0 (λ1 λ2 λ3 6= 0).


En este caso la matriz A es invertible, luego existe un único X0 ∈ R3 tal que
1
B + 2 A X0 = 0 ⇔ X0 = − A−1 B.
2

Realizamos el cambio de variable X = X̃ + X0 (traslación de ejes), luego

Φ(X) + α(X) + c = Φ(X̃ + X0 ) + α(X̃ + X0 ) + c


= Φ(X̃) + 2 ϕ(X̃, X0 ) + Φ(X0 ) + α(X̃) + α(X0 ) + c
= Φ(X̃) + 2 ϕ(X̃, X0 ) + α(X̃) + Φ(X0 ) + α(X0 ) + c
D E D E
= Φ(X̃) + 2 X̃, A X0 + X̃, B + Φ(X0 ) + α(X0 ) + c
D E
= Φ(X̃) + X̃, 2 A X0 + B + Φ(X0 ) + α(X0 ) + c
= Φ(X̃) + d,
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 101

siendo d = Φ(X0 ) + α(X0 ) + c. Entonces la ecuación de S respecto a las coordenadas X̃ es

S : Φ(X̃) + d = 0.

Realizamos el cambio de variable X̃ = Q X̂. Como Q es una matriz ortogonal, esto corresponde realizar un
giro de ejes (det Q = 1) o un giro de ejes seguido de una simetrı́a especular (det Q = −1). Es
 

Φ(X̃) = Φ(Q X̂) = (Q X̂)t A Q X̂ = X̂ t Qt A Q X̂ = X̂ t D X̂ = λ1 x̂2 + λ2 ŷ 2 + λ3 ẑ 2 , X̂ =  ŷ  .

Entonces la ecuación de S respecto a las coordenadas x̂, ŷ y ẑ es

S : λ1 x̂2 + λ2 ŷ 2 + λ3 ẑ 2 + d = 0.

Consideremos primero el caso en el cual d = 0.

1. Si λ1 , λ2 y λ3 tienen el mismo signo, entonces S es un punto.


2. Si λ1 , λ2 y λ3 no tienen el mismo signo, entonces S es un cono.

Consideremos ahora el caso en que d 6= 0. A menos de intercambiar x̂, ŷ y ẑ tenemos los casos siguientes:
1. Si λ1 , λ2 , λ3 y d tienen el mismo signo, entonces S es el conjunto vacı́o.
2. Si λ1 , λ2 , λ3 tienen el mismo signo y este signo es distinto del signo de d, entonces S es un elipsoide.
3. Si sg λ1 = sg λ2 6= sg λ3 = sg d, entonces S es un hiperboloide de una hoja.
4. Si sg λ1 6= sg λ2 = sg λ3 = sg d, entonces S es un hiperboloide de dos hojas.

Caso det A = 0 (λ1 λ2 λ3 = 0).


En este caso realizamos primero el cambio de variable X = Q X̃.
    D E D E
t t t
Φ Q X̃ + α Q X̃ + c = X̃ D X̃ + Q X̃, B + c = X̃ D X̃ + X̃, Q B + c.
     
x̃ β1 b1
Sean X̃ =  ỹ  y  β2  = Qt  b2 . Entonces la ecuación de S respecto a las coordenadas x̃, ỹ y z̃
z̃ β3 b3
es
S : λ1 x̃2 + λ2 ỹ 2 + λ3 z̃ 2 + β1 x̃ + β2 ỹ + β3 z̃ + c = 0.
Observar que como A 6= 0, entonces no puede ser λ1 = λ2 = λ3 = 0; luego a menos de intercambiar los
ejes tenemos dos posibilidades: λ1 6= 0, λ2 = λ3 = 0 y λ1 6= 0, λ2 6= 0, λ3 = 0.

Caso λ1 6= 0, λ2 = λ3 = 0. Es

S : λ1 x̃2 + β1 x̃ + β2 ỹ + β3 z̃ + c = 0.

 x̃ = x̂
Si β2 =
6 0 o β3 =
6 0, entonces realizamos el cambio de variable ỹ = a ŷ − b ẑ y obtenemos

z̃ = b ŷ + a ẑ

S: λ1 x̂2 + β1 x̂ + β2 (a ŷ − b ẑ) + β3 (b ŷ + a ẑ) + c = 0 ⇒


S: 2
λ1 x̂ + β1 x̂ + (β2 a + β3 b) ŷ + (β3 a − β2 b) ẑ + c = 0
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 102

Elegimos a y b tales que 


β3 a − β2 b = 0
a2 + b2 = 1
Observar que a y b se obtienen intersectando la circunferencia x2 + y 2 = 1 con la recta β3 x − β2 y = 0. Esto
asegura la existencia de a y b; además implica que existe ω ∈ [0, 2π] tal que a = cos ω y b = sen ω, luego
el cambio de coordenadas representa un giro de ejes alrededor del eje Ox̃. Para estos valores de a y b la
ecuación de S respecto a las coordenadas x̂, ŷ y ẑ queda

S : λ1 x̂2 + β1 x̂ + γ ŷ + c = 0, con γ = β2 a + β3 b.

Observar que las rectas de ecuación β2 x + β3 y = 0 y β3 x − β2 y = 0 no coinciden, luego γ = β2 a + β3 b 6= 0


y S es un cilindro parabólico.

Si β2 = β3 = 0, entonces:
S : λ1 x̃2 + β1 x̃ + c = 0.
Sea ∆ = β12 − 4 λ1 c. Tenemos las siguientes posibilidades:
1. Si ∆ < 0, entonces S es el conjunto vacı́o.
√ √
−β1 + ∆ −β1 − ∆
2. Si ∆ > 0, entonces S son dos planos paralelos: x̃ = 2 λ1 y x̃ = 2 λ1 .
−β1
3. Si ∆ > 0, entonces S es un plano (doble): x̃ = 2 λ1 .

Caso λ1 6= 0, λ2 6= 0 y λ3 = 0. Es
S : λ1 x̃2 + λ2 ỹ 2 + β1 x̃ + β2 ỹ + β3 z̃ + c = 0.

Si hacemos la traslación de ejes 


 β1
 x̃ = x̂ − 2 λ1
ỹ = ŷ − 2βλ22 ,

 z̃ = ẑ

entonces la ecuación de S respecto a las coordenadas x̂, ŷ y ẑ queda

S : λ1 x̂2 + λ2 ŷ 2 + β3 ẑ + η = 0,
β12 β22
siendo η = c − 4 λ1 − 4 λ2 .

Caso β3 = 0. Es S : λ1 x̂2 + λ2 ŷ 2 + η = 0
1. Si η = 0, entonces tenemos dos posibilidades:
a) Si sg λ1 = sg λ2 , entonces S es la recta (doble) x̂ = 0 y ŷ = 0.
q q
b) Si sg λ1 6= sg λ2 , entonces S son dos planos secantes y = −λ λ2
1
x̂ e y = − −λ1
λ2 x̂.

2. Si η 6= 0 entonces tenemos dos posibilidades:


a) Si sg λ1 = sg λ2 = sg η, entonces S es el conjunto vacı́o.
b) Si sg λ1 = sg λ2 6= sg η, entonces S es un cilindro elı́ptico.
c) Si sg λ1 6= sg λ2 , entonces S es un cilindro hiperbólico.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 103

Caso β3 6= 0. Es S : λ1 x̂2 + λ2 ŷ 2 + β3 ẑ + η = 0.

1. Si sg λ1 = sg λ2 , entonces S es un paraboloide elı́ptico.

2. Si sg λ1 6= sg λ2 , entonces S es un paraboloide hiperbólico.

Esto concluye la clasificación de las superficies cuádricas.

EJEMPLO 
2 0 1
Sea S : 2 x2 + y 2 − z 2 + 2 xz + 4 x − 4 y + 2 z + 3 = 0. Es A =  0 1 0  , luego det A = −3 6= 0
1 0 −1
y sabemos que existe un vector X0 tal que 2 A X0 + B = 0, siendo B = (4, −1, 2). Calculando obtenemos
X0 = (−1, 2, 0), luego realizando el cambio de variable x = x̃ − 1, y = ỹ + 2 y z = z̃ obtenemos

S : 2 x̃2 + ỹ 2 − z̃ 2 + 2 x̃z̃ − 3 = 0.

Observar que det A = −3 implica que el producto de los valores propios de A es negativo, por otro lado
la suma de los valores propios de A coincide con tr A = 2 > 0, luego necesariamente hay un valor propio
negativo y dos positivos. El valor de d se obtiene substituyendo las coordenadas de X0 en la fórmula que
define a S:
d = 2(−1)2 + (2)2 − (0)2 + 2(−1)(0) + 4(−1) − 4(2) + 2(0) + 3 = −3.
Luego realizando el cambio de variable X̃ = Q X̂ obtenemos una ecuación de la forma a2 x̂2 +b2 ŷ 2 −c2 ẑ 2 −3 =
0, siendo a2 , b2 y −c2 los valores propios de A. Operando llegamos a

a2 2 b2 2 c2 2
x̂ + ŷ − ẑ = 1
3 3 3
que es la ecuación de un hiperboloide de una hoja.

−1+ 13
Observar

que en este caso podemos hallar explı́citamente los valores propios, estos son 1, 2 y
−1− 13
2 , luego la ecuación de S queda
√ ! √ !
1 2 −1 + 13 1+ 13
x̂ + ŷ 2 − ẑ 2 = 1.
3 6 6

Potrebbero piacerti anche