Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
4. Formas multilineales 61
4.1. Formas multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3. Formas bilineales simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.5. Formas bilineales simétricas reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6. Formas multilineales alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5. Apéndices 86
5.1. Apéndice A: Acción de k[x] en L(V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2. Apéndice B: Las proyecciones de la descomposición espectral . . . . . . . . . . . . . . . . . . 88
5.2.1. Algunos resultados útiles sobre polinomios . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.2. El teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.3. Apéndice C: Divisibilidad en polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.4. Apéndice D: Diagrama de puntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.5. Apéndice E: Superficies cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.5.1. Ejemplos de superficies cuádricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.5.2. Clasificación de las superficies cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . 100
1
Capı́tulo 1
Notación básica: En todo este tema (capı́tulos 1 y 2), k es un cuerpo y V es un k-espacio vectorial
no nulo de dimensión finita n. Si B es una base de V , supondremos siempre que B es una base ordenada es
decir una base en la cual hemos elegido un orden para sus elementos.
Al espacio de las transformaciones lineales de V en V lo denotaremos por L(V ) y a la transformación lineal
identidad por id o id V . Al espacio de las matrices cuadradas de orden n con coeficientes en k lo denotaremos
por Mn (k) y a la matriz identidad por I o In . Al subespacio de V generado por el conjunto de vectores
{v1 , v2 , · · · , vn } ⊆ V lo denotaremos por [v1 , v2 , · · · , vn ].
[LA ]C = A.
Si v1 , . . . , vn ∈ kn , el sı́mbolo [v1 | · · · |vn ] denotará a la matriz cuadrada de orden n cuyas columnas son
v1 , . . . , vn .
Definición 1.0.1. Diremos que dos matrices A, B ∈ Mn (k) son semejantes si existe una matriz Q ∈ Mn (k)
invertible tal que A = Q−1 BQ. En esta situación escribimos A ≃ B.
2
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 3
2. Si A ∈ Mn (k) es tal que A ≃ [T ]B , entonces existe una base B̃ de V tal que A = [T ]B̃ .
Dem. 1. Si Q = B′ [id ]B , es
Como la matriz Q es invertible, el conjunto B̃ = {w1 , . . . , wn } es una base de V y B [id ]B̃ = Q. Luego
Corolario 1.0.3. Dos matrices son semejantes si y sólo si representan a la misma transformación lineal.
Definición 1.0.2. Una matriz A ∈ Mn (k) es diagonalizable si es semejante a una matriz diagonal. Un
operador T ∈ L(V ) es diagonalizable si existe una base B de V en la cual [T ]B es diagonal.
Ejemplo 1.0.1. Simetrı́a axial respecto a una recta por el origen. Sea T a la simetrı́a axial del plano R2
respecto a una recta r que pasa por el origen. Sean 0 6= u ∈ r y 0 6= v ∈ R2 tales
que u y v son ortogonales.
2 1 0
Luego B = {u, v} es una base de R y la matriz asociada a T en la base B es . Luego la simetrı́a
0 −1
axial de eje r es diagonalizable.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 4
Si existe una base B de V tal que [T ]B es diagonalizable, entonces [T ]B es semejante a una matriz diagonal
D. La parte 2 de la Proposición 1.0.1 implica que existe una base B̃ de V tal que [T ]B̃ = D, luego T es
diagonalizable.
Definición 1.0.3. Dado T ∈ L(V ), un escalar λ ∈ k se dice un valor propio de T si existe 0 6= v ∈ V tal
que T (v) = λv, el vector v se dice que es un vector propio de T asociado a λ.
Dada A ∈ Mn (k), un escalar λ ∈ k se dice un valor propio de A si existe 0 6= v ∈ kn tal que Av = λv, el
vector v se dice que es un vector propio de A asociado a λ. Es claro que los valores y vectores propios de la
matriz A coinciden con los del operador LA .
Proposición 1.0.6. Sea T ∈ L(V ). El operador T es diagonalizable si y sólo si existe una base B de V
formada por vectores propios de T . En esta situación, si B = {v1 , . . . , vn } y D = (dij ) = [T ]B , entonces D
es una matriz diagonal y dii es el valor propio correspondiente al vector propio vi , ∀i = 1, . . . , n.
Dem. Si T es diagonalizable, entonces existe una base B = {v1 , . . . , vn } de V tal que [T ]B es diagonal.
Luego si d11 , . . . , dnn son las entradas diagonales de [T ]B , es T (vi ) = dii vi , ∀i = 1, . . . , n y cada vi es un
vector propio de T asociado al valor propio dii .
Si B = {v1 , . . . , vn } es una base de V formada por vectores propios de T con valores propios correspon-
dientes λ1 , . . . , λn , entonces es T (vi ) = λi vi , ∀i = 1, . . . , n y
λ1 · · · 0
.. . . .
[T ]B = . . .. .
0 ··· λn
1 3
Ejemplo 1.0.2. Sea A = ∈ M2 (R).
4 2
Consideremos v1 = (1, −1) y v2 = (3, 4). Observar que B = {v1 , v2 } es una base de R2 y que LA (v1 ) =
−2 v1 y LA (v2 ) = 5 v2 , luego
−2 0 −1 1 3
[LA ]B = y Q AQ = [LA ]B , siendo Q = .
0 5 −1 4
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 5
Ejemplo 1.0.3. Sea C ∞ (R) = {f : R → R | f tiene derivada de todos los órdenes}. Definimos T ∈
L (C ∞ (R)) por T (f ) = f ′ . Observar que λ ∈ R es un valor propio de T si y sólo si existe f 6= 0 tal
que f ′ = λ f ; luego todo λ ∈ R es un valor propio de T y los vectores propios correspondientes a λ son las
funciones de la forma f (t) = c eλt , ∀c 6= 0.
La siguiente proposición marca cuál es el camino a seguir para encontrar los valores propios de una
transformación lineal.
Proposición 1.0.7. Sean A ∈ Mn (k) y λ ∈ k. Entonces λ es un valor propio de A si y sólo si det(A− λI) =
0.
Dem. λ es valor propio de A si y sólo si existe v ∈ kn , v 6= 0 tal que Av = λv, si y sólo si existe
v ∈ kn , v 6= 0 tal que (A − λI)v = 0 si y sólo si det(A − λI) = 0
El determinante es entonces una herramienta de gran utilidad para esta teorı́a. Presentamos a continua-
ción algunos resultados pertinentes sobre determinantes.
Notaremos algunas veces |A| en lugar de det(A).
Definición 1.0.4. Si T ∈ L(V ), definimos su determinante por det T := det ([T ]B ) siendo B una base
cualquiera de V .
Ejemplo 1.0.4. Sea V = R2 [x] y T ∈ L(V ) definida por T (p(x)) = p′ (x). Si B = 1, x, x2 , es
0 1 0
[T ]B = 0 0 2 ⇒ det T = 0.
0 0 0
siendo A = [T ]B .
Si det T 6= 0, entonces det ([T ]B ) 6= 0, luego [T ]B es invertible y esto equivale a que T sea invertible.
3. Si λ ∈ k, es
Observación 1.0.2. De la Proposición 1.0.9 se deduce que si A ∈ Mn (k), T ∈ L(V ) y B es una base de V ,
entonces
χT (t) = χ[T ] (t), χA (t) = χLA (t).
B
Notar que si
a11 · · · a1n a11 − t · · · a1n
.. .. .. , es χ (t) = .. .. ..
A= . . . A . . . .
an1 · · · ann an1 ··· ann − t
Es un ejercicio del práctico el probar que vale la fórmula siguiente
1 1 1−t 1
Ejemplo 1.0.5. Si A = , es χA (t) = = t2 − 2t − 3.
4 1 4 1−t
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 7
Ejemplo 1.0.6. Si T ∈ L (R2 [x]) está definida por T (p(x)) = p′ (x), (ejemplo 1.0.4) entonces
−t 1 0
χT (t) = 0 −t 2 = −t3 .
0 0 −t
2. Ker(T − λ id ) 6= {0}.
3. El operador T − λ id no es invertible.
Dem.
Dem. Los valores propios de T son las raı́ces de χT (t), como este polinomio tiene grado n, entonces
tiene a lo más n raı́ces.
luego Rθ no tiene valores propios y por lo tanto no tiene vectores propios y no es diagonalizable.
1 1
Ejemplo 1.0.8. Consideremos la matriz A = del ejemplo 1.0.5. Es χA (t) = t2 − 2t − 3 =
4 1
(t − 3)(t + 1), luego A tiene valores propios λ1 = 3 y λ2 = −1. Observar que Ker (LA − 3 id ) = [(1, 2)] y
Ker (LA + id ) = [(1, −2)]. El conjunto B = {(1, 2), (1, −2)} es una base de R2 formada por vectores propios
de LA , luego LA es diagonalizable. En particular tenemos
3 0 −1 1 1
[LA ]B = y [LA ]B = Q A Q, siendo Q = .
0 −1 2 −2
Ejemplo 1.0.9. Sea T ∈ L (R2 [x]) definida por T (p(x)) = p′ (x) (Ejemplo 1.0.6). Es χT (t) = −t3 , luego 0
es el único valor propio de T . Los vectores propios de T son los polinomios constantes no nulos, luego no
existe una base de R2 [x] formada por vectores propios de T y T no es diagonalizable.
T (v) = λ v ⇔ coordB (T (v)) = coordB (λ v) ⇔ [T ]B coordB (v) = λ coordB (v) ⇔ A coordB (v) = λ coordB (v).
Ejemplo 1.0.10. Sea T ∈ L (R2 [x]) definida por T (p(x)) = p(x) + x p′ (x) + p′ (x). Consideremos la base
C = {1, x, x2 } de R2 [x]. Es
1 1 0
A = [T ]C = 0 2 2 ⇒ χT (t) = −(t − 1)(t − 2)(t − 3),
0 0 3
Luego
Ker(T − id ) = [1], Ker(T − 2 id ) = [1 + x], Ker(T − 3 id ) = 1 + 2x + x2 .
El conjunto B = {1, 1 + x, 1 + 2x + x2 } es LI y por lo tanto es una base de R2 [x]; en la base B obtenemos
1 0 0
[T ]B = 0 2 0 .
0 0 3
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 9
Aplicando T a ambos lados de la ecuación (1.1) y teniendo en cuenta que v1 , . . . , vk son vectores propios
obtenemos
a1 λ1 v1 + · · · + ak−1 λk−1 vk−1 + ak λk vk = 0. (1.2)
Multiplicando la ecuación (1.1) por −λk obtenemos
a1 = · · · = ak−1 = 0.
Observación 1.0.4. La matriz identidad y la matriz nula son ejemplos de matrices diagonales -luego diago-
nalizables- que tienen un solo valor propio, 1 y 0 respectivamente (luego no vale el recı́proco del corolario
anterior).
Definición 1.0.6. Un polinomio f (x) ∈ k[x] se dice que escinde en k[x] si existen escalares a, a1 , . . . , an
tales que f (x) = a(x − a1 ) · · · (x − an ) (pueden haber elementos repetidos en a1 , . . . , an ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 10
Observar que si f (x) escinde, agrupando en términos repetidos queda f (x) = a(x − b1 )n1 · · · (x − br )nr ,
con bi 6= bj si i 6= j y ni ∈ Z+ , ∀i = 1, . . . , r.
2. x2 − 2 no escinde en Q[x].
√ √
3. x2 − 2 = x + 2 x − 2 escinde en R[x].
4. x2 + 1 y x2 + 1 (x − 2) no escinden en R[x].
Observación 1.0.5. En C[x] todo polinomio no constante escinde, este es el llamado “teorema fundamental
del álgebra” que será demostrado en cursos posteriores.
0 1
Observación 1.0.6. No vale el recı́proco, como lo muestra la matriz A = ∈ M2 (C), cuyo polinomio
0 0
caracterı́stico es t2 y por lo tanto escinde. Es fácil ver que A no es semejante a ninguna matriz diagonal.
0 1
Ejemplo 1.0.13. Si A = ∈ M2 (R), es χA (t) = t2 + 1 que no escinde en R[t], luego A no es
−1 0
diagonalizable. Observar que si consideramos A ∈ M2 (C), es χA (t) = 2
t + 1 = (t − i)(t + i) que escinde en
i 0
C[t], luego A es diagonalizable en M2 (C) y es semejante a .
0 −i
Observación 1.0.7. 1. Si T ∈ L(V ), entonces 0 es un valor propio de T si y sólo si Ker(T ) 6= {0}, en este
caso es E0 = Ker(T ).
2. El subespacio propio asociado a un valor propio λ consiste en el vector nulo y los vectores propios
correspondientes a λ.
Ejemplo 1.0.14. Sea T ∈ L (R2 [x]) definida por T (p(x)) = p′ (x). En el ejemplo 1.0.9 probamos que
χT (t) = −t3 , luego 0 es el único valor propio de T y E0 = Ker(T ) = R ⊂ R2 [x]. Entonces M A(0) = 3 y
M G(0) = 1. Observar que este es un ejemplo de un operador que no es diagonalizable pero que su polinomio
caracterı́stico escinde.
1 ≤ M G(λ) ≤ M A(λ).
Sean B1 una base de Eλ y B2 un conjunto LI de V disjunto con B1 tales que B = B1 ∪ B2 es una base de
V . Observar que T (v) = λv para todo v ∈ B1 , luego la matriz asociada a T en la base B es una matriz en
bloques de la forma
λIm B
[T ]B =
0 C
siendo m = #B1 = dim Eλ = M G(λ). Luego
Corolario 1.0.17. Sea T ∈ L(V ) y λ un valor propio de T , entonces M A(λ) = 1 implica M G(λ) = 1.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 12
2 ⇒ 3: Sea χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh con λi 6= λj si i 6= j. La Proposición 1.0.18 nos dice
P L
que hi=1 Eλi = hi=1 Eλi , luego
h
! h h h h
M X X X X
dim Eλi = dim Eλi = M G(λi ) = M A(λi ) = ni = gr χT (t) = dim V,
i=1 i=1 i=1 i=1 i=1
Lh
luego i=1 Eλi =V.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 13
Teorema 1.0.20. Sea T ∈ L(V ). El operador T es diagonalizable si y sólo si existen escalares distintos
λ1 , . . . , λh y operadores no nulos P1 , . . . , Ph tales que
2. Pi ◦ Pj = 0 si i 6= j.
3. id = P1 + · · · + Ph .
4. T = λ1 P1 + · · · + λh Ph .
T (v) = T (P1 (v) + · · · + Ph (v)) = T (P1 (v)) + · · · + T (Ph (v)) = λ1 P1 (v) + · · · + λh Ph (v)
= (λ1 P1 + · · · + λh Ph ) (v) ⇒ T = λ1 P1 + · · · + λh Ph .
Recı́procamente, supongamos que T ∈ L(V ) es tal que existen escalares distintos λ1 , . . . , λh y operadores
no nulos P1 , . . . , Ph que verifican las condiciones 1, 2, 3 y 4. ProbaremosL que T es diagonalizable.
Sea Wi = Im(Pi ), i = 1, . . . , h. Las condiciones 1, 2 y 3 implican que V = hi=1 Wi y que si v = w1 +· · ·+wh ,
con wi ∈ Wi , entonces Pi (v) = wi , ∀i = 1, . . . h. Además como Pi 6= 0, es Wi 6= {0} ∀i = 1, . . . , h.
Si v ∈ Wi , es Pi (v) = v, luego
X h Xh h
X Xh
T (v) =
λj Pj (v) = λj Pj (v) = λj Pj (Pi (v)) = λj (Pj ◦ Pi ) (v) = λi Pi2 (v) = λi Pi (v) = λi v.
j=1 j=1 j=1 j=1
Como Wi 6= {0}, la relación anterior implica que λi es un valor propio de T y que Wi ⊂ Eλi , para todo
i = 1, . . . , h. Además tenemos
Mh Xh
V = Wi = Wi . (1.5)
i=1 i=1
Luego tomando una base de cada Wi y considerando la unión de dichas bases, obtenemos una base de V
formada por vectores propios de T . Esto implica que T es diagonalizable.
Veamos para terminar que tal descomposición (en Pcaso de existir) es única. Observar que tomando
h
dimensiones en la relación (1.5) obtenemos dim V = i=1 dim Wi . Por otro lado de Wi ⊂ Eλi se deduce
P
que dim Wi ≤ dim Eλi para todo i = 1, . . . , h. Pero dim V = hi=1 dim Eλi , de donde se tiene que dim Wi =
dim Eλi y como Wi ⊂ Eλi , es Wi = Eλi para todo i = 1, . . . , h. Esto implica que P1 , . . . , Ph son las
L
proyecciones asociadas a la descomposición V = hi=1 Eλi .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 14
Ejemplo 1.0.16. Sea T ∈ L R3 definida por T (x, y, z) = (4x + z, 2x + 3y + 2z, x + 4z). Observar que es
x 4 0 1 x
T y = 2 3 2 y y χT (t) = −(t − 3)2 (t − 5).
z 1 0 4 z
Operando obtenemos
E3 = [(1, 0, −1), (0, 1, 0)], E5 = [(1, 2, 1)].
Luego χT escinde, M G(3) = M A(3) = 2 y M G(5) = M A(5) = 1, esto implica que T es diagonalizable
y que B = {(1, 0, −1), (0, 1, 0), (1, 2, 1)} es una base de R3 . Escribiendo un vector geńerico de R3 como
combinación lineal de B obtenemos
x−z x+z
(x, y, z) = (1, 0, −1) + (y − x − z)(0, 1, 0) + (1, 2, 1).
2 2
Luego si definimos P1 y P2 en L R3 mediante
x−z x−z z−x
P1 (x, y, z) = (1, 0, −1) + (y − x − z)(0, 1, 0) = , y − x − z, ,
2 2 2
x+z x+z z+x
P2 (x, y, z) = (1, 2, 1) = , x + z,
2 2 2
P1 + P2 = id , P12 = P1 , P22 = P2 y P1 ◦ P2 = P2 ◦ P1 = 0.
Observación 1.0.8. Se puede probar que cada operador Pi es un polinomio en T (es decir, de la forma
an T n + an−1 T n−1 + · · · + a1 T + a0 id) - ver apéndice 5.2.
Capı́tulo 2
Si A ∈ Mn (k) es una matriz diagonalizable, la matriz diagonal asociada a A (única a menos del orden
de los elementos en la diagonal) es el representante más sencillo de su clase de semejanza.
Cuando A ∈ Mn (k) no es diagonalizable, permanece el problema de encontrar algún representante “sencillo”
de su clase de semejanza. La solución a este problema está dada por la llamada “forma de Jordan” de A.
Si el cuerpo de base es algebraicamente cerrado (por ejemplo k = C) esta forma siempre existe. Además es
única a menos de cierto orden.
Presentamos en este capı́tulo las nociones básicas para entender la construcción de la forma de Jordan.
Probaremos que si χT (t) escinde en k, entonces existe una base B de V tal que:
λi 1
J1 λi 1
. . . .
J2 . .
[T ]B = .
, Ji = , i = 1, . . . , h.
. . . .
. 1
Jh λi 1
λi
1
Notas redactadas por Andrés Abella, adaptadas por Mariana Haim para el curso 2007
15
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 16
Cada matriz Ji es un bloque de Jordan correspondiente al valor propio λi (pueden haber varios bloques
correspondientes al mismo valor propio), [T ]B es la forma canónica de Jordan y B es una base de Jordan
para T .
Proposición 2.1.1. Sea J una forma de Jordan para un operador T ∈ L(V ). Si λ es una entrada diagonal
de J, entonces λ es valor propio de T .
Es χT (t) = (t − 2)4 (t − 3)2 t2 y los valores propios de T son 2, 3 y 0. La multiplicidad algebraica del valor
propio 2 es 4, la del valor propio 3 es 2 y la del valor propio 0 es 2. Observar que v1 , v4 , v5 y v7 son vectores
propios de T .
Ejemplo 2.2.1. Si T ∈ L R3 está definida por T (x, y, z) = (x + y, y + z, 0), entonces los subespacios
W1 = {(x, y, 0) : x, y ∈ R} y W2 = {(x, 0, 0) : x ∈ R} son T -invariantes.
O y V,
Ker(T ) e Im (T ),
L L
Proposición 2.2.1. Sea T ∈ L(V ) y supongamos que tenemos una descomposición V = W1 · · · Wh
en que cada Wi es T -invariante. Si Bi es una base de Wi , i = 1, . . . , h, entonces en B = B1 ∪ · · · ∪ Bh se
verifica:
A1
..
[T ]B = . , siendo Ai = [T |Wi ]Bi , ∀i = 1, . . . , h.
Ah
Dem. Sea Bi = v1i , . . . , vni i , ∀i = 1, . . . , h. Como Wi es T -invariante, es T vji ∈ Wi y por lo tanto es
T vji = T |W vji = a1j v1i + · · · + ani j vnj i , ∀j = 1, . . . , ni . Luego
0
..
.
0
a1j a11 · · · a1ni
.. .. .
coordB T vj = ...
i
, ∀j = 1, . . . , ni y [T |Wi ]Bi = . .
an j ani 1 · · · ani ni
i
0
..
.
0
Dem. Sea BW = {w1 , . . . , wm } una base de W , como el conjunto BW es LI, sabemos que existen
wm+1 , . . . , wn en V tales que B = {w1 , . . . , wm , wm+1 , . . . , wn } es una base de V . Como T (wi ) ∈ W ,
∀i = 1, . . . , m, es
a1 1 · · · a1 m a1 m+1 ··· a1 n
.. .. .. ..
. . . .
am 1 · · · am m am m+1 · · · am n A B
[T ]B = = ,
0 ··· 0 am+1 m+1 · · · am+1 n 0 D
.. .. .. ..
. . . .
0 ··· 0 an m+1 ··· an n
Ejemplo 2.2.2. Sea T ∈ L R4 definida por
T (x, y, z, t) = (x + y + 2z − t, y + t, 2z − t, z + t)
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 18
Subespacios T -cı́clicos
Dentro de los subespacios T -invariantes, consideramos los llamados T -cı́clicos.
Los operadores diagonalizables se caracterizan porque inducen una descomposición del espacio en subespacios
invariantes de dimensión 1. Más explı́citamente, si {v1 , v2 · · · vL
n } es una base de vectores propios de T ∈ L(V ),
cada subespacio [vi ] es T -invariante, de dimensión 1 y V = i [vi ].
Los que van a cumplir el papel de los [vi ] en el caso no diagonalizable son los subespacios T -cı́clicos.
Ejemplo 2.2.5. Sea T ∈ L R3 definida por T (x, y, z) = (−y + z, x + z, 3z). Observar que T (e1 ) = e2 y
T (e2 ) = −e1 , luego T n (e1 ) , T n (e2 ) ∈ {±e1 , ±e2 }, ∀n ∈ N. Entonces
Ejemplo 2.2.6. Sea T ∈ L (R3 [x]) definida por T (p(x)) = p′ (x) y consideremos v = x2 . Es
T x2 = 2 x, T 2 x2 = 2, T 3 x2 = 0,
luego Sx2 ,T = x2 , 2 x, 2, 0, . . . = x2 , 2 x, 2 = R2 [x] ⊂ R3 [x].
Dem.
1. Sea j = mı́n i ∈ Z+ : v, T (v), . . . , T i (v) es LD , como v6= 0, es j ≥ 1. Observar que v, T (v), . . . , T j−1 (v)
es LI y v, T (v), . . . , T j−1 (v), T j (v) es LD, luego T j (v) ∈ v, T (v), . . . , T j−1 (v) .
Afirmación: Para todo p ∈ N se cumple que T j+p(v) ∈ v, T (v), . . . , T j−1 (v) .
Lo
probaremosj−1 por inducción en p. Si p = 0 sabemos que es cierto. Supongamos que T j+p (v) ∈
v, T (v), . . . , T (v) . Entonces
T j+p+1 (v) = T ◦ T j+p (v) = T T j+p(v) ∈ T (v), T 2 (v), . . . , T j (v) .
2 (v), . . . , T j−1 (v), T j (v) ⊂ v, T (v), T 2 (v), . . . , T j−1 (v) , deducimos que T j+p+1 (v) ∈
Como
es T (v), T
v, T (v), T 2 (v), . . . , T j−1 (v) .
Luego W = v, T (v), . . . , T j−1 (v) , j = h = dim W y el conjunto B = v, T (v), T 2 (v), . . . , T h−1 (v) es
base de W .
Pn Pn
Si A ∈ Mn (k) y p = i=0 ai xi , definimos p(A) := i=0 ai Ai .
Observación 2.2.2. Sean T ∈ L(V ) y A ∈ Mn (k).
1. Notar que si p(x), q(x) ∈ k[x] y T ∈ L(V ), se tiene
Observación 2.2.3. Si consideramos el polinomio constante 1 ∈ k[x], resulta 1(T ) = id y 1(A) = I para todo
T ∈ L(V ), A ∈ Mn (k).
En el apéndice 5.1 se presenta esta “evaluación” y sus propiedades generales de manera más rigurosa.
Observación 2.2.4. Si T ∈ L(V ) y v ∈ V , es Sv,T = {p(T )(v) : p ∈ k[x]}.
Lema 2.2.7. Sea T ∈ L(V ), p(t) ∈ k[t] y v un vector propio de T correspondiente a un valor propio λ,
entonces
p(T ) (v) = p(λ) v.
Dem. Observar que T (v) = λ v implica
Lema 2.3.1. Sean V un espacio vectorial y N ∈ L(V ) tales que existe n ∈ Z+ que verifica N n = 0.
Entonces:
1. ∃ p ≤ n tal que
6 Ker (N ) ( · · · ( Ker N p−1 = Ker(N p ) = · · · = Ker(N n ) = V.
{0} =
Lo demostraremos
por indución
en m. Si m = 1 es la hipótesis. Supongamos
ahora que para algún
m ≥ 1 es Ker N l = Ker N l+m . Queremos probar Ker N l = Ker N l+m+1 . Por la observación anterior
Ker N l = Ker N l+m ⊂ Ker N l+m+1 , ası́ que solo falta probar la otra inclusión. Sea w ∈ Ker N l+m+1 ,
0 = N l+m+1 (w) = N l+1 (N m (w)) ⇒ N m (w) ∈ Ker N l+1 = Ker N l ⇒
0 = N l (N m (w)) = N l+m (w) ⇒ w ∈ Ker N l+m = Ker N l ⇒ w ∈ Ker N l .
Probaremos que [N (v1 ), . . . , N (vk )] ∩ Ker(N q−2 ) = {0} y que {N (v1 ), . . . , N (vk )} es LI.
Pk
Sea w ∈ [N (v1 ), . . . , N (vk )] ∩ Ker(N q−2 ), luego existen ai ∈ k, i = 1, . . . , k tales que w = i=1 ai N (vi )
y w ∈ Ker N q−2 . Entonces
k
! k
!
X X
q−2 q−2 q−1
0=N (w) = N ai N (vi ) =N ai vi ⇒
i=1 i=1
k
X
ai vi ∈ Ker N q−1 ∩ [v1 , . . . , vk ] = {0}.
i=1
Pk Pk P
k
luego i=1 ai vi = 0 y w = i=1 ai N (vi ) = N i=1 i i = N (0) = 0.
a v
Esto prueba que [N (v1 ), . . . , N (vk )] ∩ Ker(N q−2 ) = {0}.
Pk
Sean bi ∈ k, i = 1, . . . , k tales que i=1 bi N (vi ) = 0. Es
k
! k
!
X X
0 = N q−2 (0) = N q−2 bi N (vi ) = N q−1 bi vi ,
i=1 i=1
P P
entonces ki=1 bi vi ∈ Ker N q−1 ∩[v1 , . . . , vk ] = {0}. Luego ki=1 bi vi = 0 y como {v1 , . . . , vk } es LI, resulta
bi = 0, ∀i = 1, . . . , k. Esto prueba que {N (v1 ) , . . . , N (vk )} es LI.
Con los resultados anteriores estamos en condiciones de construir una base de Jordan para los operadores
nilpotentes.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 23
Teorema 2.3.2. Sea N ∈ L (V ) un operador nilpotente. Entonces existe B base de V tal que
0 1
N1 0 1
. .. .. ..
[N ]B = , Ni = . . .
Nk 0 1
0
Dem. El operador N ∈ L (V ) está en las hipótesis del lema anterior, luego existe p ≤ n tal que:
B1 = {v1 , . . . , vm },
B2 = {N (v1 ) , . . . , N (vm ) , u1 , . . . , uq },
B3 = {N 2 (v1 ) , . . . , N 2 (vm ) , N (u1 ) , . . . , N (uq ) , w1 , . . . , wr }
Tenemos que:
1. V = Ker N 3 = Ker N 2 ⊕ [B1 ]
2. Ker N 2 = Ker (N ) ⊕ [B2 ]
3. Ker (N ) = [B3 ]
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 24
N 3 (v1 ) = · · · = N 3 (vm ) = 0
N 2 (u1 ) = · · · = N 2 (uq ) = 0
N (w1 ) = · · · = N (wr ) = 0
Ası́ se llega a
0 1 0
0 0 1
0 0 0
..
.
0 1 0
0 0 1
0 0 0
0 1
[N ]B =
0 0
..
.
0 1
0 0
0
..
.
0
La construcción de la forma de Jordan para una matriz genérica se basa en descomponer al espacio V
en subespacios T -invariantes en los cuales T − λid es nilpotente para cierto λ ∈ k. Esto es lo que haremos a
continuación.
Proposición 2.3.3. Si T ∈ L(V ) y p ∈ k[x], entonces Ker p(T ) e Im p(T ) son subespacios T -invariantes.
Dem. Sea v ∈ Ker p(T ), es p(T )(T (v)) = (p(T ) ◦ T )(v) = (T ◦ p(T ))(v) = T (p(T )(v)) = T (0) = 0, luego
T (v) ∈ Ker p(T ).
Sea v = p(T )(w) ∈ Im p(T ), es T (v) = T (p(T )(w)) = (T ◦ p(T )) (w) = (p(T ) ◦ T ) (w) = p(T ) (T (w)) ,
luego T (v) ∈ Im p(T ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 25
Definición 2.3.2. Un polinomio p(x) es mónico si es no nulo y el coeficiente de su término de mayor grado
es 1, es decir si es de la forma
p(x) = xm + am−1 xm−1 + · · · + a1 x + a0 .
Sean p(x) y q(x) en k[x] no simultáneamente nulos. Recordemos que el máximo común divisor de p(x) y
q(x) es el único polinomio mónico d(x) que verifica d(x)|p(x), d(x)|q(x) y si m(x) ∈ k[x] es tal que m(x)|p(x),
m(x)|q(x), entonces m(x)|d(x). En esta situación escribimos d(x) = mcd (p(x), q(x)).
1
Observar que si p(x) 6= 0 entonces mcd (p(x), 0) = a p(x), siendo a el coeficiente del término de mayor
grado de p(x).
El siguiente resultado nos será de gran utilidad para la teorı́a. La prueba se basa fundamentalmente
en cuestiones de divisibilidad en k[x], por lo que no queremos presentarla aquı́. El lector interesado puede
encontrarla en el apéndice 5.3.
Proposición 2.3.4. Sean p(x) y q(x) polinomios no nulos. Entonces se verifica que mcd (p(x), q(x)) = 1 si
y sólo si existen a(x) y b(x) en k[x] tales que
a(x) p(x) + b(x) q(x) = 1.
Para concluir esta sección, mostramos un resultado que ilustra cómo una propiedad algebraica de k[x]
se refleja (a través de un operador T ∈ L(V )) en una propiedad (lineal) de un espacio vectorial V . Más
precisamente, si p(x) ∈ k[x] es un polinomio que anula a T ∈ L(V ), toda descomposción de p(x) en factores
primos entre sı́ induce una descomposicón de V en subespacios linealmente independientes.
Lema 2.3.5. Sea T ∈ L(V ) y p(x) ∈ k[x].
1. Si tenemos una factorización de la forma p(t) = p1 (t) p2 (t) con mcd (p1 (t), p2 (t)) = 1, entonces
Ker(p(T )) = Ker(p1 (T )) ⊕ Ker(p2 (T )).
2. Si tenemos una factorización de la forma p(t) = p1 (t) · · · ph (t) con mcd (pi (t), pj (t)) = 1 si i 6= j,
entonces
Ker(p(T )) = Ker(p1 (T )) ⊕ · ⊕ Ker(ph (T )).
Dem.
1. Como mcd (p1 (t), p2 (t)) = 1, entonces existen m1 (t) y m2 (t) en k[t] tales que m1 (t) p1 (t)+m2 (t) p2 (t) =
1, luego
id = m1 (T ) ◦ p1 (T ) + m2 (T ) ◦ p2 (T ) = p1 (T ) ◦ m1 (T ) + p2 (T ) ◦ m2 (T ).
Es claro que Ker(p1 (T ))+Ker(p2 (T )) ⊆ Ker(p(T )). Veamos ahora la otra inclusión. Sea v ∈ Ker(p(T )),
entonces
v = id (v) = p1 (T )(m1 (T )(v)) + p2 (T )(m2 (T )(v)). (∗)
Como p(t) = p1 (t) p2 (t) se tiene, para todo v en Ker(p(T )), 0 = p1 (T )(p2 (T )(v)) y resulta que el primer
sumando en (∗) están Ker(p2 (T )) y el segundo en Ker(p1 (T )). Luego
Ker(p(T )) ⊆ Ker p2 (T ) + Ker p1 (T ) ⊂ Ker(p(T )).
Además, si v ∈ Ker p1 (T ) ∩ Ker p2 (T ) es p1 (T )(v) = p2 (T )(v) = 0, entonces
v = id (v) = m1 (T )(p1 (T )(v)) + m2 (T )(p2 (T )(v)) = m1 (T )(0) + m2 (T )(0) = 0.
Luego Ker p1 (T ) ∩ Ker p2 (T ) = {0}.
2. Lo demostraremos por inducción en h.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 26
Teorema 2.3.6. Sea T ∈ L(V ) y p(t) ∈ k[t] tal que p(T ) = 0. Si tenemos una factorización de la forma
p(t) = p1 (t) · · · ph (t) con mcd (pi (t), pj (t)) = 1, ∀i 6= j, entonces
En vistas del teorema anterior, si existe un polinomio p(t) ∈ k[t] tal que p(T ) = 0, entonces tenemos
una descomposición de V en subespacios T -invariantes. Vamos a probar que si dicho polinomio escinde, la
descomposición nos da una representación de T a través de una forma de Jordan.
Teorema 2.3.7. Sea T ∈ L(V ) tal que existe p(t) ∈ k[t] que anula a T y escinde. Entonces existen escalares
distintos dos a dos λ1 , λ2 , · · · , λk y naturales n1 , n2 · · · , nk tales que
k
M
V = Ker(T − λi id)ni .
i=1
para ciertos a ∈ k, λi ∈ k, ni ∈ N. Del teorema 2.3.6 se deduce la tesis (los subespacios son T -invariantes
porque son de la forma Ker(qi (T )) para ciertos polinomios qi (t) ∈ k[t]).
Dem. Sea N = T − λid ∈ L(V ). Como N es nilpotente, alcanza con considerar una base B en las
condiciones del teorema 2.3.2 y observar que T = λid + N . Se deduce que
λ 0
λ 0
.. ..
[T ]B = . . + [N ]B .
λ 0
λ
y por tanto la tesis.
Teorema 2.3.9. Sea T ∈ L(V ). Existe una base de Jordan para T si y solo si χT escinde en k.
Dem. (⇒): Sea B una base de Jordan para T . Entonces
λi 1
J1 λi 1
. .. .. ..
[T ]B = , Ji = . . ∈ Mmi (k).
Jq λi 1
λi
Qq Qq
Luego χT (t) = i=1 det (Ji − t Id) = i=1 (λi − t)mi y χT (t) escinde en k.
Luego es T |Wi ∈ L(Wi ) y (T |Wi − λi id Wi )ni = 0. Entonces por el teorema anterior aplicado a T |Wi ∈ L (Wi ),
existe Bi base de Wi tal que para Ai = [T |Wi ]Bi , es
i λ i 1
J1 λi 1
.. i .. ..
Ai = . , donde Jj = . . , ∀j = 1, . . . , ki .
i
Jki λi 1
λi
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 28
Teorema 2.4.3. Sean J y J ′ dos formas de Jordan semejantes. Entonces para cada λ ∈ k y cada k ∈ N\{0},
J y J ′ tienen el mismo número de bloques de tamaño k correspondientes a λ. (Es decir, a menos de una
reordenación bloques, se tiene J = J ′ .)
λ1 Id + N1
λ2 Id + N2
Dem. Supongamos J = .. ..
. .
λh Id + Nh
λ′1 Id + N1′
λ′2 Id + N2′
y J′ = .. .. , donde ∀i 6= j se tiene λi 6= λj , λ′i 6= λ′j y
. .
λ′h′ Id + Nh′
donde cada una de ′
las matrices Ni y Ni es una matriz de Jordan con todas sus entradas diagonales nulas.
Notaremos además Ji = λId + Ni y Ji′ = λ′ Id + Ni′ para cada i.
Ahora bien, χJ = χJ ′ , por lo que las entradas diagonales de J coinciden con las de J ′ (puesto que
son las raı́ces de los respectivos polinomios caracterı́sticos). Se tiene entonces h = h′ y se puede suponer
(reordenando bloques) que λi = λ′i , ∀i ∈ {1, 2, · · · , h}.
Además, el número de veces que aparece cada λi en la diagonal de J coincide con el número de veces que
aparece en J ′ (puesto que ese número es la multiplicidad de λi como raı́z del polinomio caracterı́stico). Se
deduce entonces que para i ∈ {1, 2, · · · , h}, las matrices Ji y Ji′ tienen el mismo tamaño.
Además, como J = P J ′ P −1 para cierta matriz invertible P , se deduce de los tamaños de los bloques que
para cada i ∈ {1, 2, · · · , h}, se tiene
0 0
.. ..
. .
−1
P Ji ′ .
P = Ji
.. ..
. .
0 0
En esta situación, es fácil deducir que, para cada i ∈ {1, 2, · · · , h}, las matrices Ji y Ji′ son semejantes y por
lo tanto también lo son Ni = Ji − λi id y Ni′ = Ji′ − λi id.
Se deduce que, a menos de reordenar bloques, Ni = Ni′ para cada i ∈ {1, 2, · · · , h}. En efecto, el número de
bloques de tamaño k de Ni coincide con el de Ni′ por el corolario 2.4.2.
Definición 2.5.1. Sea T ∈ L(V ). Definimos IT = {p(t) ∈ k[t] : p(t) 6= 0 y p(T ) = 0}.
Teorema 2.5.1. Sea T ∈ L(V ). Existe un único polinomio mónico de grado mı́nimo entre los polinomios
de IT .
Dem. Por la observación anterior, sabemos que existe un polinomio p(t) ∈ IT no nulo y por lo tanto
existe m̃(t) ∈ I no nulo de grado mı́nimo entre los polinomios de IT . Definimos m(t) := a1 m̃(t) siendo a el
coeficiente del término de mayor grado de m̃(t). Entonces m(t) es un polinomio mónico de grado mı́nimo
entre los polinomios de IT .
Veamos que es el único. Supongamos que existe otro polinomio m′ (t) ∈ IT mónico de grado mı́nimo.
Entonces r(t) = m(t) − m′ (t) también anula a T . Si r(t) = 0 se deduce que m(t) = m′ (t).
En caso contrario, tomamos el coeficiente r0 del término de mayor grado de r(t) y consideramos el polinomio
1
r0 r(t). Este polinomio es mónico, pertenece a IT y tiene grado estrictamente menor que el de m(t), lo que
contradice la construcción de m(t).
Dem.
1. Sea p(t) ∈ IT no nulo. Dividiendo a p(t) por su término de mayor grado, obtenemos un polinomio
mónico que también esá en IT y por lo tanto tiene grado mayor o igual al de mT .
2. Sea p(t) ∈ k[t] que verifique p(T ) = 0. Dividimos p(x) por m(t) y es p(t) = m(t) d(t) + r(t) con r(t) = 0
o r(t) 6= 0 y gr r(t) < gr m(t). Entonces
Teorema 2.5.3. Si T ∈ L(V ), entonces el polinomio minimal mT (t) ∈ k[t] es el único polinomio que
verifica:
1. mT (T ) = 0.
3. mT (t) es mónico.
Este polinomio cumple además que si p(t) ∈ k[t] es tal que p(T ) = 0, entonces mT (t) divide a p(t).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 31
Definición 2.5.3. Sea A ∈ Mn (k), llamamos polinomio minimal de A al polinomio mA (t) ∈ k[t] que verifica:
1. mA (A) = 0.
3. mA (t) es mónico.
Análogamente al caso de T ∈ L(V ), se prueba que este polinomio existe y es el único polinomio que verifica
dichas condiciones. Además cumple que si p(t) ∈ k[t] verifica p(A) = 0, entonces mA (t) divide a p(t).
λ
..
Ejemplo 2.5.2. Consideremos una matriz escalar A = ∈ Mn (k). Es A = λI, luego A−λI = 0
.
λ
y mA (t) = t − λ. Observar que vale también el recı́proco, si mA (t) = t − λ, entonces es A = λ I.
Dem.
Luego existe a ∈ k tal que mT (t) = a mA (t). Como ambos polinomios son mónicos la única posibilidad es
a = 1 y mT (t) = mA (t).
Teorema 2.5.7. Sea T ∈ L(V ). Entonces mT (x) y χT (x) tienen las mismas raı́ces.
Dem. Como mT (x) divide a χT (x), entonces existe un polinomio g(x) tal que χT (x) = g(x) mT (x). Sea
α ∈ k tal que mT (α) = 0, entonces χT (α) = g(α) mT (α) = g(α) 0 = 0, luego χT (α) = 0.
Sea λ ∈ k tal que χT (λ) = 0. El escalar λ es un valor propio de T , luego existe v 6= 0 tal que T (v) = λ v.
Por el lema 2.2.7 es mT (λ) v = mT (T ) (v) = 0(v) = 0 y como v 6= 0 es mT (λ) = 0.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 32
entonces
mT (t) = (t − λ1 )m1 · · · (t − λh )mh , con 1 ≤ mi ≤ ni , i = 1, . . . , h.
Corolario 2.5.8. Sea A ∈ Mn (k). Entonces mA (x) y χA (x) tienen las mismas raı́ces.
Dem. Se deduce del teorema anterior porque mA (x) = mLA (x) y χA (x) = χLA (x).
3 −1 0
(t − 2)(t − 3)
Ejemplo 2.5.3. Sea A = 0 2 0 . Es χA (t) = −(t − 2) (t − 3), luego mA (t) =
2 .
(t − 2)2 (t − 3)
1 −1 2
Calculando es (A − 2I)(A − 3I) = 0, luego mA (t) = (t − 2)(t − 3).
Ejemplo 2.5.4. Sea T ∈ L(R2 ) definida por T (x, y) = (2x + 5y, 6x + y). Es χT (t) = (t − 7)(t + 4), luego
necesariamente es mT (t) = (t − 7)(t + 4).
Ejemplo 2.5.5. Sea T ∈ L(R2 [x]) definida por T (p(x)) = p′ (x). Si B = 1, x, x2 , es
0 1 0
A = [T ]B = 0 0 2 .
0 0 0
0 0 2
Observar que A = 0 0 0 6= 0 y A3 = 0, luego mT (t) = mA (t) = t3 . Otra forma de obtener mT (t) es
2
0 0 0
observar que
T a x2 + b x + c = 2a x + b,
T 2 a x2 + b x + c = 2a,
T 3 a x2 + b x + c = 0.
Luego T 3 = 0 y T 2 6= 0, entonces mT (t) = t3 .
A1
..
Observación 2.5.4. Sea A = . una matriz en bloques, siendo Ai ∈ Mni (k), i = 1, . . . , h. Por
Ah
ejemplo si
2 3 4 0 0 0
3 0 5 0 0 0
A1 0 0
2 2 7 0 0 0
A=
0
, es A = 0 A2 0 , siendo
0 0 6 0 0
0 0 0 A3
0 0 0 4 3
0 0 0 7 0 0
2 3 4
4 3
A1 = 3 0 5 ,
A2 = (6), A3 = .
0 7
2 2 7
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 33
Al1
..
Es un ejercicio probar que vale Al = . , ∀l ∈ N. Luego se deduce
Alh
p(A1 )
..
p(A) = . , ∀ p(x) ∈ k[x].
p(Ah )
3. Sea A ∈ Mn (R) tal que A3 = A. Entonces p(A) = 0, siendo p(t) = t3 − t. Observar que p(t) = t3 − t =
t(t − 1)(t + 1), luego A es diagonalizable.
Sea p(t) = t2 − 3t + 2, es p(A) = 0, luego mA (t) divide a p(t). Como p(t) = (t − 1)(t − 2), entonces
mA (t) puede ser t − 1, t − 2 o (t − 1)(t − 2). Si mA (t) = t − 1, entonces A = I. Si mA (t) = t − 2,
entonces A = 2I. Si mA (t) = (t − 1)(t
− 2), entonces A es diagonalizable con valores propios 1 y 2, es
1 0
decir que A es semejante a .
0 2
Proposición 2.5.11. 1. Si
λ 1
λ 1
.. ..
J = . . ∈ Mn (k).
λ 1
λ
Entonces mJ (t) = (t − λ)n .
2. Si
λ 1
J1 λ 1
.. .. ..
A= . ∈ Mn (k), Ji = . . ∈ Mpi (k),
Jk λ 1
λ
con p1 ≥ p2 ≥ · · · ≥ pk . Entonces mA (t) = (t − λ)p1 .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 35
3. Si
A1 J1i
.. ..
A= . ∈ Mn (k), Ai = . ∈ Mni (k),
Ah Jki i
λi 1
λi 1
.. ..
Jji = . . ∈ Mpij (k), j = 1, . . . , ki ,
λi 1
λi
Dem. (1): Es χJ (t) = (λ − t)n = (−1)n (t − λ)n , luego mJ (t) = (t − λ)m , con 1 ≤ m ≤ n.
Es
0 1
0 1
.. ..
J − λI = . . ,
0 1
0
0 0 1
0 0 1
.. .. ..
. . .
(J − λ I)2 = ,
0 1
0 0
0
..
.
0 ··· 0 1
0 ··· 0 0
(J − λ I)n−1 = . .. .. ,
.. . .
0 ··· 0 0
(J − λ I)n = 0.
Si p(t) = (t − λ)q , es
p (J1 )
..
p(A) = . .
p (Jk )
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 36
Luego
p(A) = 0 ⇔ p (Ji ) = 0, ∀i = 1, . . . , h
⇔ mJi (t)| p(t), ∀i = 1, . . . , h
⇔ (t − λ)pi | (t − λ)q , ∀i = 1, . . . , h
⇔ pi ≤ q, ∀i = 1, . . . , h
⇔ p1 ≤ q.
Luego
p(A) = 0 ⇔ p (Ai ) = 0, ∀i = 1, . . . , h
⇔ mAi (t)| p(t), ∀i = 1, . . . , h
⇔ (t − λi )pi | (t − λ1 )q1 · · · (t − λh )qh , ∀i = 1, . . . , h
⇔ pi ≤ qi , ∀i = 1, . . . , h.
Corolario 2.5.12. Si un operador o matriz tiene forma de Jordan, entonces para cada valor propio λ, el
exponente de t − λ en la descomposición factorial del polinomio minimal, coincide con el tamaño del mayor
bloque de Jordan correspondiente a λ.
Ejemplo 2.5.8. Consideremos T ∈ L(R2 [x]) definida por T (p(x)) = p′ (x), en el Ejemplo 2.5.5 vimos que
mT (t) = t3 y es χT (t) = −t3 , luego la forma de Jordan de T es
0 1 0
J = 0 0 1 .
0 0 0
Ejemplo 2.5.9. Sea T ∈ L R3 definida por T (x, y, z) = (2x, −y + 3z, −3y + 5z). Es T = LA , siendo
2 0 0
A = 0 −1 3 .
0 −3 5
Luego mT (t) = (t − 2)2 y como χT (t) = − (t − 2)3 , resulta que la forma de Jordan de T es
2 1 0
J = 0 2 0 .
0 0 2
B = {(T − 2 id )(u), u, v}
Si tomamos v = (1, 0, 0), es {(1, 0, 0) , (0, 3, 3)} una base de Ker (T − 2 id ), B = {(0, 3, 3) , (0, 0, 1) , (1, 0, 0)}
es una base de Jordan para T y [T ]B = J.
Observación 2.5.5. El polinomio minimal no determina siempre la forma de Jordan. Consideremos las si-
guientes matrices
λ 1 0 0 λ 1 0 0
0 λ 0 0 0 λ 0 0
A= 0 0
, B= .
λ 1 0 0 λ 0
0 0 0 λ 0 0 0 λ
En este caso es χA (t) = χB (t) = (t − λ)4 y mA (t) = mB (t) = (t − λ)2 , pero A y B son distintas.
Capı́tulo 3
En este capı́tulo consideramos espacios vectoriales sobre R o C que admiten una operación binaria a
valores escalares (reales o complejos) llamada producto interno. El producto interno, también llamado
producto escalar, permite introducir nociones geométricas en el espacio, como las de ángulo y longitud.
En este tema el cuerpo de base k será R o C. Diremos que un k-espacio vectorial V es un espacio vectorial
real si k = R y que V es un espacio vectorial complejo si k = C.
2. ha u, vi = ahu, vi, ∀a ∈ k, u, v ∈ V .
4. hv, vi > 0, ∀v 6= 0.
Observación 3.1.1. 1. Si k = R, la condición hu, vi = hv, ui, ∀u, v ∈ V queda en hu, vi = hv, ui, ∀u, v ∈ V .
2. Las dos primeras condiciones nos dicen que h , i es lineal en la primera componente.
38
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 39
t
Ejemplo 3.1.2. Si A ∈ Mn (k), definimos A∗ := A , es decir si A = (aij ) y A∗ P= (bij ), es bij = aji (si k = R
es A∗ = At ). Definimos h , i : Mn (k) × Mn (k) → k por hA, Bi := tr (A B ∗ ) = ni,j=1 aij bij .
Ejemplo R 13.1.3. Sea C[0, 1] := {f : [0, 1] → R : f es continua}, definimos h , i : C[0, 1] × C[0, 1] → R por
hf, gi = 0 f (t) g(t) dt.
Ejemplo 3.1.4. Si I = [a, b] ⊂ R es un intervalo cerrado y f : I → C es una función, entonces para cada t
en I es f (t) = f1 (t) + i f2 (t), luego f define dos funciones f1 , f2 : I → R y recı́procamente f1 y f2 definen
f = f1 + if2 . Se dice que f es continua o integrable si f1 y f2 son continuas o integrables respectivamente.
Si f es integrable se define Z Z Z
b b b
f := f1 + i f2 ∈ C.
a a a
1
R 2π
Sea H = {f : [0, 2π] → C : f es continua}, definimos h , i : H × H → C por hf, gi = 2π 0 f (t) g(t) dt.
3. Si hv, ui = hv, wi para todo v ∈ V , entonces es 0 = hv, ui − hv, wi = hv, u − wi para todo v ∈ V , luego
es u − w = 0 y resulta u = w.
hv, vi ≥ 0, ∀v ∈ V y hv, vi = 0 ⇔ v = 0.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 40
p
Definición 3.1.2. Si v ∈ V , definimos su norma por ||v|| := hv, vi. La norma define una función || || :
V → R.
qP
n 2
Ejemplo 3.1.5. Si V = kn con el producto interno usual, entonces || (x1 , . . . , xn ) || = i=1 |xi | .
Dem.
||u + v||2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = ||u||2 + hu, vi + hu, vi + ||v||2
= ||u||2 + 2 Re (hu, vi) + ||v||2 .
3. Desigualdad de Cauchy-Schwarz: para todo u, v ∈ V es |hu, vi| ≤ ||u|| ||v|| y vale el sı́mbolo de igual si
y solo si {u, v} es LD.
Dem. Las dos primeras afirmaciones se deducen inmediatamente de la definición de norma. Para la
desigualdad de Cauchy-Schwarz, si v = 0 es |hu, vi| = |hu, 0i| = 0 = ||u|| ||0|| = ||u|| ||v|| y el conjunto
{u, v} = {u, 0} es LD.
Supongamos ahora que v 6= 0. Observar que para todo c ∈ k es 0 ≤ ||u − c v||2 . Tomando c = hu, vi/||v||2 y
utilizando la relación (3.1) obtenemos
|hu, vi|2
||u − c v||2 = ||u||2 − 2 Re(hu, c vi) + |c|2 ||v||2 = ||u||2 − 2 Re(c hu, vi) + ||v||2
||v||4
!
hu, vi |hu, vi|2 |hu, vi|2 |hu, vi|2 |hu, vi|2
= ||u||2 − 2 Re hu, vi + = ||u||2
− 2 + = ||u||2
− .
||v||2 ||v||2 ||v||2 ||v||2 ||v||2
Luego
|hu, vi|2
||u − c v||2 = ||u||2 − . (3.2)
||v||2
De las relaciones 0 ≤ ||u − c v||2 y (3.2) se obtiene la desigualdad de Cauchy-Schwarz.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 41
Definición 3.1.3. Dos vectores u y v se dicen ortogonales si hu, vi = 0. En esta situación escribimos u ⊥ v.
Un subconjunto S de V se dice un conjunto ortogonal si para todo u, v en S es u ⊥ v. Un subconjunto S de V
se dice un conjunto ortonormal si es ortogonal y ||v|| = 1 para todo v en S. Observar que si S = {v1 , . . . , vn },
entonces S es ortonormal si y sólo si hvi , vj i = δij para todo i, j. Una base ortonormal es una base que además
es un conjunto ortonormal.
Ejemplo 3.1.6. La base canónica de kn es una base ortonormal para el producto interno usual de kn .
Ejemplo 3.1.7. El conjunto S = {(1, 1, 0), (1, −1, 1), (−1, 1, 2)} es un subconjunto ortogonal de R3 que
no es ortonormal.
Corolario 3.1.4. Si S es un subconjunto ortogonal (finito o infinito) de V formado por vectores no nulos,
entonces S es LI.
P h0,vi i
Dem. Si v1 , . . . , vn ∈ S y a1 , . . . , an ∈ k son tales que ni=1 ai vi = 0 entonces ai = ||vi ||
2 = 0 para todo
i = 1, . . . , n.
Ası́ como una base de un espacio vectorial describe completamente al espacio (como combinación lineal
de los elementos de la base), un espacio con producto interno queda totalmente descrito a través de una
base ortonormal. En efecto, los elementos del espacio son combinaciones lineales de los elementos de la base
y, además, se conoce el producto interno a nivel de los elementos de la base (da 1 o 0) y por lo tanto
(extendiendo por sesquilinealidad) a nivel de todo V .
El siguiente resultado muestra cómo quedan las coordenadas de un vector sobre una base ortonormal.
Corolario 3.1.5. Si V tiene dimensión finita y B = {v1 , . . . , vn } es una base ortonormal de V entonces
para todo u en V es
Xn
u= hu, vi i vi .
i=1
El siguiente teorema presenta un algoritmo que permite construir, a partir de un conjunto linealmente
independiente cualquiera, otro que es además ortonormal y que sigue generando el mismo subespacio.
Teorema 3.1.6 (Método de Gram-Schmidt). Sea S = {v1 , . . . , vn } un conjunto LI. Definimos S ′ =
{w1 , . . . , wn } mediante:
w1 = v1
hv2 , w1 i
w2 = v2 − w1
||w1 ||2
hv3 , w1 i hv3 , w2 i
w3 = v3 − w1 − w2
||w1 ||2 ||w2 ||2
..
.
hvn , w1 i hvn , wn−1 i
wn = vn − 2
w1 − · · · − wn−1 .
||w1 || ||wn−1 ||2
Entonces S ′ es un conjunto ortogonal de vectores no nulos que verifica [S ′ ] = [S].
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 43
′ = {w , . . . , w } con
Dem. Lo demostraremos por inducción en m, siendo Sm = {v1 , . . . , vm } y Sm 1 m
1 ≤ m ≤ n.
Luego Sm ′ = {w , . . . , w
1 m−1 , wm } es ortogonal.
′
De Sm−1 = [Sm−1 ] se deduce que w1 , . . . , wm−1 ∈ [Sm−1 ] ⊂ [Sm ]. Por otro lado tenemos que wm ∈
[w1 , . . . , wm−1 , vm ] ⊂ Sm , luego [Sm ′ ] ⊂ [S ]. Como S ′ es un conjunto ortogonal de vectores no nulos, es LI
m m
′
y Sm también es LI, luego dim[Sm ] = dim[Sm ] = m lo cual termina la prueba de [Sm ′ ] = [S ].
m
Dem. Sea C = {v1 , . . . , vn } una base cualquiera de V . Aplicando el método de Gram-Schmidt obtenemos
una base ortogonal C ′ = {u1 , . . . , un }. Si definimos wi = ui /||ui ||, i = 1 . . . , n, entonces B = {w1 , . . . , wn } es
una base ortonormal de V .
Observación 3.1.6.
P PnSea V de dimensión finita y B = {v1 , . . . , vn } una base ortonormal de V . Sean v =
n
x v
i=1 i i y w = i=1 yi vi , entonces vale:
n
X n
X
hv, wi = xi yi , kvk2 = |xi |2 .
i=1 i=1
En efecto, * +
n
X n
X n
X n
X n
X
hv, wi = xi vi , yj vj = xi yj hvi , vj i = xi yj δij = xi yi .
i=1 j=1 i,j=1 i,j=1 i=1
Proposición 3.1.8 (Identidad de Parseval). Sea V de dimensión finita y B = {v1 , . . . , vn } una base orto-
normal de V . Entonces n
X
hv, wi = hv, vi i hw, vi i, ∀v, w ∈ V.
i=1
Pn 2
En particular, kvk2 = i=1 |hv, vi i| .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 44
Observación 3.1.7. Sea V un espacio vectorial real o complejo (aquı́ no suponemos que V tenga producto
interno) de
Pndimensión finita
Pny B = {v1 , . . . ,P
vn } una base cualquiera de V . Definimos h , i : V × V → k por
hv, wi = i=1 xi yi si v = i=1 xi vi y w = ni=1 yi vi . Es un ejercico del práctico 3 el probar que h , i define
un producto interno en V y que B es una base ortonormal respecto a h , i.
Dem.
||v + w||2 = ||v||2 + 2 Re (hv, wi) + ||w||2 = ||v||2 + ||w||2 .
S ⊥ := {v ∈ V : v ⊥ w, ∀w ∈ S}
Definición 3.1.5. Sea W un subespacio de dimensión finita de V . Sean PW ∈ L(V ) y PW ⊥ ∈ L(V ) las
proyecciones asociadas a la descomposición V = W ⊕ W ⊥ , siendo Im PW = W y Im PW ⊥ = W ⊥ . La
proyección PW se llama la proyección ortogonal sobre el espacio W . Observar que si B = {w1 , . . . , wn } es
una base ortonormal de W , entonces
Xn n
X
PW (v) = hv, wi i wi , PW ⊥ (v) = v − hv, wi i wi , ∀v ∈ V.
i=1 i=1
Esto implica que d (v, PW (v)) es una cota inferior para {d(v, w) : w ∈ W }, pero como PW (v) ∈ W , resulta
La relación (3.4) nos dice que PW (v) es el único elemento de W que realiza la distancia de v a W .
En este sentido, la conjugación se generaliza a operadores en un espacio V con producto interno, como la
(única) función ∗ de L(V ) en L(V ) que verifica:
Esta operación sobre L(V ) se llama adjunción y es de crucial importancia. En efecto, el “buen comporta-
miento” de un operador T dependerá ahora no sólo de las propiedades de T sino además de la relación entre
T y T ∗.
En esta sección presentamos este operador ∗ y sus propiedades más importantes. A pesar de que la
teorı́a vale en el contexto general, para nosotros V será siempre un espacio vectorial con producto interno
de dimensión finita.
2. ηw1 = ηw2 ⇔ w1 = w2 .
Dem.
1. ηa w1 +w2 (v) = hv, a w1 + w2 i = āhv, w1 i + hv, w2 i = ā ηw1 (v) + ηw2 (v) = (ā ηw1 + ηw2 )(v).
Luego ηw = α.
Dem. Sea w ∈ V fijo y consideremos βw : V → k definida por βw (v) := hT (v), wi para todo v ∈ V .
Observar que βw = ηw ◦ T , luego βw ∈ V ∗ . Aplicando el Teorema de Riesz, tenemos que existe un único
w̃ ∈ V tal que βw = ηw̃ , es decir tal que hT (v), wi = hv, w̃i , ∀v ∈ V . Definimos entonces T ∗ : V → V por
T ∗ (w) = w̃. Ası́ dado w ∈ W , T ∗ (w) queda definido por ser el único vector de V que verifica hT (v), wi =
hv, T ∗ (w)i, ∀v ∈ V .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 48
La función T ∗ es lineal:
hv, T ∗ (aw1 + w2 )i = hT (v), aw1 + w2 i = āhT (v), w1 i + hT (v), w2 i = āhv, T ∗ (w1 )i + hv, T ∗ (w2 )i
= hv, aT ∗ (w1 ) + T ∗ (w2 )i, ∀v ∈ V
luego T ∗ (aw1 + w2 ) = aT ∗ (w1 ) + T ∗ (w2 ).
Unicidad de T ∗ : Supongamos que existe S ∈ L(V ) tal que hT (v), wi = hv, S(w)i, ∀v, w ∈ V . Luego es
hv, T ∗ (w)i = hv, S(w)i, ∀v ∈ V ⇒ T ∗ (w) = S(w), ∀w ∈ V ⇒ T ∗ = S.
Observación 3.2.1. Se deduce de la demostración anterior que si B = {v1 , . . . , vn } es una base ortonormal
de V y T ∈ L(V ) entonces es
Xn
∗
T (w) = hw, T (vi )i vi , ∀w ∈ V.
i=1
Pn Pn Pn
Prueba: T ∗ (w) = w̃ = i=1 βw (vi ) vi = i=1 hT (vi ), wi vi = i=1 hw, T (vi )i vi .
Luego (T ◦ S)∗ = S ∗ ◦ T ∗ .
4. Por definición de (T ∗ )∗ es hT ∗ (v), wi = hv, (T ∗ )∗ (w)i , ∀v, w ∈ V y por la parte 1 es hT ∗ (v), wi =
hv, T (w)i , ∀v, w ∈ V . Luego (T ∗ )∗ = T .
5. hid (v), wi = hv, wi = hv, id (w)i, ∀v, w ∈ V . Luego id ∗ = id .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 49
t
Recordemos que si A ∈ Mn (k) es A∗ = A y si k = R es A∗ = At .
Ejercicio 3.2.1. Probar que si A, B ∈ Mn (k) y a ∈ k, entonces se cumple:
1. (A + aB)∗ = A∗ + āB ∗ .
2. (AB)∗ = B ∗ A∗ .
3. (A∗ )∗ = A.
4. I ∗ = I.
[T ∗ ]B = ([T ]B )∗ .
T ◦ T ∗ = T ◦ T = T ∗ ◦ T.
luego [T ∗ ◦ T ]B = [T ◦ T ∗ ]B y es T ∗ ◦ T = T ◦ T ∗ .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 51
La siguiente proposición muestra como los operadores normales “se portan bien” respecto del producto
interno.
Proposición 3.2.12. Sea T ∈ L(V ) un operador normal. Entonces
1. ||T (v)|| = ||T ∗ (v)||, ∀v ∈ V .
2. T − λ id es normal, ∀λ ∈ k.
3. Si v es vector propio de T correspondiente al valor propio λ, entonces v es vector propio de T ∗
correspondiente al valor propio λ.
4. Si λ1 6= λ2 son valores propios de T con vectores propios correspondientes v1 y v2 , entonces v1 ⊥ v2 .
Dem.
1.
||T (v)||2 = hT (v), T (v)i = hv, T ∗ (T (v))i = hv, T (T ∗ (v))i = hT ∗ (v), T ∗ (v)i = ||T ∗ (v)||2 .
2.
(T − λ id ) ◦ (T − λ id )∗ = (T − λ id ) ◦ (T ∗ − λ id ) = T ◦ T ∗ − λ T ∗ − λ T + |λ|2 id
= (T − λ id )∗ ◦ (T − λ id ).
Ya que T ◦ T ∗ = T ∗ ◦ T .
3. Es 0 = ||T (v) − λv|| = ||(T − λ id )(v)|| = ||(T − λ id )∗ (v)||, por 1) y 2). Luego
T ∗ (v) − λv
=
||(T − λ id )∗ (v)|| = 0 y es T ∗ (v) = λ v.
4. λ1 hv1 , v2 i = hλ1 v1 , v2 i = hT (v1 ), v2 i = hv1 , T ∗ (v2 )i = hv1 , λ2 v2 i = λ2 hv1 , v2 i y como λ1 6= λ2 resulta
hv1 , v2 i = 0.
luego (T |W )∗ = T ∗ |W .
Si T es normal, es
T |W ◦ (T |W )∗ = T |W ◦ T ∗ |W = (T ◦ T ∗ )|W = (T ∗ ◦ T )|W = T ∗ |W ◦ T |W = (T |W )∗ ◦ T |W .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 52
Dem.
La prueba es por inducción en n = dim V .
n o
v
Para n = 1: Si 0 6= v ∈ V entonces ||v|| es una base ortonormal de V formada por vectores propios de
T
Sea ahora n > 1 y supongamos, por hipoótesis inductiva, que para todo operador normal en un espacio
de dimensión n − 1, existe una base ortonormal del espacio formada por vectores propios del operador.
Como k = C existe λ valor propio de T . Sea v un vector propio de T correspondiente a λ y consideremos
W := [v]⊥ = {w ∈ V | hw, vi = 0}. Sabemos que W es un subespacio de V y que dim W = n − 1. Sea
w ∈ W,
hT (w), vi = hw, T ∗ (v)i = w, λ v = λ hw, vi = λ 0 = 0 ⇒ T (w) ∈ W,
hT ∗ (w), vi = hw, T (v)i = hw, λ vi = λ hw, vi = λ 0 = 0 ⇒ T ∗ (w) ∈ W.
Luego W es T y T ∗ -invariante, como T es normal, el lema anterior implica que T |W ∈ L(W ) es normal.
Tenemos que T |W ∈ L(W ) normal y que dim W = n − 1 entonces por la hipótesis inductiva existe
{v1 , . . . , vn−1 } base ortonormal de W formada por vectores propios de T |W (y por lo tanto vectores propios
v
de T ). Sea vn = ||v|| , como v1 , . . . , vn−1 ∈ W = [v]⊥ y vn ∈ [v] es vi ⊥ vn , ∀i = 1, . . . , n − 1. Luego
B = {v1 , . . . , vn−1 , vn } es una base ortonormal de V formada por vectores propios de T .
Esto no es cierto en el caso en que el cuerpo de base es R. Es decir, no todo operador normal sobre
un espacio vectorial real diagonaliza. El principal obstáculo está dado porque debemos asegurarnos de que
las raı́ces del polinomio caracterı́stico estén en R. La siguiente proposición prueba que es suficiente que el
operador sea autoadjunto para que tenga todos sus valores propios reales.
λ v = T (v) = T ∗ (v) = λ v
Un segundo obstáculo para la diagonalización de un operador T autoadjunto podrı́a estar dado por el
hecho de que no exista una base ortonormal de vectores propios para cada subespacio propio. Los resultados
que siguen prueban que los resultados obtenidos para k = C pueden pasar sin problemas al caso k = R.
Proposición 3.2.18. Sea S = {v1 , v2 , · · · , } ⊆ Rn . Entonces S es linealmente independiente en el espacio
vectorial real Rn si y sólo si S es linealmente independiente en el espacio vectorial complejo Cn .
Dem. Supongamos que S es linealmente independiente en Rn y que λ1 , λ2 , · · · , λn ∈ C son tales que
n
X
λj vj = 0. (∗)
j=1
Observación 3.2.3. Esto puede generalizarse al caso de dos cuerpos cualesquiera k ⊆ K ′ (ver apéndice 5.4).
L
Afirmación: En este caso vale Eλ⊥i = j6=i Eλj ,
∀i = 1, . . . , k. En efecto, como T es normal (k = C o R),
es L
Eλi ⊥ Eλj , ∀j 6= i ⇒ Eλj ⊂ Eλ⊥i , ∀j 6= i ⇒ j6=i Eλj ⊂ Eλ⊥i M
L ⊥
⇒ E = Eλj .
dim( j6=i Eλj ) = dimV − dimEλi = dimEλ⊥i λi
j6=i
L
Pero entonces V = Eλi ⊕ j6=i Eλj = Eλi ⊕ Eλ⊥i , y Pi es la proyección asociada a esta descomposición, es
decir Pi = PEλi . Luego Pi es una proyección ortogonal.
k k
! k
X X X
= λi λj Pi ◦ Pj = λi Pi ◦ λj Pj = T ∗ ◦ T.
i,j=1 i=1 j=1
Observación 3.3.1. Sea T ∈ L(V ) normal si k = C o autoadjunto si k = R. Sean λ1 , . . . , λk los valores propios
distintos de T y P1 , . . . , Pk las proyecciones ortogonales sobre los subespacios propios correspondientes.
Recordemos que la descomposición
T = λ1 P1 + · · · + λk Pk
se llama la descomposición espectral de T y {λ1 , . . . , λk } es el espectro de T .
Corolario 3.3.3. Sea k = C y T ∈ L(V). Entonces T es normal si y sólo si T ∗ = p(T ) para algún p ∈ C[x].
P
Dem. Si T ∗ = p(T ) con p = ni=0 ai xi , entonces
n
! n n
X X X
∗ i i+1
T ◦ T = p(T ) ◦ T = ai T ◦ T = ai T =T ◦ ai T i = T ◦ p(T ) = T ◦ T ∗ ,
i=0 i=0 i=0
luego T es normal.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 56
P P
Si T es normal y T = ki=1 λi Pi es la descomposición espectral de T , entonces T ∗ = ki=1 λi Pi .
Sea p ∈ k[x] tal que p(λi ) = λi , ∀i = 1, . . . , k. Entonces
k
! k k
X (∗) X X
p(T ) = p λi Pi = p(λi ) Pi = λi Pi = T ∗ ,
i=1 i=1 i=1
luego T ∗ = p(T ).
Corolario 3.3.4. Sea k = C y T ∈ L(V ) un operador normal. Entonces T es autoadjunto si y sólo si todos
los valores propios de T son reales.
Pk
Proposición 3.3.5. Sea T ∈ L(V ) normal si k = C o autoadjunto si k = R y consideremos T = i=1 λi Pi
la descomposición espectral de T . Entonces cada Pi es un polinomio en T .
3.4. Isometrı́as
En esta sección V será siempre un espacio vectorial con producto interno de dimensión finita.
Definición 3.4.1. Sean (V, h , iV ) y (W, h , iW ) dos espacios con producto interno. Una transformación
lineal T ∈ L(V, W ) se dice una isometrı́a si verifica:
Dem. Sea B = {v1 , . . . , vn } una base ortonormal de V formada por vectores propios de T con valores
propios correspondientes λ1 , . . . , λn . Entonces es
(T ∗ ◦ T )∗ = T ∗ ◦ T ∗∗ = T ∗ ◦ T, (T ◦ T ∗ )∗ = T ∗∗ ◦ T ∗ = T ◦ T ∗ .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 57
(2 ⇒ 3): Sea B = {v1 , . . . , vn } una base ortonormal de V , es hT (vi ), T (vj )i = hvi , vj i = δij , luego
T (B) = {T (v1 ), . . . , T (vn )} es una base ortonormal de V .
(3 ⇒ 4): Esto es obvio, dado que V siempre admite una base ortonormal.
(4 ⇒ 5): Consideremos B = {w1 , . . . , wn } una base ortonormal de V tal que T (B) = {T (w1 ), . . . , T (wn )}
es también una base ortonormal de V . P
Sea v ∈ V P . , an ∈ k tales que v = ni=1 ai wi ,
. Como B es una base de V , entonces existen únicos a1 , . .P
luego T (v) = ni=1 ai T (wP
i ). Como B es una base ortonormal es kvk =
2 n 2
i=1 |ai | y como T (B) es una base
ortonormal es kT (v)k2 = ni=1 |ai |2 , luego kT (v)k = kvk, ∀v ∈ V .
1. Si k = C, entonces T es una isometrı́a si y sólo si T es normal y |λ| = 1 para todo valor propio λ de
T.
Dem.
1. (⇒): Ya lo sabemos.
P
(⇐): Sea T = ki=1 λi Pi la descomposición espectral de T , entonces
k
! k
k k k
X X X X X
T ◦ T∗ = λi Pi ◦ λj Pj = λi λj Pi ◦ Pj = |λi |2 Pi = Pi = id .
i=1 j=1 i,j=1 i=1 i=1
2. (⇒): Ya lo sabemos.
(⇐): Vale la misma prueba del caso 1.
Definición 3.4.2. Sea k un cuerpo cualquiera, una matriz A ∈ Mn (k) se dice ortogonal si
At = A−1 ⇔ At A = A At = Id .
A∗ = A−1 ⇔ A∗ A = A A∗ = Id .
Proposición 3.4.4. Sea T ∈ L(V), B una base ortonormal de V y A = [T ]B . Entonces T es una isometrı́a
si y sólo si A es ortogonal en el caso k = R o A es unitaria en el caso k = C.
Dem.
T ◦ T ∗ = T ∗ ◦ T = id ⇔ [T ◦ T ∗ ]B = [T ∗ ◦ T ]B = [id ]B ⇔ [T ]B [T ∗ ]B = [T ∗ ]B [T ]B = Id
⇔ [T ]B ([T ]B )∗ = ([T ]B )∗ [T ]B = Id ⇔ A A∗ = A∗ A = Id .
Dem.
a11 · · · a1n a1i
.. .. = [A | . . . |A ], siendo A = .. . Sea A∗ = (b ), siendo b = a .
Sea A = [aij ] = . . 1 n i . ij ij ji
an1 · · · ann ani
Si A∗ A = (cij ), entonces
n
X n
X
cij = bik akj = aki akj = hAj , Ai i
k=1 k=1
Luego
A∗ A = Id ⇔ cij = δij ⇔ hAj , Ai i = δij ⇔ hAi , Aj i = δij .
Entonces A∗ A = Id si y sólo si {A1 , . . . , An } es una base ortonormal de kn .
Análogamente se prueba que A A∗ = Id si y sólo si las filas de A forman una base ortonormal de kn .
Definición 3.4.3. 1. Dos matrices A y B en Mn (C) son unitariamente equivalentes si existe una matriz
Q en Mn (C) unitaria tal que A = Q∗ B Q(= Q−1 B Q).
2. Dos matrices A y B en Mn (R) son ortogonalmente equivalentes si existe Q en Mn (R) ortogonal tal
que A = Qt B Q(= Q−1 B Q).
Ejercicio 3.4.1. Probar que la relación “ser unitariamente equivalentes” es de equivalencia en Mn (C) y
que la relación “ser ortogonalmente equivalentes” es de equivalencia en Mn (R).
Dem.
1. (⇒): Consideremos LA : Cn → Cn . Como A es normal, entonces LA es normal, luego existe una base
ortonormal B de Cn tal que [LA ]B = D, siendo D una matriz diagonal.
Sea C la base canónica de Cn y Q = B [id ]C . Es
(⇐): Sean Q y D en Mn (C), con Q unitaria y D diagonal tales que A = Q∗ D Q. Es A∗ = (Q∗ D Q)∗ =
Q∗ D ∗ Q∗∗ = Q∗ D Q. Entonces
A A∗ = (Q∗ D Q)(Q∗ D Q) = Q∗ D Q Q∗ D Q = Q∗ DD Q
A∗ A = (Q∗ D Q)(Q∗ D Q) = Q∗ D Q Q∗ D Q = Q∗ D D Q
Como D D = D D, es A A∗ = A∗ A.
2. (⇒): Es la misma idea que en 1. Como A es simétrica, LA ∈ L(Rn ) es autoadjunta y luego diagonali-
zable en una base ortonormal. El resto sigue igual.
luego At = A y A es simétrica.
4 2 2
Ejemplo 3.4.1. Sea A = 2 4 2 ∈ M3 (R) matriz simétrica. Es un ejercicio el verificar que χA (t) =
2 2 4
2
−(t − 2) (t − 8) y que los subespacios propios son
Luego {(−1, 2, −1), (−1, 0, 1), (1, 1, 1)} es una base ortogonal de R3 , normalizando obtenemos
1 2 1 1 1 1 1 1
−√ , √ , −√ , − √ , 0, √ , √ ,√ ,√
6 6 6 2 2 3 3 3
Formas multilineales
1
Observar que una forma multilineal es una función que es lineal en cada variable, en particular una
1-forma multilineal es simplemente un elemento del espacio dual V ∗ .
Es un ejercicio verificar que el conjunto de las n-formas multilineales es un subespacio del espacio vectorial
de las funciones con dominio V × · · · × V y codominio k, en el cual las operaciones se definen punto a punto:
En particular esto implica que el conjunto de las n-formas multilineales tiene estructura de espacio vectorial.
Sea Bil(V ) el conjunto de las formas bilineales en V . Por lo que vimos anteriormente Bil(V ) tiene estructura
de espacio vectorial definiendo las operaciones como en (4.1).
1
Notas redactadas por Andrés Abella, adaptadas por Mariana Haim para el curso 2007
61
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 62
Dem.
ϕ′ (w1 + a w1′ , w2 ) = ϕ(T (w1 + a w1′ ), S(w2 )) = ϕ(T (w1 ) + a T (w1′ ), S(w2 ))
= ϕ(T (w1 ), S(w2 )) + a ϕ(T (w1′ ), S(w2 )) = ϕ′ (w1 , w2 ) + a ϕ′ (w1′ , w2 ).
Esto prueba que ϕ′ es lineal en la primer variable y análogamente se prueba que es lineal en la segunda
variable.
Definición 4.2.1. Si V tiene dimensión finita n, B = {v1 , . . . , vn } es una base de V y ϕ ∈ Bil(V ), definimos
MB (ϕ) la matriz asociada a la forma bilineal ϕ en la base B mediante
ϕ (v1 , v1 ) · · · ϕ (v1 , vn )
.. ..
MB (ϕ) := (ϕ (vi , vj ))i,j = . . ∈ Mn (k).
ϕ (vn , v1 ) · · · ϕ (vn , vn )
2 3
Ejemplo 4.2.4. En el Ejemplo 4.2.2, si B = {(1, 0), (0, 1)}, es MB (ϕ) = .
4 −1
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 63
Teorema 4.2.2. Sea V un espacio de dimensión finita n y B = {v1 , . . . , vn } una base de V . La función
MB : Bil(V ) → Mn (k) que a cada forma bilineal ϕ le asocia la matriz MB (ϕ) es un isomorfismo lineal.
Dem. Sean ϕ, ϕ′ ∈ Bil(V ) y a ∈ k. Es
MB a ϕ + ϕ′ = a ϕ + ϕ′ (vi , vj ) i,j = a ϕ (vi , vj ) + ϕ′ (vi , vj ) i,j = a (ϕ (vi , vj ))i,j + ϕ′ (vi , vj ) i,j
= a MB (ϕ) + MB ϕ′ .
Luego MB es lineal.
Sea A = (aij )i,j ∈ Mn (k). Definimos ϕ : V × V → k mediante ϕ(v, w) = ϕA (coordB v, coordB w), siendo
ϕA : kn × kn → k la forma bilineal definida en el Ejemplo 4.2.3. La Proposición 4.2.1 nos prueba que
ϕ ∈ Bil(V ). Operando obtenemos
si y sólo si A = MB (ϕ).
Dem. Se deduce inmediatamente de la demostración del teorema anterior.
Corolario 4.2.5. Si ϕ ∈ Bil (kn ) entonces existe una única matriz A ∈ Mn (k) tal que ϕ(v, w) = v t A w
para todo v, w en kn (es decir ϕ = ϕA ).
Dem. Sea B la base canónica de kn y A = MB (ϕ), entonces
Definición 4.2.2. Dos matrices A y B en Mn (k) se dicen congruentes si existe una matriz invertible Q en
Mn (k) tal que A = Qt B Q.
Teorema 4.2.7. Sea ϕ ∈ Bil(V ) y B una base de V . Si A ∈ Mn (k) es congruente con MB (ϕ), entonces
existe C base de V tal que MC (ϕ) = A.
Dem. Sea Q = (qij ) ∈ Mn (k) invertible tal que A = Qt MB (ϕ) Q. Si B = {v1 , . . . , vn }, definimos
C = {w1 , . . . , wn } mediante
Xn
wj = qij vi , j = 1, . . . , n.
i=1
Como Q es invertible, resulta que C es una base de V y B [id ]C = Q. Luego
A = Qt MB (ϕ) Q = (B [id ]C )t MB (ϕ) B [id ]C = MC (ϕ).
Corolario 4.2.8. Dos matrices son congruentes si y sólo si representan a la misma forma bilineal.
Dem. Sean A y A′ en Mn (k) dos matrices congruentes. Si consideramos la forma bilineal ϕA′ ∈ Bil (kn )
y B es la base canónica de kn es A′ = MB (ϕA′ ). Luego A es congruente con MB (ϕA′ ) y el teorema anterior
implica que A = MC (ϕA′ ) para alguna base C de V . El recı́proco es la Proposición 4.2.6.
2 ⇒ 3: Esto es obvio.
3 ⇒ 1: Sea B = {v1 , . . . , vn } una base de V tal que MB (ϕ) es simétrica, esto último equivale a ϕ(vi , vj ) =
ϕ(vj P
, vi ), ∀i, j = 1, . P
. . , n. Sean u, v ∈ V , entonces existen escalares ai , bi ∈ k, i = 1, . . . , n tales que
u = ni=1 ai vi y v = ni=1 bi vi . Luego
Xn n
X n
X n
X n
X n
X
ϕ(u, v) = ϕ ai vi , bj vj = ai bj ϕ (vi , vj ) = ai bj ϕ (vj , vi )
i=1 j=1 i=1 j=1 i=1 j=1
n
X n
X
= ϕ bj vj , ai vi = ϕ(v, u).
j=1 i=1
n(n+1)
Corolario 4.3.2. Si dim(V ) = n, entonces dim BilS (V ) = 2 .
Definición 4.3.2. Sea ϕ ∈ BilS (V ). La función Φ : V → k definida por Φ(v) = ϕ(v, v), ∀v ∈ V se llama la
forma cuadrática asociada a ϕ.
Observación 4.3.1. Las formas cuadráticas en V forman un subespacio de las funciones de V en k: es claro
que la función nula es una forma cuadrática (correspondiente a la forma bilineal nula). Si Φ y Ψ son dos
formas cuadráticas en V y a ∈ k, entonces existen ϕ y ψ en BilS (V ) tales que Φ(v) = ϕ(v, v) y Ψ(v) =
ψ(v, v), ∀v ∈ V, luego
Observación 4.3.2. Notar que para la propiedad 4 de la Proposición anterior es necesaria la condición
car k 6= 2.
Observar que los polinomios homogéneos de grado 2 en las indeterminadas x1 ,. . .,xn forman un subespacio
de k[x1 , . . . , xn ].
El isomorfismo entre formas bilineales simétricas y formas cuadráticas viene dado por las fórmulas
siguientes:
1
Φ(v) = ϕ(v, v), ϕ(u, v) = (Φ(u + v) − Φ(u) − Φ(v)) . (4.2)
2
Si A = (aij ) ∈ Mn (k) es una matriz simétrica, le asociamos el polinomio p en las indeterminadas
x1 , . . . , xn definido por
X aii si i = j,
p= bij xi xj , bij =
2 aij si i < j.
i≤j
Es claro que que p es un polinomio homogéneo de grado 2 en las indeterminadas x1 , . . . , xn y que esta
correspondencia es un isomorfismo entre las matrices simétricas y los polinomios homogéneos de grado
dos.
Ejemplo 4.3.2. En el caso n = 2, una matriz simétrica de orden 2 es una matriz de la forma A = ab bc .
La forma bilineal simétrica, la forma cuadrática y el polinomio homogéneo que corresponden a A son:
′
′ ′
a b x
ϕ (x, y), x , y = (x, y) · · = a x x′ + b x y ′ + b x′ y + c y y ′ ,
b c y′
Φ(x, y) = ϕ ((x, y), (x, y)) = a x2 + 2 b x y + c y 2 ,
p = a x2 + 2 b x y + c y 2 .
Observar que la única diferencia ente Φ y p es que Φ es una función de k × k en k, mientras que p es un
polinomio en dos variables.
Ejemplo 4.3.3. Sea ϕ ∈ BilS R3 tal que Φ(x, y, z) = x2 − y 2 . Entonces la base canónica {e1 , e2 , e3 } es
ϕ-ortonormal.
Ejemplo 4.3.4. Sea ϕ ∈ BilS Q2 tal que Φ(x, y) = 2x2 . Entonces la base canónica {e1 , e2 } es ϕ-ortogonal.
Observar que no existe ningún vector v de Q2 tal que Φ(v) = ±1, luego no existe ninguna base ϕ-ortonormal
de Q2 .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 68
Observación 4.3.3. Sea B una base de V . Es equivalente que B sea una base ϕ-ortogonal de V con que la
matriz MB (ϕ) sea diagonal y que B sea una base ϕ-ortonormal de V con que la matriz MB (ϕ) sea diagonal
y sus entradas diagonales sean 0, 1 o −1.
Si n = 1, toda base B = {v} de V es ϕ-ortogonal. Supongamos ahora que vale la tesis si la dimensión
del espacio es n − 1 y sea ϕ ∈ BilS (V ) con dim V = n. Si ϕ = 0, entonces toda base de V es ϕ-ortogonal.
Supongamos ahora que ϕ 6= 0. Por el lema anterior es Φ 6= 0, luego existe u ∈ V tal que Φ(u) 6= 0.
Definimos α ∈ V ∗ mediante α(v) = ϕ(v, u), ∀v ∈ V . Observar que α(u) = ϕ(u, u) = Φ(u) 6= 0, luego
α 6= 0 y entonces dim Ker α = n − 1. Aplicando la hipótesis de inducción ϕ restringida a Ker α tenemos que
existe {v1 , . . . , vn−1 } base de Ker α tal que ϕ(vi , vj ) = 0 si i 6= j.
Como u 6∈ Ker α = [v1 , . . . , vn−1 ], entonces el conjunto B = {v1 , . . . , vn−1 , u} es LI y al tener n elementos
es base de V . Como {v1 , . . . , vn−1 } ⊂ Ker α resulta que v1 , . . . , vn−1 son ϕ-ortogonales con u y luego B es
una base ϕ-ortogonal de V .
V0 := {v ∈ V : ϕ(v, u) = 0, ∀u ∈ V } = {v ∈ V : ϕ(u, v) = 0, ∀u ∈ V }.
ϕ(u, v) = 0, ∀v ∈ V ⇒ u = 0.
ϕI ((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + · · · + xn yn .
Sea v = (v1 , . . . , vn ) ∈ kn ,
v ∈ V0 ⇔ ut v = 0, ∀u ∈ V ⇔ eti v = 0, ∀i = 1, . . . , n ⇔ vi = 0, ∀i = 1, . . . , n ⇔ v = 0,
luego ϕI es no degenerada.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 69
Proposición 4.3.7. Sea A ∈ Mn (k) y consideremos ϕA ∈ BilS (kn ), ϕA (u, v) = ut A v. Vale V0 = Ker(LA ).
Dem.
v ∈ V0 ⇔ ut A v = 0, ∀u ∈ V ⇔ ϕI (u, A v) = 0, ∀u ∈ V ⇔ A v = 0 ⇔ v ∈ Ker(LA ).
Teorema 4.3.8. Sea B = {v1 , . . . , vn } una base ϕ-ortogonal de V y supongamos que ordenamos B de forma
tal que
Φ(vi ) = 0, ∀i = 1, . . . , s,
Φ(vi ) 6= 0, ∀i = s + 1, . . . , n.
1. V0 = [v1 , . . . , vs ].
2. ϕ es no degenerada en W .
3. V = V0 ⊕ W .
P
Dem. Sea u ∈ V . Sabemos que existen únicos escalares a1 , . . . , an tales que u = nj=1 aj vj . Sea i ∈
{1, . . . , s}. Aplicando la fórmula (4.3) obtenemos ϕ(vi , u) = ai Φ (vi ) = ai 0 = 0, luego v1 , . . . , vs pertenecen
a V0 .
P
Sea ahora w ∈ V0 , luego existen únicos escalares b1 , . . . , bn tales que w = nj=1 bj vj . Al ser w ∈ V0 , es
ϕ(w, v) = 0 para todo v ∈ V , en particular si i ∈ {s + 1, . . . , n} y aplicamos (4.3) obtenemos 0 = ϕ(w, vi ) =
bi Φ (vi ) y como Φ(vi ) 6= 0, resulta bi = 0 para todo i = s + 1, . . . , n y w ∈ [v1 , . . . , vs ]. Esto completa la
prueba de V0 = [v1 , . . . , vs ].
V = [v1 , . . . , vs ] ⊕ [vs+1 , . . . , vn ] = V0 ⊕ W.
Probaremos
P ahora que ϕ es no degenerada en W . Sea w ∈ W tal que ϕ(w, v) = 0 para todo v ∈ W . Es
w = nj=s+1 bj vj , con bs+1 , . . . , bn ∈ k. Si i ∈ {s + 1, . . . , n}, es vi ∈ W . Luego la misma cuenta que antes
nos prueba que 0 = ϕ(w, vi ) = bi Φ (vi ) y como Φ(vi ) 6= 0 es bi = 0, para todo i = s + 1, . . . , n y resulta
w = 0.
Observación 4.3.4. El espacio W en la descomposición anterior no es único. Por ejemplo, si ϕ ∈ BilS R2
está definida mediante ϕ((x, y), (x′ , y ′ )) = x x′ , entonces es R2 0 = [(0, 1)] y podemos tomar como W a
cualquier recta por el origen distinta del eje Oy.
Definición 4.3.8. Llamamos rango de ϕ al rango de MB (ϕ), siendo B una base cualquiera de V . Esta
definición tiene sentido porque dos matrices congruentes siempre tienen el mismo rango.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 70
Dem. Sea B = {v1 , . . . , vn } una base ϕ-ortogonal de V y supongamos que ordenamos B de forma tal
que
Φ(vi ) = 0, ∀i = 1, . . . , s,
Φ(vi ) 6= 0, ∀i = s + 1, . . . , n.
Definición 4.4.1. Sea A ∈ Mn (k). Se llaman operaciones elementales en las filas o columnas de A a las
siguientes:
2. Operación de tipo II. Multiplicar una fila o columna de A por una constante no nula.
3. Operación de tipo III. Sumarle a una fila o columna un múltiplo de otra fila o columna respectivamente.
Definición 4.4.2. Se llaman matrices elementales de tipo I, II o III a las matrices que se obtienen aplicando
las operaciones elementales correspondientes a la matriz identidad.
Matrices de tipo I:
1
..
.
0 ··· 1
.. . . ..
. . . .
1 ··· 0
..
.
1
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 71
Observación 4.4.1. Observar que la traspuesta de una matriz elemental es una matriz elemental del mismo
tipo.
Ejercicio 4.4.1. Probar que las matrices elementales son invertibles y hallar sus inversas.
Ejercicio 4.4.2. Probar que realizar una operación elemental de tipo I, II o III en las columnas (filas) de
una matriz A, equivale a multiplicar a A por la derecha (izquierda) con una matriz elemental del mismo
tipo.
1 2 3 4 1 0 0 0
5 6 7 8
Ejemplo 4.4.1. Sea A = y E = 0 0 1 0 que se obtiene intercambiando las columnas
9 1 2 3 0 1 0 0
4 5 6 7 0 0 0 1
2 y 3 en la matriz identidad (matriz de tipo I). Observar que tenemos
1 2 3 4 1 0 0 0 1 3 2 4
5 6 7 8
A·E = · 0 0 1 0 = 5 7 6 8 ,
9 1 2 3 0 1 0 0 9 2 1 3
4 5 6 7 0 0 0 1 4 6 5 7
1 0 0 0 1 2 3 4 1 2 3 4
0 0 1 0
E ·A= · 5 6 7 8 = 9 1 2 3 .
0 1 0 0 9 1 2 3 5 6 7 8
0 0 0 1 4 5 6 7 4 5 6 7
Es decir que multiplicar a la matriz A por la derecha con la matriz E equivale a intercambiar las columnas
2 y 3 de A, mientras que multiplicar a la matriz A por la izquierda con la matriz E equivale a intercambiar
las filas 2 y 3 de A.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 72
Ejercicio 4.4.3. Probar que si realizar una operación elemental en las columnas de A corresponde a multi-
plicar por la derecha a A con una cierta matriz elemental E, entonces realizar la misma operación elemental
en las filas de A corresponde a multiplicar por la izquierda a A con E t .
Nuestro objetivo es obtener una forma diagonal para la matriz asociada a la forma bilineal simétrica
ϕ ∈ BilS (V ), lo cual corresponde a hallar una base ϕ-ortogonal de V .
Mostraremos el método mediante un ejemplo. Consideremos ϕ ∈ BilS (R3 ) definida en el Ejemplo 4.4.2.
Primero sumamos a la tercer columna de A = MC (ϕ) la segunda multiplicada por −1 y luego sumamos a la
tercer fila la segunda multiplicada por −1.
−7 4 1 −7 4 −3 −7 4 −3
4 −2 −2 ⇒ 4 −2 0 ⇒ 4 −2 0 . (4.4)
1 −2 7 1 −2 9 −3 0 9
Ahora le sumamos a la primer columna la segunda multiplicada por 2 y luego sumamos a la primer fila la
segunda multiplicada por 2.
−7 4 −3 1 4 −3 1 0 −3
4 −2 0 ⇒ 0 −2 0 ⇒ 0 −2 0 . (4.5)
−3 0 9 −3 0 9 −3 0 9
Finalmente le sumamos a la tercer columna la primera multiplicada por 3 y luego sumamos a la tercer fila
la primera multiplicada por 3.
1 0 −3 1 0 0 1 0 0
0 −2 0 ⇒ 0 −2 0 ⇒ 0 −2 0 = D. (4.6)
−3 0 9 −3 0 0 0 0 0
Observar que la matriz obtenida en (4.4) corresponde a calcular E1t A E1 siendo
1 0 0
E1 = 0 1 −1 .
0 0 1
La matriz obtenida en (4.5) corresponde a calcular E2t E1t A E1 E2 , siendo
1 0 0
E2 = 2 1 0 .
0 0 1
Finalmente la matriz obtenida en (4.6) corresponde a calcular E3t E2t E1t A E1 E2 E3 , siendo
1 0 3
E3 = 0 1 0 .
0 0 1
Luego es D = Qt A Q, siendo
1 0 3
Q = E1 E2 E3 = 2 1 5 .
0 0 1
Esto nos dice que si
B = {(1, 2, 0), (0, 1, 0), (3, 5, 1)}
entonces MB (ϕ) = D y B es una base ϕ-ortogonal de R3 .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 74
8. Φ es no degenerada si lo es ϕ, es decir si
ϕ(u, v) = 0, ∀v ∈ V ⇒ u = 0.
Decimos que una forma bilineal simétrica verifica una propiedad de las anteriores si la verifica su forma
cuadrática asociada, por ejemplo decimos que ϕ es definida positiva si lo es Φ, etcétera.
2. V+ y V− son ϕ-ortogonales.
3. V = V0 ⊕ V+ ⊕ V− .
Dem. Sea B = {v1 , . . . , vn } una base ϕ-ortogonal de V . Podemos suponer B ordenada de forma tal que
Φ(vi ) = ai , ∀i = 1, . . . , p
Φ(vi ) = −ai , ∀i = p + 1, . . . , r
Φ(vi ) = 0, ∀i = r + 1, . . . , n.
V+ = [v1 , . . . , vp ], V− = [vp+1 , . . . , vr ].
Es claro que V = V0 ⊕ V+ ⊕ V− . Además como B es una base ϕ-ortogonal, sus vectores Pnson ϕ-ortogonales
dos a dos, luego V+ y V− son ϕ-ortogonales. Por otro lado observemos que si v = i=1 xi vi ∈ V , con
x1 , . . . , xn ∈ R, es
n
X n
X n
X n
X Xn
Φ(v) = ϕ(v, v) = ϕ xi vi , xj vj = xi xj ϕ (vi , vj ) = x2i ϕ (vi , vi ) = x2i Φ (vi )
i=1 j=1 i,j=1 i=1 i=1
p
X r
X
= ai x2i − ai x2i .
i=1 i=p+1
Pp
Sea 0 6= w ∈ V+ . Es w = i=1 yi vi , con y1 , . . . , yp ∈ R y algún yi 6= 0, luego
p
X
Φ(w) = ai yi2 > 0.
i=1
Esto prueba que Φ es definida positiva en V+ . Análogamente se prueba que Φ es definida negativa en V− .
Ejemplo 4.5.1. Sea ϕ ∈ BilS (V ), V = R2 , tal que Φ(x, y) = x2 − y 2 , x, y ∈ R. Es fácil de probar que el
rango de ϕ es 2, luego ϕ es no degenerada y V0 = {0}. Observar que las bases
Definición 4.5.2. Sea ϕ ∈ BilS (V ). Decimos que dos subespacios V+ y V− forman una ϕ-descomposición
de V si verifican
2. V+ y V− son ϕ-ortogonales.
3. V = V0 ⊕ V+ ⊕ V− .
Ejercicio 4.5.1. Interpretar la observación anterior en términos de las entradas diagonales de una repre-
sentación matricial diagonal de ϕ.
2. V+ y V− son ϕ-ortogonales.
4. W+ y W− son ϕ-ortogonales.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 77
Por otro lado, como v ∈ W− , si fuese v 6= 0 serı́a Φ(v) < 0 lo cual nos lleva a una contradicción. Entonces
la única posibilidad es v = 0 y resulta W− ∩ (V+ ⊕ V0 ) = {0}. Como es
V0 ⊕ V+ ⊕ V− = V ⊃ W− + (V+ ⊕ V0 ) = W− ⊕ (V+ ⊕ V0 ) ,
deducimos
dim V0 + dim V+ + dim V− ≥ dim W− + dim V+ + dim V0 .
Luego es dim V− ≥ dim W− . Razonando análogamente con V− ∩(W+ ⊕ V0 ) deducimos que dim W− ≥ dim V−
y resulta dim V− = dim W− . Finalmente tomando dimensiones en V = V0 ⊕ V+ ⊕ V− y V = V0 ⊕ W+ ⊕ W−
deducimos que dim V+ = dim W+ .
Corolario 4.5.3 (Ley de inercia de Sylvester). El número de entradas positivas, negativas y nulas de una
matriz diagonal asociada a una forma cuadrática no depende de la representación diagonal.
Observación 4.5.4. Consideremos ϕ ∈ BilS (V ) siendo dim V = n y B una base ϕ-ortogonal de V . Sean s
la signatura de ϕ, r el rango de ϕ, p el número de entradas positivas de MB (ϕ), q el número de entradas
negativas de MB (ϕ) y t el número de entradas nulas de MB (ϕ). Entonces el ı́ndice de Φ es p y tenemos las
siguientes relaciones
s = p − q, r =p+q
1 1
p = (r + s), q = (r − s), t = n − r.
2 2
En particular es 2p = r + s, luego los tres invariantes quedan determinados conociendo dos de ellos.
Φ(vi ) = 0, ∀i = 1, . . . , s
Φ(vi ) > 0, ∀i = s + 1, . . . , p
Φ(vi ) < 0, ∀i = p + 1, . . . , n.
Φ(vi ) = a2i , ∀i = s + 1, . . . , p
Φ(vi ) = −b2i , ∀i = p + 1, . . . , n.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 78
wi = vi , ∀i = 1, . . . , s
1
wi = vi , ∀i = s + 1, . . . , p
ai
1
wi = vi , ∀i = p + 1, . . . , n.
bi
Proposición 4.5.5 (Ley de inercia de Sylvester para matrices). Si A es una matriz simétrica real, entonces
el número de entradas positivas, negativas y nulas de una matriz diagonal congruente con A es independiente
de la matriz diagonal.
Dem. Sea ϕ ∈ BilS (Rn ) definida por ϕ(u, v) = ut A v. Si D es una matriz diagonal congruente con A,
entonces existe B base de Rn tal que MB (ϕ) = D. Luego la Ley de inercia de Sylvester nos dice que el
número de entradas positivas, negativas y nulas de D depende solo de ϕ (por lo tanto de A) y no de D.
Definición 4.5.4. Sea A ∈ Mn (R) simétrica y D una matriz diagonal congruente con A. Definimos el ı́ndice
de A como el número de entradas diagonales positivas de D y la signatura de A como la diferencia entre el
número de entradas diagonales positivas y el de entradas diagonales negativas de D. La Ley de Inercia de
Sylvester para matrices nos garantiza que esta definición no depende de la matriz diagonal D.
Observar que el ı́ndice y la signatura de A coinciden con el ı́ndice y la signatura de ϕA ∈ BilS (Rn )
definida por ϕA (u, v) = ut A v. La signatura, el ı́ndice y el rango son los invariantes de la matriz simétrica
A.
Observación 4.5.5. De la Ley de Inercia de Sylvester para matrices se deduce inmediatamente que si dos
matrices simétricas son congruentes, entonces tienen los mismos invariantes.
Teorema 4.5.6. Si A es una matriz simétrica real, entonces A es congruente con una única matriz diagonal
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 79
D de la forma
1
..
.
1
−1
..
D= . . (4.7)
−1
0
..
.
0
Dem. Sea ϕA ∈ BilS (Rn ) definida por ϕA (u, v) = ut A v. Por la Proposición 4.5.4 sabemos que existe
B base ϕA -ortonormal de Rn . Si D = MB (ϕA ), entonces podemos considerar B ordenada de forma tal que
D tiene la forma (4.7). Si C es la base canónica de Rn , entonces es A = MC (ϕA ) y D = Qt A Q, siendo
Q = C [id ]B . Esto prueba la existencia de la matriz D.
Para probar la unicidad, si la matriz A es congruente con D y con D̂, siendo D y D̂ matrices diagonales
de la forma (4.7), entonces D y D̂ son congruentes entre sı́ y luego tienen los mismos invariantes. Como el
ı́ndice de una matriz de esta forma es la cantidad de entradas diagonales que valen 1 y la signatura es la
diferencia entre la cantidad de entradas diagonales que valen 1 y la de entradas diagonales que valen −1,
resulta que D y D̂ tienen la misma cantidad de entradas diagonales que valen 1 y la misma cantidad de
entradas diagonales que valen −1, luego D = D̂.
Corolario 4.5.7. Dos matrices simétricas reales son congruentes si y sólo si tienen los mismos invariantes.
Dem. Ya sabemos que si dos matrices simétricas reales son congruentes, entonces tienen los mismos
invariantes. Para probar el recı́proco, si A y B son matrices simétricas, entonces sabemos que A es congruente
con una única matriz diagonal DA de forma (4.7) y B es congruente con una única matriz diagonal DB
de forma (4.7). Como la cantidad de entradas diagonales que valen 1 y la cantidad de entradas diagonales
que valen −1 en DA y DB depende solo de los invariantes de A y de B respectivamente y estos coinciden,
entonces DA = DB . Luego A y B son congruentes entre sı́.
Teorema 4.5.8. Sea ϕ ∈ BilS (V ), siendo V un espacio vectorial real con producto interno de dimensión
finita. Entonces existe una base ortonormal B de V tal que MB (ϕ) es diagonal.
Dem. Sea C = {w1 , . . . , wn } una base ortonormal cualquiera de V y A = MC (ϕ). La matriz A es simétrica
real, luego existen matrices D y Q = (qij ) en Mn (R) tales que D es diagonal, Q es ortogonal y
D = Q−1 A Q = Qt A Q.
P
Sea B = {v1 , . . . , vn } el conjunto definido por vj = ni=1 qij wi , j = 1, . . . , n. Como la matriz Q es ortogonal
y la base C es ortonormal, entonces el conjunto B es una base ortonormal de V y Q = C [id ]B . Luego
Corolario 4.5.9. Sea ϕ ∈ BilS (V ), B una base de V y A = MB (ϕ). Entonces la cantidad de entradas
diagonales positivas, negativas y nulas de una representación matricial diagonal cualquiera de ϕ coincide
respectivamente con la cantidad de valores propios positivos, negativos y nulos de A.
Dem. Por la Ley de Inercia de Sylvester, basta probar que se cumple el enunciado para alguna repre-
sentación matricial diagonal de ϕ.
Sea h , i el único producto interno de V que hace que B sea una base ortonormal de V . Aplicando el
teorema anterior sabemos que existe una base ortonormal B̃ de V tal que D = MB̃ (ϕ) es diagonal. Luego es
Como B y B̃ son dos bases ortonormales, entonces Q = B̃ [id ]B es una matriz ortogonal i.e. Qt = Q−1 . Luego
A = Q−1 D Q y resulta que A y D tienen los mismos valores propios. Por otro lado, como D es una matriz
diagonal, tenemos que los valores propios de D coinciden con sus entradas diagonales. Luego la cantidad de
entradas diagonales positivas, negativas y nulas de D es la cantidad de valores propios positivos, negativos
y nulos de D y estos coinciden con los de A.
En efecto, es
0 = ω(v1 , . . . , vi + vj , . . . , vi + vj , . . . , vn )
= ω (v1 , . . . , vi , . . . , vi , . . . , vn ) + ω (v1 , . . . , vi , . . . , vj , . . . , vn ) + ω (v1 , . . . , vj , . . . , vi , . . . , vn )
+ω (v1 , . . . , vj , . . . , vj , . . . , vn )
= 0 + ω (v1 , . . . , vi , . . . , vj , . . . , vn ) + ω (v1 , . . . , vj , . . . , vi , . . . , vn ) + 0
= ω (v1 , . . . , vi , . . . , vj , . . . , vn ) + ω (v1 , . . . , vj , . . . , vi , . . . , vn ) ,
Recı́procamente, si car k 6= 2 y ω es una n-forma multilineal que verifica (4.9) entonces verifica (4.8):
Observar que lo anterior prueba que (4.8) y (4.9) son equivalentes si car k 6= 2.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 81
Escribiremos
Altk (V ) = {ω : V
| × ·{z
· · × V} → k : ω es una k-forma multilineal alternada}, k = 1, 2, . . .
k
Es un ejercicio verificar que Altk (V ) es un subespacio del espacio de las k-formas multilineales en V , luego
Altk (V ) es un espacio vectorial. Observar que Alt1 (V ) = V ∗ . Definimos Alt0 (V ) := k.
De esta forma es fácil probar que ω es una 2-forma alternada en R3 . Observar que la matriz en la igualdad
(4.10) es antisimétrica, es decir verifica At = −A.
Como k > n, en el conjunto ej1 , . . . , ejk necesariamente hay elementos repetidos, luego ω (ej1 , . . . , ejk ) = 0,
∀j1 , . . . , jk y ω(v1 , . . . , vk ) = 0. Como v1 , . . . , vk ∈ V son arbitrarios se deduce que ω = 0
ω (ei1 , . . . , eik ) = 0, ∀i1 , . . . , ik ∈ {1, . . . , n} tales que 1 ≤ i1 < i2 < · · · < ik ≤ n. (4.11)
Pn Pn
Supongamos que ω verifica (4.11). Sean v1 , . . . , vk ∈ V , v1 = j1 =1 aj1 ej1 , . . . , vk = jk =1 ajk ejk , luego
n
X n
X n
X
ω(v1 , . . . , vk ) = ω aj1 ej1 , . . . , ajk ejk = aj1 · · · ajk ω (ej1 , . . . , ejk ) . (4.12)
j1 =1 jk =1 j1 =···=jk =1
Observar que si existen p 6= q tales que ejp = ejq , entonces ω (ej1 , . . . , ejk ) = 0. Por otro lado, si ej1 , . . . , ejk son
distintos entre sı́, podemos reordenarlos para obtener un conjunto ei1 , . . . , eik con 1 ≤ i1 < i2 < · · · < ik ≤ n.
Notar que siempre podemos pasar de la k-upla (ej1 , . . . , ejk ) a la k-upla (ei1 , . . . , eik ) realizando una cantidad
finita de intercambios entre los elementos de (ej1 , . . . , ejk ), cada intercambio corresponde a un cambio de
signo en ω, de donde aplicando (4.11) obtenemos
Luego todos los sumandos de (4.12) son nulos y ω(v1 , . . . , vk ) = 0. Como v1 , . . . , vk ∈ V son arbitrarios se
deduce que ω = 0.
ω (ei1 , . . . , eik ) = η (ei1 , . . . , eik ) , ∀i1 , . . . , ik ∈ {1, . . . , n} tales que 1 ≤ i1 < i2 < · · · < ik ≤ n.
Claramente α1 ∧ · · · ∧ αk ∈ Altk (V ), α1 , . . . , αk ∈ V ∗ .
Consideremos V = R3 , {e1 , e2 , e3 } la base canónica y {e∗1 , e∗2 , e∗3 } la base dual en V ∗ , es decir
Entonces
x x′
(e∗1∧ (x, y, z), x , y , z =
e∗2 ) ′ ′ ′
= x y ′ − y x′ ,
y y′
x x′
(e1 ∧ e3 ) (x, y, z), x , y , z =
∗ ∗ ′ ′ ′
= x z ′ − z x′ ,
z z′
y y ′
(e2 ∧ e3 ) (x, y, z), x , y , z =
∗ ∗ ′ ′ ′
= y z′ − z y′,
z z′
Observar que si ω es la 2-forma del ejemplo 4.6.1, entonces ω = e∗1 ∧ e∗2 + 2 e∗2 ∧ e∗3 .
Si consideramos de nuevo V = R3 , {e1 , e2 , e3 } la base canónica y {e∗1 , e∗2 , e∗3 } la base dual en V ∗ , entonces
x x′ x′′
∗ ∗ ∗ ′ ′ ′ ′′ ′′ ′′
(e1 ∧ e2 ∧ e3 ) (x, y, z), x , y , z , x , y , z = y y ′ y ′′ .
z z′ z ′′
1. α ∧ α = 0 y α ∧ β = −β ∧ α, ∀α, β ∈ V ∗ .
α1 ∧ · · · ∧ αi ∧ · · · ∧ αj ∧ · · · ∧ αk = −α1 ∧ · · · ∧ αj ∧ · · · ∧ αi ∧ · · · ∧ αk .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 84
Teorema 4.6.5. Sea {e1 , . . . , en } una base de V y {e∗1 , . . . , e∗n } la base dual en V ∗ , entonces
B = e∗i1 ∧ · · · ∧ e∗ik : 1 ≤ i1 < · · · < ik ≤ n
Dem. Sea k ∈ {1, . . . , n} y ω ∈ Altk (V ). Probaremos que ω se escribe en forma única como combinación
lineal de B, es decir que existen únicos ai1 ,...,ik ∈ k, 1 ≤ i1 < · · · < ik ≤ n tales que
X
ω= ai1 ,...,ik e∗i1 ∧ · · · ∧ e∗ik .
1≤i1 <···<ik ≤n
Observar que aplicando el Corolario 4.6.3, obtenemos que se verifica esta última igualdad si y sólo si
X
ω (j1 , . . . , jk ) = ai1 ,...,ik e∗i1 ∧ · · · ∧ e∗ik (ej1 , . . . , ejk ) , (4.13)
1≤i1 <···<ik ≤n
En el caso (A), es e∗i1 (ejl ) = · · · = e∗ik (ejl ) = 0, luego en el determinante de la ecuación (4.14) la columna
l-ésima es nula y resulta e∗i1 ∧ · · · ∧ e∗ik (ej1 , . . . , ejk ) = 0.
En el caso (B) es {j1 , . . . , jk } = {i1 , . . . , ik } siendo 1 ≤ j1 < · · · < jk ≤ n y 1 ≤ i1 < · · · < ik ≤ n, luego
necesariamente es i1 = j1 , . . . , ik = jk y
1 0 ··· 0
0 1 ··· 0
∗ ∗ ∗ ∗
ei1 ∧ · · · ∧ eik (ej1 , . . . , ejk ) = ei1 ∧ · · · ∧ eik (ei1 , . . . , eik ) = . . . .. = 1.
.. .. .. .
0 0 ··· 1
Esto concluye la prueba de que B es base de Altk (V ), además obtuvimos cómo representar una k-forma ω
en términos de esta base: X
ω= ω (ei1 , . . . , eik ) e∗i1 ∧ · · · ∧ e∗ik .
1≤i1 <···<ik ≤n
n
n!
Recordemos el sı́mbolo combinatorio k = (n−k)!k! que está definido para todo n, k ∈ N, n ≥ k.
n
Corolario 4.6.6. Si dim V = n y k ≤ n, entonces dim Altk (V ) = k .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 85
Ejemplo 4.6.5. Supongamos que dim V = 3 y sea {e1 , e2 , e3 } una base de V , entonces Altk (V ) = {0}, ∀k ≥
4y
3
{1} es una base de Alt0 (V ) = k, dim Alt0 (V ) = = 1,
0
∗ ∗ ∗ ∗ 3
{e1 , e2 , e3 } es una base de Alt1 (V ) = V , dim Alt1 (V ) = = 3,
1
∗ ∗ ∗ ∗ ∗ ∗ 3
{e1 ∧ e2 , e1 ∧ e3 , e2 ∧ e3 } es una base de Alt2 (V ), dim Alt2 (V ) = = 3,
2
3
{e∗1 ∧ e∗2 ∧ e∗3 } es una base de Alt3 (V ), dim Alt3 (V ) = = 1.
3
En el caso de V = R3 estas bases fueron halladas explı́citamente en los ejemplos 4.6.3 y 4.6.4.
Ejemplo 4.6.6. Si V = kn y {e1 , . . . , en } es la base canónica de kn , entonces dim Altn (V ) = nn = 1 y
{e∗1 ∧ · · · ∧ e∗n } es una base de Altn (V ).
∗
e (x11 , . . . , xn1 ) · · · e∗ (x1n , . . . , xnn )
1 1
.. .. ..
(e∗1 ∧ · · · ∧ e∗n ) ((x11 , . . . , xn1 ) , . . . , (x1n , . . . , xnn )) = . . .
∗
en (x11 , . . . , xn1 ) · · · e∗n (x1n , . . . , xnn )
x11 · · · x1n
.. .
= ... ..
. .
xn1 · · · xnn
Luego e∗1 ∧ · · · ∧ e∗n = det (el determinante) y {det} es una base de Altn (V ).
Capı́tulo 5
Apéndices
Observación 5.1.1. Si consideramos el polinomio constante 1 ∈ k[x], resulta 1(T ) = id y 1(A) = I para todo
T ∈ L(V ), A ∈ Mn (k).
Ejemplo 5.1.1. Sea T ∈ L R2 definida por T (x, y) = (x, 2x+y) y consideremos p = x3 +x2 −x+2 ∈ R[x].
1 0 3 2 3 0
Es T = LA , siendo A = . Luego p(A) = A + A − A + 2I = y p(T )(x, y) = (3x, 8x + 3y),
2 1 8 3
∀(x, y) ∈ R2 .
86
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 87
[(λ p + q)(T )]B = (λ p + q) ([T ]B ) = λ p ([T ]B ) + q ([T ]B ) = λ [p(T )]B + [q(T )]B = [λ p(T ) + q(T )]B ,
5.2.2. El teorema
Recordar (ver capı́tulo 1, teorema 1.0.20) que si T ∈ L(V ) es diagonalizable, existen escalares distintos
λ1 , . . . , λh y operadores no nulos P1 , . . . , Ph únicos tales que
2. Pi ◦ Pj = 0 si i 6= j.
3. id = P1 + · · · + Ph .
4. T = λ1 P1 + · · · + λh Ph .
Vamos a probar que para cada i, existe un polinomio pi ∈ k[x] tal que pi (T ) = Pi .
P
Observación 5.2.1. Es un ejercicio del práctico probar que si T = ki=1 λi Pi es la descomposición espectral
de un operador diagonalizable T y q(x) ∈ k[x], entonces
X k Xk
q
λj Pj = q(λj ) Pj .
j=1 j=1
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 89
Pk
Proposición 5.2.2. Sea T ∈ L(V ) un operador diagonalizable y consideremos T = i=1 λi Pi la descom-
posición espectral de T . Entonces cada Pi es un polinomio en T .
Dem. Dado que λ1 , . . . , λk son escalares distintos, podemos considerar los polinomios de Lagrange
q1 (x), . . . , qk (x) asociados a λ1 , . . . , λk ; luego
Xk Xk k
X
qi (T ) = qi
λj Pj = qi (λj ) Pj = δij Pj = Pi ⇒ Pi = qi (T ), ∀i = 1, . . . , k.
j=1 j=1 j=1
En los cursos de secundaria se prueba que si tenemos p(x) y q(x) en k[x] con q(x) no nulo y gr p(x) ≥
gr q(x), entonces mcd (p(x), q(x)) = mcd (q(x), r(x)), siendo r(x) el resto de dividir p(x) por q(x). Iterando
este proceso obtenemos el algoritmo de Euclides que permite obtener el máximo común divisor de dos
polinomios:
p(x) = q(x) d1 (x) + r1 (x), gr r1 (x) < gr q(x)
q(x) = r1 (x) d2 (x) + r2 (x), gr r2 (x) < gr r1 (x)
r1 (x) = r2 (x) d3 (x) + r3 (x), gr r3 (x) < gr r2 (x)
r2 (x) = r3 (x) d4 (x) + r4 (x), gr r4 (x) < gr r3 (x) 1
⇒ mcd (p(x), q(x)) = rn (x). (5.1)
..
a
.
rn−2 (x) = rn−1 (x) dn (x) + rn (x), gr rn (x) < gr rn−1 (x)
rn−1 (x) = rn (x) dn+1 (x), rn+1 (x) = 0
Proposición 5.3.1. Sean p(x) y q(x) en k[x] no simultáneamente nulos. Entonces existen a(x) y b(x) en
k[x] tales que
mcd (p(x), q(x)) = a(x) p(x) + b(x) q(x). (5.2)
1
Dem. Si q(x) = 0 entonces mcd (p(x), 0) = a p(x), siendo a el coeficiente del término de mayor grado de
p(x). Luego es a(x) = a1 y b(x) = 0.
Supongamos que tenemos p(x) y q(x) en k[x] no nulos con gr p(x) ≥ gr q(x). Consideremos el algoritmo
de Euclides (5.1). Probaremos por inducción que para todo l ∈ {1, 2, . . . , n} existen polinomios al (x) y bl (x)
tales que
rl (x) = al (x) p(x) + bl (x) q(x).
Luego la relación (5.2) se obtiene considerando el caso l = n y dividiendo por el coeficiente del término de
mayor grado de rn (x).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 91
Observar que de la primera ecuación de (5.1) deducimos r1 (x) = d(x) p(x) − q(x), si llamamos a1 (x) =
d(x) y b1 (x) = −1, es
r1 (x) = a1 (x) p(x) + b1 (x) q(x).
De la segunda ecuación de (5.1) obtenemos
r2 (x) = −d2 (x) r1 (x) + q(x) = −d2 (x) (a1 (x) p(x) + b1 (x) q(x)) + q(x)
= (−d2 (x) a1 (x)) p(x) + (1 − d2 (x) b1 (x)) q(x).
Si llamamos a2 (x) = −d2 (x) a1 (x) y b2 (x) = 1 − d2 (x) b1 (x), es
r2 (x) = a2 (x) p(x) + b2 (x) q(x).
Razonando inductivamente, sea h < n y supongamos que para todo l ≤ h es rl (x) = al (x) p(x) + bl (x) q(x).
Despejando rh+1 (x) en (5.1) obtenemos
rh+1 (x) = −rh (x) dh+1 (x) + rh−1 (x)
= −(ah (x) p(x) + bh (x) q(x)) dh+1 (x) + ah−1 (x) p(x) + bh−1 (x) q(x)
= (−ah (x) dh+1 (x) + ah−1 (x)) p(x) + (−bh (x) dh+1 (x) + bh−1 (x)) q(x)
= ah+1 (x) p(x) + bh+1 (x) q(x),
siendo ah+1 = −ah (x) dh+1 (x) + ah−1 (x) y bh+1 (x) = −bh (x) dh+1 (x) + bh−1 (x).
Observar que es
p(x) = q(x) d1 (x) + r1 (x), gr r1 (x) < gr q(x)
q(x) = r1 (x) d2 (x) + r2 (x), gr r2 (x) < gr r1 (x)
r1 (x) = r2 (x) d3 (x), r3 (x) = 0.
Luego despejando r2 (x) de las dos primeras ecuaciones obtenemos
r2 (x) = −d2 (x) p(x) + (1 + d1 (x) d2 (x)) q(x) (5.3)
siendo r2 (x) = 5x + 5, d1 (x) = x3 − x2 − x + 3 y d2 (x) = x + 2. Si substituimos r2 (x), d1 (x) y d2 (x) en (5.3)
llegamos a
5x + 5 = −(x + 2) p(x) + (x4 + x3 − 3x2 + x + 7) q(x),
luego x + 1 = − 51 (x + 2) p(x) + 51 (x4 + x3 − 3x2 + x + 7) q(x) (verificarlo!).
Proposición 5.3.2. Sean p(x) y q(x) polinomios no nulos. Entonces se verifica que mcd (p(x), q(x)) = 1 si
y sólo si existen a(x) y b(x) en k[x] tales que
a(x) p(x) + b(x) q(x) = 1.
Dem. Si mcd (p(x), q(x)) = 1, entonces la proposición anterior nos prueba que existen a(x) y b(x) en
k[x] tales que a(x) p(x) + b(x) q(x) = 1.
Supongamos que existen polinomios a(x) y b(x) que verifican a(x) p(x) + b(x) q(x) = 1. Si m(x) divide
a p(x) y a q(x), entonces m(x) divide a a(x) p(x) + b(x) q(x) = 1, luego m(x) ∈ k. Esto prueba que
mcd (p(x), q(x)) = 1.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 92
siendo Ai ∈ Mni (k), Jji ∈ Mpi (k), con pi1 ≥ pi2 ≥ · · · ≥ piki . Probaremos que, con este orden en los bloques,
j
las matrices Ai y Jji dependen solo de T y no de la elección de la base B, luego la forma de Jordan es única
a menos del orden de los valores propios.
que se construye poniendo p1 puntos en la primer columna, p2 puntos en la segunda y ası́ sucesivamente
(ordenamos las columnas de izquierda a derecha). Observar que esto corresponde a poner en cada columna
tantos puntos como el tamaño del bloque de Jordan correspondiente.
4. Para conocer el diagrama de puntos de A, basta con conocer el número de filas (p1 ) y el número de
puntos de cada fila (rj ).
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 93
Ejemplo 5.4.1. 1. Si
λ 1 0
0 λ 1
0 0 λ
λ 1 0
A=
0 λ 1 ∈ M9 (R),
0 0 λ
λ 1
0 λ
λ
el diagrama de puntos de A es
• • • •
• • • .
• •
2. Si
λ 1 0
0 λ 1
0 0 λ
A=
λ 1 ∈ M7 (R),
0 λ
λ 1
0 λ
el diagrama de puntos de A es
• • •
• • • .
•
3. Si
λ 1 0
0 λ 1
0 0 λ
A=
λ ∈ M7 (R),
λ
λ
λ
el diagrama de puntos de A es
• • • • •
• .
•
Observar que en los dos últimos ejemplos es mA (t) = (t − λ)3 , es decir que ambas matrices tienen el
mismo polinomio minimal pero distinto diagrama de puntos.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 94
Observar que
B − λI
..
A − λI = . ,
E − λI
siendo
0 1 0 0
0 1 0
0 0 1
0
B − λI = , C − λ I = 0 0 1 , D − λI = 0 1 ,
0 0 0 1 0 0
0 0 0
0 0 0 0
E − λ I = (0).
Luego
(B − λ I)l
..
(A − λ I)l = . , l = 1, 2, . . .
(E − λ I)l
Calculando obtenemos
0 0 1 0 0 0 0 1
0 0 0 1 0
(B − λ I)2 = , (B − λ I)3 = 0 0 0 , (B − λ I)4 = 0,
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 1
(C − λ I)2 = 0 0 0 , (C − λ I)3 = 0, (D − λ I)2 = 0.
0 0 0
Luego es
rango (A − λ I) = 3b + 2c + d,
rango (A − λ I)2 = 2b + c,
rango (A − λ I)3 = b,
rango (A − λ I)4 = 0.
y deducimos
n − rango (A − λ I) = 4b + 3c + 2d + e − (3b + 2c + d)
= b + c + d + e = r1 ,
2
rango (A − λ I) − rango (A − λ I) = 3b + 2c + d − (2b + c) = b + c + d = r2 ,
rango (A − λ I)2 − rango (A − λ I)3 = 2b + c − b = b + c = r3 ,
rango (A − λ I)3 − rango (A − λ I)4 = b − 0 = b = r4 .
siendo Ai ∈ Mni (k), Jji ∈ Mpi (k), con pi1 ≥ pi2 ≥ · · · ≥ piki .
j
Para i ∈ {1, . . . , h} fijo, sea rj el número de puntos de la fila j del diagrama de puntos de Ai , entonces
1. r1 = dim V − rango (T − λi id ).
Es
h i (A1 − λi I)l
..
(T − λi id )l = . , l = 1, 2, . . . ,
B
(Ah − λi I)l
Ph
luego rango (T − λi id )l = j=1 rango (Aj − λi I)l , l = 1, 2, . . . .
Es
λj ∗
.. ..
. .
Aj = ∈ Mnj (k), siendo ∗ = 0 o ∗ = 1.
λj ∗
λj
Luego det (Aj − λi I) = (λj − λi )nj 6= 0 si j 6= i. Esto implica que Aj − λi I es invertible y por lo tanto
(Aj − λi I)l ∈ Mnj (k) es invertible ∀l = 1, 2, . . . . Entonces rango (Aj − λi I)l = nj , ∀l = 1, 2, . . . .
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 97
Luego
Definición 5.4.2. Si A ∈ Mn (k) y χA (t) = χLA (t) ∈ k[t] escinde, definimos la forma de Jordan de A como
la de LA .
Necesariamente es A2 = (3). Para el valor propio 2, el diagrama de puntos tiene tres puntos y r1 = 4 −
rango(A−2I) = 4−2 = 2 (ver (5.4.2) más adelante), esto implica que el diagrama de puntos correspondiente
es
2 1 0
• •
luego A1 = 0 2 0 .
•
0 0 2
Entonces la forma de Jordan de A es
2 1 0 0
0 2 0 0
J =
0
.
0 2 0
0 0 0 3
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 98
Para hallar la matriz de semejanza Q tenemos que hallar la base de Jordan correspondiente. Observar que
esta base es de la forma
B = {(LA − 2 id ) (v), v, u, w} ,
siendo {(LA − 2 id ) (v), u} una base de Ker (LA − 2 id ), Ker (LA − 2 id )2 = Ker (LA − 2 id ) ⊕ [v] y {w} una
base de Ker (LA − 3 id ).
Calculando obtenemos
0 −1 0 1 0 −2 1 1 −1 −1 0 1
0 1 −1 0 0 0 0 0 −1 0
A − 2I = , (A − 2I)2 = 0 , A − 3I = 0 .
0 1 −1 0 0 0 0 0 0 1 −2 0
0 −1 0 1 0 −2 1 1 0 −1 0 0
Luego
Ker (LA − 2 id ) = {(x, y, z, t) : y = z = t} = [(1, 0, 0, 0), (0, 1, 1, 1)],
Ker (LA − 2 id )2 = {(x, y, z, t) : −2y + z + t = 0} = [(1, 0, 0, 0), (0, 1, 0, 2), (0, 0, 1, −1)],
Ker (LA − 3 id ) = {(x, y, z, t) : x = t e y = z = 0} = [(1, 0, 0, 1)].
1 2 0 1
Proposición 5.4.3. Sea T ∈ L(V ), B una base de V y A = [T ]B . Supongamos que χA (t) = χT (t) escinde.
Entonces la forma de Jordan de T coincide con la forma de Jordan de A.
Dem. Sea χA (t) = χT (t) = (−1)n (t − λ1 )n1 · · · (t − λh )nh , con λi =
6 λj si i 6= j. Para probar que la forma
de Jordan de T coincide con la de A, basta con probar que tienen el mismo diagrama de puntos. Esto se
deduce de observar que para cada i es
rango(T − λi id ) = rango(A − λi I) = rango(LA − λi id )
y luego se aplica el Teorema 5.4.2.
Teorema 5.4.4. Sean A y B en Mn (k) tales que ambas tienen forma de Jordan y suponemos que los
bloques de Jordan correspondientes a los mismos valores propios están ordenados en tamaños decrecientes.
Entonces A y B son semejantes si y sólo si tienen (a menos de permutar los valores propios) la misma
forma de Jordan.
Dem. Si A y B tienen la misma forma de Jordan J, entonces A y B son semejantes a J y por lo tanto
son semejantes entre sı́.
Centro de Matemática Segundo Semestre 2007 Notas de Álgebra Lineal II 99
Sea
S = (x, y, z) ∈ R3 : a11 x2 + a22 y 2 + a33 z 2 + 2 a12 xy + 2 a13 xz + 2 a23 yz + b1 x + b2 y + b3 z + c = 0 ,
a11 a12 a13
siendo A = a21 a22 a23 =
6 0.
a31 a32 a33
Definimos Φ : R3 → R y α : R3 → R mediante:
S : Φ(X̃) + d = 0.
Realizamos el cambio de variable X̃ = Q X̂. Como Q es una matriz ortogonal, esto corresponde realizar un
giro de ejes (det Q = 1) o un giro de ejes seguido de una simetrı́a especular (det Q = −1). Es
x̂
Φ(X̃) = Φ(Q X̂) = (Q X̂)t A Q X̂ = X̂ t Qt A Q X̂ = X̂ t D X̂ = λ1 x̂2 + λ2 ŷ 2 + λ3 ẑ 2 , X̂ = ŷ .
ẑ
Entonces la ecuación de S respecto a las coordenadas x̂, ŷ y ẑ es
S : λ1 x̂2 + λ2 ŷ 2 + λ3 ẑ 2 + d = 0.
Consideremos ahora el caso en que d 6= 0. A menos de intercambiar x̂, ŷ y ẑ tenemos los casos siguientes:
1. Si λ1 , λ2 , λ3 y d tienen el mismo signo, entonces S es el conjunto vacı́o.
2. Si λ1 , λ2 , λ3 tienen el mismo signo y este signo es distinto del signo de d, entonces S es un elipsoide.
3. Si sg λ1 = sg λ2 6= sg λ3 = sg d, entonces S es un hiperboloide de una hoja.
4. Si sg λ1 6= sg λ2 = sg λ3 = sg d, entonces S es un hiperboloide de dos hojas.
Caso λ1 6= 0, λ2 = λ3 = 0. Es
S : λ1 x̃2 + β1 x̃ + β2 ỹ + β3 z̃ + c = 0.
x̃ = x̂
Si β2 =
6 0 o β3 =
6 0, entonces realizamos el cambio de variable ỹ = a ŷ − b ẑ y obtenemos
z̃ = b ŷ + a ẑ
S : λ1 x̂2 + β1 x̂ + γ ŷ + c = 0, con γ = β2 a + β3 b.
Si β2 = β3 = 0, entonces:
S : λ1 x̃2 + β1 x̃ + c = 0.
Sea ∆ = β12 − 4 λ1 c. Tenemos las siguientes posibilidades:
1. Si ∆ < 0, entonces S es el conjunto vacı́o.
√ √
−β1 + ∆ −β1 − ∆
2. Si ∆ > 0, entonces S son dos planos paralelos: x̃ = 2 λ1 y x̃ = 2 λ1 .
−β1
3. Si ∆ > 0, entonces S es un plano (doble): x̃ = 2 λ1 .
Caso λ1 6= 0, λ2 6= 0 y λ3 = 0. Es
S : λ1 x̃2 + λ2 ỹ 2 + β1 x̃ + β2 ỹ + β3 z̃ + c = 0.
S : λ1 x̂2 + λ2 ŷ 2 + β3 ẑ + η = 0,
β12 β22
siendo η = c − 4 λ1 − 4 λ2 .
Caso β3 = 0. Es S : λ1 x̂2 + λ2 ŷ 2 + η = 0
1. Si η = 0, entonces tenemos dos posibilidades:
a) Si sg λ1 = sg λ2 , entonces S es la recta (doble) x̂ = 0 y ŷ = 0.
q q
b) Si sg λ1 6= sg λ2 , entonces S son dos planos secantes y = −λ λ2
1
x̂ e y = − −λ1
λ2 x̂.
Caso β3 6= 0. Es S : λ1 x̂2 + λ2 ŷ 2 + β3 ẑ + η = 0.
EJEMPLO
2 0 1
Sea S : 2 x2 + y 2 − z 2 + 2 xz + 4 x − 4 y + 2 z + 3 = 0. Es A = 0 1 0 , luego det A = −3 6= 0
1 0 −1
y sabemos que existe un vector X0 tal que 2 A X0 + B = 0, siendo B = (4, −1, 2). Calculando obtenemos
X0 = (−1, 2, 0), luego realizando el cambio de variable x = x̃ − 1, y = ỹ + 2 y z = z̃ obtenemos
S : 2 x̃2 + ỹ 2 − z̃ 2 + 2 x̃z̃ − 3 = 0.
Observar que det A = −3 implica que el producto de los valores propios de A es negativo, por otro lado
la suma de los valores propios de A coincide con tr A = 2 > 0, luego necesariamente hay un valor propio
negativo y dos positivos. El valor de d se obtiene substituyendo las coordenadas de X0 en la fórmula que
define a S:
d = 2(−1)2 + (2)2 − (0)2 + 2(−1)(0) + 4(−1) − 4(2) + 2(0) + 3 = −3.
Luego realizando el cambio de variable X̃ = Q X̂ obtenemos una ecuación de la forma a2 x̂2 +b2 ŷ 2 −c2 ẑ 2 −3 =
0, siendo a2 , b2 y −c2 los valores propios de A. Operando llegamos a
a2 2 b2 2 c2 2
x̂ + ŷ − ẑ = 1
3 3 3
que es la ecuación de un hiperboloide de una hoja.
√
−1+ 13
Observar
√
que en este caso podemos hallar explı́citamente los valores propios, estos son 1, 2 y
−1− 13
2 , luego la ecuación de S queda
√ ! √ !
1 2 −1 + 13 1+ 13
x̂ + ŷ 2 − ẑ 2 = 1.
3 6 6