Sei sulla pagina 1di 151

CUADERNOS DE ÁLGEBRA

No. 4
Álgebra lineal

Oswaldo Lezama

Departamento de Matemáticas
Facultad de Ciencias
Universidad Nacional de Colombia
Sede de Bogotá

30 de mayo de 2017
ii

Cuaderno dedicado a Toñita, mi madre.


Contenido

Prólogo v

1. Matrices 1
1.1. Estructuras algebraicas básicas . . . . . . . . . . . . . . . . . . . . . 1
1.2. Matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Inversa de una matriz y cambio de base . . . . . . . . . . . . . . . . . 13
1.4. Matrices y operaciones elementales . . . . . . . . . . . . . . . . . . . 17
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2. Determinantes y sistemas de ecuaciones lineales 22


2.1. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2. Determinantes y funciones multilineales . . . . . . . . . . . . . . . . . 27
2.3. Menores y cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Ideales, rango y sistemas de ecuaciones . . . . . . . . . . . . . . . . . 35
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3. Producto tensorial 50
3.1. Producto tensorial de espacios vectoriales . . . . . . . . . . . . . . . . 50
3.2. Producto tensorial de transformaciones y matrices . . . . . . . . . . . 54
3.3. Funciones multilineales y tensores . . . . . . . . . . . . . . . . . . . . 58
3.4. Tensores simétricos, antisimétricos y alternados . . . . . . . . . . . . 63
3.5. Álgebras y producto tensorial . . . . . . . . . . . . . . . . . . . . . . 68
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

4. Formas canónicas 77
4.1. Polinomios mı́nimo y caracterı́stico . . . . . . . . . . . . . . . . . . . 77
4.2. Forma canónica clásica . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.3. Forma canónica racional . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.4. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 92
4.5. Forma canónica diagonal: valores y vectores propios . . . . . . . . . . 97
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

iii
iv CONTENIDO

5. Grupos de matrices 109


5.1. Grupos de matrices sobre cuerpos . . . . . . . . . . . . . . . . . . . . 109
5.2. Grupos de matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . 124
5.3. El grupo elemental sobre anillos conmutativos . . . . . . . . . . . . . 127
5.4. Grupos clásicos sobre anillos . . . . . . . . . . . . . . . . . . . . . . . 134
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

Bibliografı́a 144
Prólogo

La colección Cuadernos de álgebra consta de 10 publicaciones sobre los principales


temas de esta rama de las matemáticas, y pretende servir de material para preparar
los exámenes de admisión y de candidatura de los programas colombianos de doc-
torado en matemáticas. Los primeros cinco cuadernos cubren el material básico de
los cursos de estructuras algebraicas y álgebra lineal de los programas de maestrı́a;
los cinco cuadernos siguientes contienen algunos de los principales temas de los
exámenes de candidatura, a saber: anillos y módulos; categorı́as; álgebra homológica;
álgebra no conmutativa; álgebra conmutativa y geometrı́a algebraica. Cada cuaderno
es fruto de las clases dictadas por el autor en la Universidad Nacional de Colombia
en los últimos 25 años, y están basados en las fuentes bibliográficas consignadas en
cada uno de ellos, como también en el libro Anillos, Módulos y Categorı́as, publicado
por la Facultad de Ciencias de la Universidad Nacional de Colombia, y cuya edición
está totalmente agotada (véase [8]). Un material similar, pero mucho más completo
que el presentado en estas diez publicaciones, es el excelente libro de Serge Lang, Al-
gebra, cuya tercera edición revisada ha sido publicada por Springer en el 2004 (véase
[9]). Posiblemente el valor de los Cuadernos de álgebra sea su presentación ordenada
y didáctica, ası́ como la inclusión de muchas pruebas omitidas en la literatura y
suficientes ejemplos que ilustran la teorı́a. Los cuadernos son:
1. Grupos 6. Anillos y módulos
2. Anillos 7. Categorı́as
3. Módulos 8. Álgebra homológica
4. Álgebra lineal 9. Álgebra no conmutativa
5. Cuerpos 10. Geometrı́a algebraica
Los cuadernos están divididos en capı́tulos, los cuales a su vez se dividen en
secciones. Para cada capı́tulo se añade al final una lista de ejercicios que deberı́a ser
complementada por los lectores con las amplias listas de problemas que incluyen las
principales monografı́as relacionadas con el respectivo tema.
Cuaderno de álgebra lineal. El presente cuaderno está dedicado al estudio
del álgebra lineal generalizada, es decir, al estudio de los espacios vectoriales, los
operadores lineales, las matrices y las formas, pero consideradas sobre anillos di-
mensionales arbitratrarios, es decir, anillos para los cuales un espacio libre de bases

v
vi PRÓLOGO

finitas tiene dimensión. El álgebra lineal sobre anillos ha sido tratada también por
otros autores, véanse por ejemplo las monografı́as [1] y [10] en las cuales se estudia
el álgebra lineal sobre anillos conmutativos. Los tres capı́tulos finales del presente
cuaderno corresponden a temas de álgebra lineal avanzada, a saber: el producto
tensorial y exterior de espacios, las formas canónicas de operadores y matrices es-
tudiadas desde la perspectiva de la teorı́a de módulos, y el estudio de los grupos de
matrices, incluidos los grupos clásicos.
Para aprovechar mejor el material del presente cuaderno es conveniente que el
lector haya estudiado previamente un curso elemental de álgebra lineal clásica, es
decir, de álgebra lineal sobre cuerpos, y un curso básico de anillos y módulos (véanse
por ejemplo [6] y [7]). A denotará un anillo no necesariamente conmutativo y con
unidad 1. A∗ es el grupo multiplicativo de los elementos invertibles del anillo A. Si
f es un homomorfismo de anillos, entonces f (1) = 1.
El autor desea expresar su agradecimiento a Claudia Milena Gallego Joya, dis-
cı́pula y amiga, por la digitalización del material del presente cuaderno, y también
a Arnold Oostra por la revisión juiciosa y sus aportes en el último capı́tulo. Fi-
nalmente, el autor desea expresar su agradecimiento a Fabio Alejandro Calderón
Mateus por la lectura cuidadosa y las correcciones finales introducidas al presente
cuaderno.

Oswaldo Lezama
Departamento de Matemáticas
Universidad Nacional de Colombia
Bogotá, Colombia
jolezamas@unal.edu.co
Capı́tulo 1

Matrices

El estudio de los espacios vectoriales sobre anillos, desde la perspectiva matricial,


tensorial y de las formas canónicas y sesquilineales que estudiaremos en el presente
cuaderno, constituye la denominada álgebra lineal generalizada, o también llamada
álgebra lineal sobre anillos. Esta área por supuesto se puede considerar como una
rama de la teorı́a de módulos (véase [7]). La teorı́a que desarrollaremos se hará sobre
anillos arbitrarios (principalmente conmutativos), sin embargo, los ejemplos estarán
centrados en los siguientes anillos particulares: un cuerpo cualquiera K, el anillo Z
de los números enteros, el anillo Zn de los enteros módulo n ≥ 2, y el anillo K[x] de
los polinomios en una indeterminada con coeficientes en el cuerpo K.

1.1. Estructuras algebraicas básicas


La primera sección de este capı́tulo es de caracter introductorio y permite repasar
algunos conceptos de anillos y módulos, sin embargo, invitamos al lector a recordar
la teorı́a básica de los Cuadernos 2 y 3, la cual usaremos libremente durante todos
los desarrollos del presente cuaderno (véanse [6] y [7]).

Definición 1.1.1. Sea G un conjunto no vacı́o. Una operación binaria interna


en G es una función ∗ con dominio el producto cartesiano G × G y codominio G

G×G− →G
(a, b) 7→ a ∗ b.

Si la operación ∗ es asociativa en el sentido que

(a ∗ b) ∗ c = a ∗ (b ∗ c)

para cualesquiera elementos a, b, c ∈ G, entonces se dice que (G, ∗) es un semi-


grupo. Si en el conjunto G del semigrupo (G, ∗) existe un elemento e tal que

1
2 CAPÍTULO 1. MATRICES

e∗a=a=a∗e

para cada a ∈ G, se dice que (G, ∗) es un monoide con elemento neutro e. Si


(G, ∗) es un monoide y cada elemento a ∈ G tiene un inverso, es decir, existe a0 ∈ G
tal que

a ∗ a0 = e = a0 ∗ a

entonces se dice que (G, ∗, e) es un grupo. Si además la operación ∗ es conmutativa,


es decir,

a∗b=b∗a

para cualesquiera elementos a, b ∈ G, entonces se dice que el grupo (G, ∗, e) es


conmutativo (también llamado abeliano).

Los semigrupos, monoides y grupos se acostumbran a denotar simplemente por


su conjunto de elementos, de tal manera que por ejemplo el grupo (G, ∗, e) se deno-
tará por G.

Ejemplo 1.1.2. El conjunto N = {0, 1, 2, . . . } de los números naturales es un


monoide conmutativo respecto de la adición usual y tiene como elemento neutro al
natural 0. De igual manera, el conjunto Z = {. . . , −2, −1, 0, 1, 2, . . . } de los números
enteros es un grupo abeliano con la adición usual.

Proposición 1.1.3. En cualquier grupo el elemento neutro y el inverso de un ele-


mento son únicos.

Demostración. La prueba es una consecuencia directa de las definiciones.

Notemos que el conjunto Z posee dos operaciones, la adición y el producto, de tal


forma que respecto de la primera es un grupo abeliano, mientras que con la segunda
es un monoide. Conjuntos con tal condición conforman los llamados anillos.

Definición 1.1.4. Un anillo es un conjunto A con dos operaciones + y · llamadas


adición y producto, tal que

(i) A es un grupo conmutativo respecto de la adición.

(ii) A es un monoide respecto del producto.

(iii) El producto se distribuye sobre la adición, es decir,

a · (b + c) = a · b + a · c,
(a + b) · c = a · c + b · c.
1.1. ESTRUCTURAS ALGEBRAICAS BÁSICAS 3

(iv) El anillo A es conmutativo si el producto es conmutativo.


(v) Un elemento a ∈ A es invertible si tiene inverso respecto del producto.
Observación 1.1.5. Todos los anillos tendrán elemento neutro respecto del produc-
to, este elemento será denotado por 1. El neutro respecto de la adición será denotado
por 0. Si a ∈ A, entonces el inverso de a respecto de la adición se denominará en
adelante el opuesto de a, y se denotará por −a. El producto a · b será simbolizado
simplemente como ab, es decir, omitiremos el punto para el producto de dos elemen-
tos del anillo A. Si a ∈ A es invertible, entonces el inverso de a es único y se denota
por a−1 .
Ejemplo 1.1.6. El conjunto Z de los números enteros es un anillo conmutativo
respecto de las operaciones usuales de adición y producto. El neutro aditivo es 0
y el neutro del producto es 1. De igual manera, si restringimos el conjunto de los
enteros a los 8 primeros enteros no negativos, es decir, Z8 = {0, 1, 2, 3, 4, 5, 6, 7}
y realizamos las operaciones tomando resı́duos respecto de 8 obtenemos el llamado
anillo de enteros módulo 8 (véase [9]). El neutro aditivo es nuevamente el 0 y el neutro
multiplicativo es 1. Este ejemplo por supuesto se puede generalizar a cualquier entero
positivo n ≥ 2 (véanse [6] y [8]). De otra parte, el conjunto de todos los polinomios en
la variable x y con coeficientes reales constituyen otro ejemplo de anillo conmutativo,
el cual se acostumbra denotar por R[x]. El neutro aditivo es el polinomio nulo y el
neutro multiplicativo es el polinomio constante 1 (véanse [6], [8] y [9]).
Ejemplo 1.1.7. Es posible que el lector esté familiarizado con el conjunto de las
matrices cuadradas reales de tamaño 2 × 2, M2 (R) (véanse [6], [8] y [9]). Estas
matrices conforman un anillo no conmutativo respecto de la adición y multiplicación
habituales, el neutro aditivo es la matriz nula y el neutro multiplicativo es la matriz
idéntica. Notemos que
     
1 0 0 1 0 1 1 0
6= .
0 0 0 0 0 0 0 0
En la definición de anillo no se exige que cada elemento no nulo tenga inverso
respecto del producto. Ası́ por ejemplo, Z es un anillo en el cual no existe entero
x tal que 2x = 1. Sin embargo, existen anillos en los cuales este tipo de ecuaciones
tiene solución, tal es el caso de anillo de los números racionales Q con las operaciones
habituales. Esta observación permite definir el siguiente tipo de anillo.
Definición 1.1.8. Un anillo A es de división si cada elemento no nulo es in-
vertible. Si además A es conmutativo, entonces se dice que A es un cuerpo.
Proposición 1.1.9. Sea A un anillo, el conjunto A∗ conformado por los elemen-
tos invertibles de A es un grupo respecto del producto, y se denomina el grupo de
elementos invertibles de A.
4 CAPÍTULO 1. MATRICES

Demostración. Ejercicio para el lector.


Según la proposición anterior, A es un anillo de división si, y sólo si, A∗ = A−{0}.
Ejemplo 1.1.10. Los números racionales Q, los números reales R y los números
complejos C, con sus operaciones habituales, son cuerpos. Notemos adicionalmente
que Z∗ = {1, −1} es decir, Z no es un cuerpo. De otra parte, M2 (R)∗ consta de las
matrices invertibles, es decir, aquellas que tienen determinante no nulo. Este grupo
se denomina grupo lineal general de orden 2 sobre R y se denota por GL2 (R).
Sobre estos grupos de matrices invertibles volveremos más adelante.
Un tipo de estructura más compleja que las definidas anteriormente la consti-
tuyen los llamados espacios vectoriales, también denominados módulos, los cuales
conforman los objetos en se basa el álgebra lineal generalizada.
Definición 1.1.11. Un espacio vectorial es una tripla conformada por
(a) Un grupo abeliano V cuyos elementos llamaremos vectores.
(b) Un anillo A cuyos elementos llamaremos escalares.
(c) Una operación externa entre escalares y vectores
V ×A→V
(v, a) 7→ v · a

que satisface las siguientes condiciones:


(i) (v + u) · a = v · a + u · a
(ii) v · (a + b) = v · a + v · b
(iii) v · (ab) = (v · a) · b
(iv) v · 1 = v
para cualesquiera elementos a, b ∈ A, v, u ∈ V .
Si no hay lugar a confusión, el espacio vectorial (V, A, ·) será denotado sim-
plemente por V y se dirá que V es un espacio vectorial sobre A, o que V es un
A-espacio. Cuando los escalares operan al lado izquierdo se dice que V es un A-
espacio a izquierda, sin embargo, es necesario aclarar que la teorı́a de álgebra lineal
desarrollada a izquierda es completamente equivalente a la desarrollada a derecha. Si
no se advierte lo contrario, todos los espacios vectoriales del presente cuaderno son
espacios vectoriales a derecha. Los espacios vectoriales sobre anillos se les denomina
también módulos (véase [7]). Ası́ pues, en teorı́a de anillos y módulos se dirá que
V es un A-módulo a derecha.
1.1. ESTRUCTURAS ALGEBRAICAS BÁSICAS 5

Observación 1.1.12. Es importante señalar que si A es un anillo no conmutativo


y V es un espacio vectorial izquierdo, entonces no basta con cambiar de lado los
escalares, pero manteniendo la asignación del literal (c) de la definción anterior,
para obtener un espacio vectorial a derecha. En efecto, si V es un A-espacio a
izquierda y definimos v × a := a · v, entonces notemos que (v × a) × b = b · (a · v) pero
v × (ab) = (ab) · v = a · (b · v) y los dos resultados anteriores pueden ser distintos
(véanse [7] y [8]). Claramente para anillos conmutativos los escalares pueden ser
dispuestos indistintamente a derecha o izquierda, según resulte más conveniente.
En adelante, salvo que sea necesario algo distinto, los escalares para módulos sobre
anillos conmutativos serán dispuestos por el lado izquierdo.

Ejemplo 1.1.13. Sean A un anillo y n ≥ 1 un entero, el conjunto An conformado por


todos los vectores columna de n componentes (a1 , . . . , an )T , ai ∈ A, 1 ≤ i ≤ n, cons-
tituye un espacio vectorial sobre el anillo A respecto de las siguientes operaciones:

[a1 , . . . , an ]T + [b1 , . . . , bn ]T = [a1 + b1 , . . . , an + bn ]T


[a1 , . . . , an ]T · c = [a1 c, . . . , an c]T ,

con c ∈ A. An se conoce como el n-espacio vectorial canónico sobre el anillo


A (para la notación de la traspuesta de un vector veáse más adelante la definición
1.2.1). Dos casos particulares destacados son el n-espacio vectorial canónico real Rn
y el n-espacio vectorial canónico entero Zn . Tomando n = 1, es decir, A1 = A, se
obtiene que el anillo A tiene estructura de espacio vectorial sobre si mismo: la suma
de vectores es la suma en el anillo A y el producto entre vectores y escalares es el
producto del anillo A.

Observación 1.1.14. El conjunto de vectores fila de n componentes se acostumbra


a denotar por A1×n y usualmente se le da estructura de A-espacio a izquierda:
c · (a1 , . . . , an ) := (ca1 , . . . , can ). Sin embargo, con el propósito de ahorrar espacio y
simplificar la notación, en adelante, a menudo escribiremos los elementos del espacio
An como vectores fila, siempre y cuando esto no represente confusión.

Como anotamos al principio, toda la teorı́a de espacios vectoriales y transfor-


maciones lineales sobre anillos desarrollada en [7] será usada en adelante. No sobra
resaltar algunos resultados, definiciones y observaciones.

Teorema 1.1.15. Todo espacio vectorial sobre un anillo de división es libre, es


decir, posee una base. En particular, todo espacio vectorial sobre un cuerpo es libre.

Demostración. Sea V un espacio vectorial sobre un anillo de división A y sea L la


colección de subconjuntos de V que son linealmente independientes (l.i.); L es no
vacı́o y es ordenado respecto de la inclusión de conjuntos. Sea C un subconjunto no
vacı́o de L totalemente ordenado y sea C la reunión de los conjuntos que conforman
6 CAPÍTULO 1. MATRICES

a C. Vamos a demostrar que C ∈ L. Sea {x1 , . . . , xn } un subconjunto finito de


C, existen entonces C1 , . . . , Cn ∈ C tales que xi ∈ Ci , 1 ≤ i ≤ n. Como C es
totalmente ordenado podemos suponer que xi ∈ Cn para cada 1 ≤ i ≤ n, luego
{x1 , . . . , xn } es l.i. ya que Cn es l.i. Esto muestra que C es l.i. C es pues una cota
superior para C en L; aplicamos entonces el lema de Zorn y encontramos en L un
elemento maximal X. Basta entonces demostrar que hXi = V (recordemos que hXi
denota la envolvente lineal de X conformada por todas las combinaciones lineales
de elementos de X con coeficientes de A, véase [7]). Sea v ∈ V , si v ∈ X entonces
v ∈ hXi, sea v ∈ / X, entonces por la maximalidad de X se tiene que X ∪ {v} es l.d.
y existen escalares no todos nulos a, a1 , . . . , an ∈ A y vectores x1 , . . . , xn ∈ X tales
que v · a + x1 · a1 + · · · + xn · an = 0. No es posible que a = 0, de lo contrario X serı́a
l.d. Por lo tanto, v = −(x1 · a1 a−1 + · · · + xn · an a−1 ) ∈ hXi.
Definición 1.1.16. Sean V y W dos espacios vectoriales sobre un anillo A. Una
transformación lineal (t.l.) de V en W es una función f : V → W que satisfece
las siguientes condiciones:
(i) f (u + v) = f (u) + f (v)

(ii) f (v · a) = f (v) · a
para cualesquiera vectores u, v ∈ V y cualquier escalar a ∈ A. Se dice también que
f es un operador lineal o un A-homomorfismo.
Ejemplo 1.1.17. La función

An → Am
(a1 , . . . , an ) 7→ (b1 a1 + c1 an , b2 a1 + c2 an , . . . , bm a1 + cm an )

donde b1 , c1 . . . bm , cm son escalares de A, es una transformación lineal de An en Am .


Ejemplo 1.1.18. La transformación lineal nula denotada por 0 se define por
0
V →− W
v 7→ 0.

De igual manera, la transformación lineal idéntica de V se denota por iV y se define


por
Vi
V −→ V
v 7→ v.

En álgebra lineal, como en cualquier rama del álgebra, es de vital importancia


el concepto de isomorfismo.
1.1. ESTRUCTURAS ALGEBRAICAS BÁSICAS 7

Definición 1.1.19. Dos espacios vectoriales V y W se dicen isomorfos si existe


una transformación lineal biyectiva entre ellos, denominada isomorfismo. En tal caso
se escribe V ∼= W . Una transformación lineal f : V → W es invertible si existe una
función g : W → V tal que f g = iW y gf = iV .

Es fácil verificar que la función g de la definición anterior es también una t.l. y


que f es un isomorfismo si, y sólo si, f es invertible.
Pasamos ahora a recordar la estructura algebraica del conjunto de todas las t.l.
de un espacio V en otro W .

Definición 1.1.20. Sean V y W dos A-espacios. Se definen

HomA (V, W ) := {f : V → W |f es una t.l.},


EndA (V ) : = HomA (V, V ).

Proposición 1.1.21. Sea A un anillo y sean V, W dos A-espacios. Entonces,

(i) HomA (V, W ) es un grupo abeliano.

(ii) EndA (V ) es un anillo.

(iii) Si R es un anillo conmutativo, entonces HomR (V, W ) es un R-espacio.

Demostración. Véase [7].

Notemos que en general el anillo EndA (V ) no es conmutativo, basta por ejemplo


tener en cuenta el caso particular EndR (R2 ). El grupo de elementos invertibles del
anillo EndA (V ) juega un papel muy importante en el álgebra lineal generalizada, en
particular, cuando V es de dimensión finita.

Definición 1.1.22. Sea V un A-espacio. AutA (V ) := EndA (V )∗ es el grupo lineal


general sobre A.

Notemos también que si R es conmutativo, EndR (V ) posee dos estructuras: es


un anillo y es un R-espacio. Este tipo de estructuras se conoce como R-álgebras, en
el sentido de la siguiente definición.

Definición 1.1.23. Sea R un anillo conmutativo y sea A un conjunto no vacı́o. Se


dice que A es una R-álgebra si

(i) A es un anillo.

(ii) A es un R-espacio respecto de la adición definida en A.

(iii) (ab) · r = a(b · r) = (a · r)b, para cualesquiera a, b ∈ A y cada r ∈ R.


8 CAPÍTULO 1. MATRICES

A es un álgebra conmutativa si A es un anillo conmutativo.


Ejemplo 1.1.24. Si R es un anillo conmutativo y V es un R-espacio, entonces
EndR (V ) es una R-álgebra no necesariamente conmutativa.
Ejemplo 1.1.25. Si R es un anillo conmutativo entonces el conjunto R[x] de todos
los polinomios con coeficientes en R es una R-álgebra conmutativa.

1.2. Matrices sobre anillos


Definición 1.2.1. Sea A un anillo y sean m, n enteros positivos; una matriz de
tamaño m × n es una tabla ordenada de m filas y n columnas conformada por
elementos de A en la forma
 
b11 · · · b1n
B =  ... ..  .

. 
bm1 · · · bmn
Los elementos b11 , . . . , bmn se denominan las componentes o entradas de B. La
entrada que está en la intersección de la i-ésima fila con la j-ésima columna se
denota por bij , y la matriz B también se simboliza por B = [bij ]. La i-ésima fila de
B se denota por Bi := [bi1 , . . . , bin ], la j-ésima columna se denota por
 
b1j
(j)  .. 
B :=  .  .
bmj
La matriz B T = [b0ij ] de tamaño n × m definida por b0ij := bji , para cada i y cada j,
se denomina la traspuesta de B. La matriz B se dice cuadrada si m = n.
Proposición 1.2.2. El conjunto Mm×n (A) de todas las matrices de tamaño m × n
con entradas en el anillo A es un A-espacio vectorial respecto de las siguientes
operaciones: si B = [bij ], C = [cij ] ∈ Mm×n (A) y a ∈ A, entonces
B + C := [bij + cij ], B · a := [bij a].
Mm×n (A) es libre con base canónica {Eij }m,n
i=1,j=1 , donde
 .. 
0 . 0
Eij := · · · 1 · · · , (1.2.1)
 
.
0 .. 0
es decir, en la matriz Eij la única entrada no nula corresponde a la intersección de
la i-ésima fila con la j-ésima columna en donde está ubicado el elemento 1. Además,
estas matrices satisfacen la siguiente regla para el producto:
1.2. MATRICES SOBRE ANILLOS 9

(
Eiq , j = p
Eij Epq =
0, j 6= p.

Demostración. Dejamos los detalles de la prueba al lector. Indiquemos solamente la


notación para la matriz nula y la representación de cualquier matriz B de Mm×n (A)
en términos de la base canónica:
 
0 ··· 0
0 =  ... ..  , B = P E · b .

. i,j ij ij
0 ··· 0

Definición 1.2.3. Sean B = [bij ] ∈ Mm×n (A), C = [cij ] ∈ Mn×p (A), se define el
producto
n
X
BC := D = [dij ], dij := bik ckj , 1 ≤ i ≤ m, 1 ≤ j ≤ p.
i=1

Notemos que el producto de matrices se define con la siguiente condición de


compatibilidad: el número de columnas del primer factor coincide con el número de
filas del segundo factor.
Proposición 1.2.4. Sean B, C, D matrices compatibles para las operaciones indi-
cadas. Entonces
(i) (BC)D = B(CD).

(ii) B(C + D) = BC + BD; (B + C)D = BD + CD.

(iii) Si R es un anillo conmutativo y B, C son matrices con entradas en R, entonces


para cada r ∈ R se tiene que (B · r)C = (BC) · r = B(C · r).

(iv) Sean B, C y D matrices como en la definición 1.2.3. Entonces,

BC = [BC (1) · · · BC (p) ],

BC = [B1 C · · · Bm C]T

(v) Para cada n ≥ 1 se define la matriz idéntica de tamaño n × n sobre el anillo


A por
 
1 0 (
 .. 1, i = j
E = [eij ] :=  .  , eij :=

0, i 6= j.
0 1
10 CAPÍTULO 1. MATRICES

Entonces, para cada matriz B ∈ Mm×n (A) se tiene que

EB = B, BE = B,

donde en la primera identidad E es la idéntica de tamaño m × m y en la


segunda E es de tamaño n × n.

(vi) Para cada n ≥ 1, Mn (A) es un anillo. Si R es un anillo conmutativo, entonces


Mn (R) es una R-álgebra.

Demostración. Todas las afirmaciones de esta proposición son consecuencia directa


de las definiciones; dejamos su prueba la lector.

Las matrices constituyen un lenguaje computacional para el álgebra lineal tal


como lo ilustra el siguiente teorema en el cual mostraremos la representación de
transformaciones lineales por medio de matrices. Para el teorema necesitamos las
siguientes nociones (véanse [5], [6] y [7]).

Definición 1.2.5. Sean G, H dos grupos, se dice que G es isomorfo a H, lo


cual se denota por G ∼ = H, si existe una función biyectiva f : G → H tal que
f (g ∗ g ) = f (g) ∗ f (g ) para cualesquiera elementos g, g 0 ∈ G. Sean A, B dos anillos,
0 0

se dice que A es isomorfo a B, lo cual se denota por A ∼ = B, si existe una función


biyectiva f : A → B tal que f (a + a0 ) = f (a) + f (a0 ), f (aa0 ) = f (a)f (a0 ) para
cualesquiera elementos a, a0 ∈ A, y además f (1) = 1. Sea R un anillo conmutativo
y sean K, L dos R-álgebras, se dice que K es isomorfa a L, lo cual se denota por
K∼ = L, si existe una función biyectiva f : K → L tal que f (k + k 0 ) = f (k) + f (k 0 ),
f (k · r) = f (k) · r, f (kk 0 ) = f (k)f (k 0 ) para cualesquiera elementos k, k 0 ∈ K, r ∈ R,
y además f (1) = 1.

Teorema 1.2.6. Sea A un anillo arbitrario.

(i) Si V es un A-espacio libre con una base de n ≥ 1 elementos y W es un


A-espacio libre con una base de m elementos, entonces

HomA (V, W ) ∼
= Mm×n (A) (isomorfismo de grupos).

Si A = R es un anillo conmutativo entonces el isomorfismo anterior es de


espacios vectoriales.

(ii) EndA (V ) ∼
= Mn (A) (isomorfismo de anillos).

(iii) Si R es un anillo conmutativo, entonces EndR (V ) ∼


= Mn (R) (isomorfismo de
álgebras).
1.2. MATRICES SOBRE ANILLOS 11

Demostración. La idea central de la prueba del teorema es asignar a cada transfor-


mación lineal una matriz y, recı́procamente, definir con cada matriz una transfor-
mación lineal.
Matriz asociada a una transformación lineal : sea X = {x1 , . . . , xn } una
base de V y sea Y = {y1 , . . . , ym } una base de W ; sea f : V → W una t.l., entonces
f determina una única matriz mX,Y (f ) := F := [fij ] ∈ Mm×n (A), llamada la matriz
de la tranformación f en las bases X, Y , y definida por
m
X
f (xj ) := yi .fij , 1 ≤ j ≤ n. (1.2.2)
i=1

Transformación lineal definida por una matriz : cada matriz F = [fij ] ∈


Mm×n (A) determina una única t.l. f : V → W definida como en (1.2.2). Si en
particular V = An y W = Am , entonces f se puede presentar matricialmente en la
siguiente forma:
f : An → A m
a := [a1 , . . . , an ]T 7→ F a = F [a1 , . . . , an ]T = F (1) · a1 + · · · + F (n) · an . (1.2.3)
(i) Por lo anterior es claro que la función
mX,Y
HomA (V, W ) −−−→ Mm×n (A)
f 7→ mX,Y (f )
es un isomorfismo de grupos. Si A = R es un anillo conmutativo, la función mX,Y
es un isomorfismo de espacios vectoriales.
(ii) Sea U un A-espacio libre con una base Z = {z1 , . . . , zp } de p elementos y sea
g : W → U otra t.l., veamos entonces que
mX,Z (gf ) = mY,Z (g)mX,Y (f ). (1.2.4)
Sean F = mX,Y (f ), G = mY,Z (g) y H = mX,Z (gf ); se tiene que
p
X
(gf )(xj ) = zk · hkj
k=1
Xm
= g(f (xj )) = g( yl · flj )
l=1
m X p
X
= ( zk · gkl ) · flj
l=1 k=1
p m
X X
= zk · ( gkl flj ),
k=1 l=1
12 CAPÍTULO 1. MATRICES

luego hkj = m
P
l=1 gkl flj , es decir, H = GF .
Tomando V = W = U y X = Y = Z en (1.2.4) y considerando lo probado en (i)
se obtiene que EndA (V ) y Mn (A) son anillos isomorfos. Notemos que mX,X (iV ) :=
mX (iV ) = E.
(iii) Esto es consecuencia directa de (i) y (ii).

Observación 1.2.7. (i) Al considerar espacios vectoriales a izquierda algunos au-


tores acostumbran a disponer por filas los coeficientes de la expansión a través
de una base. En forma más precisa, sea X = {x1 , . . . , xn } una base de V y sea
Y = {y1 , . . . , ym } una base de W ; sea f : V → W una t.l., entonces f determina
una única matriz mX,Y (f ) := [fij ] ∈ Mn×m (A), denominada también la matriz de
la tranformación f en las bases X, Y , y definida por
m
X
f (xi ) := fij · yj , 1 ≤ i ≤ n. (1.2.5)
j=1

La identidad (1.2.4) se convierte en

mX,Z (gf ) = mX,Y (f )mY,Z (g). (1.2.6)

En efecto,
Ppusando la notación de la demostración del toerema 1.2.6 tenemos que
g(yj ) = k=1 gjk · zk , 1 ≤ j ≤ m, mY,Z (g) := [gij ] ∈ Mm×p (A), luego
m p
m X
X X
(gf )(xi ) = fij · g(yj ) = fij gjk · zk .
j=1 j=1 k=1

Si utilizaramos también notación izquierda para funciones, es decir, en lugar de


f g
f (x) escribieramos xf , entonces la compuesta V − →W − → U deberı́a denotarse f g,
en cuyo caso se tendrı́a la relación mX,Z (f g) = mX,Y (f )mY,Z (g). Con esta notación
tendrı́amos en particular el isomorfismo de anillos EndA (A V ) ∼ = Mn (A). Sin em-
bargo, la notación a izquierda para funciones es muy poco usada, esto trae como
consecuencia que en el teorema 1.2.6 los anillos EndA (A V ) y Mn (A) sean anti-
isomorfos. Pero si consideramos el anillo opuesto de Mn (A) (véase [7]), entonces
tendremos el isomorfismo de anillos EndA (A V ) ∼ = Mn (A)op . Notemos adicionalmente
que una matriz F := [fij ] ∈ Mn×m (A) define una t.l. dada por

f
A1×n − → A1×m
(a1 , . . . , an ) 7→ (a1 , . . . , an )F (1.2.7)

y la matriz de f en las bases canónicas coincide con F .


1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 13

(ii) Otra alternativa para los espacios a izquierda es disponer nuevamente los
coeficientes de la expansión por columnas y mantener la notación usual de funciones
a derecha, en tal caso resulta
m p
m X
X X
(gf )(xj ) = g( fij · yi ) = fij gki · zk ;
i=1 i=1 k=1

si cambiamos el anillo A por su anillo opuesto Aop , entonces tendrı́amos mX,Z (gf ) =
mY,Z (g)mX,Y (f ), y en consecuencia el isomorfismo EndA (A V ) ∼ = Mn (Aop ). Otra
variante de esta alternativa es no usar el anillo opuesto, pero entonces la identidad
anterior dice que
mX,Z (gf ) = (mX,Y (f )T mY,Z (g)T )T . (1.2.8)
La matriz F ∈ Mr×s (S) define un homomorfismo
f
Ss −
→ Sr
a 7→ (aT F T )T (1.2.9)

y su matriz en las bases canónicas coincide con F . Ası́ pues, f : S r → S r es un


isomorfismo si, y sólo si, F T ∈ GLr (S). Finalmente, sea C ∈ Mr (S); las columnas
de C constituyen una base de S r si, y sólo si, C T ∈ GLr (S) (véase el corolario 1.3.5
más adelante).
(iii) Notemos de todos modos que los valores asignados por la función f en
cada una de las dos opciones anteriores coinciden ya que la matriz F en (1.2.7) es
precisamente F T en (1.2.9).
(iv) Finalmente, si A es un anillo conmutativo entonces la relación (1.2.8) coincide
con (1.2.4) y también se tiene que (aT F T )T = F a.

1.3. Inversa de una matriz y cambio de base


Definición 1.3.1. Sea B ∈ Mn×m (A) una matriz; se dice que B es semi-invertible
si existe otra matriz B 0 ∈ Mm×n (A) tal que BB 0 = E y B 0 B = E. En tal caso se
dice que B 0 es la semi-inversa de B. Si n = m se dice que B es invertible y
B −1 := B 0 es la inversa de B. El grupo de elementos invertibles del anillo Mn (A)
se denota por GLn (A) y se denomina el grupo lineal general de orden n sobre el
anillo A.

Notemos que la semi-inversa de una matriz es única. Además, si C ∈ Mm×p (A)


es semi-invertible, entonces BC es semi-invertible con semi-inversa C 0 B 0 .

Corolario 1.3.2. Sea V un A-espacio libre con una base de n ≥ 1 elementos.


Entonces,
14 CAPÍTULO 1. MATRICES

AutA (V ) ∼
= GLn (A) (isomorfismo de grupos).
Demostración. Esto es consecuencia del teorema anterior y los detalles de la prueba
los dejamos al lector.
El grupo GLn (A) y varios de sus subgrupos más destacados serán estudiados
en forma detallada en el último capı́tulo del presente cuaderno. Pasamos ahora a
estudiar los cambios de bases en los espacios libres y a entender su efecto en las
representaciones matriciales de las transformaciones lineales.
Proposición 1.3.3. Sea V un espacio libre con base X = {x1 , . . . , xn } y sea B =
[bij ] ∈ Mn×m (A). Entonces el conjunto
n
X
Y := {yj = xi · bij |1 ≤ j ≤ m} (1.3.1)
i=1

es una base de V si, y sólo si, B es semi-invertible.


Demostración. Para simplificar la prueba utilizaremos notación matricial de tal for-
ma que la igualdad (1.3.1) la escribiremos como
[Y ] = [X]B
con [Y ] := [y1 , . . . , ym ].
⇒): Si Y es una base de V cada elemento de X es combinación lineal de los
elementos de Y , resulta entonces una matriz B 0 ∈ Mm×n (A) tal que [X] = [Y ]B 0 .
Por lo tanto, [Y ] = [X]B = [Y ]B 0 B, y por la independencia lineal de Y se tiene que
B 0 B = E. Por la simetrı́a del problema, BB 0 = E.
⇐): [X] = [X]E = [X]BB 0 = [Y ]B 0 , luego V = hXi ⊆ hY i y entonces V = hY i.
Sean a1 , . . . , am ∈ A tales que y1 · a1 + · · · + ym · am = 0; se tiene entonces que
[Y ]F = 0, donde F ∈ Mm (A) es una matriz en la cual cada columna es el vector
[a1 , . . . , am ]T . Resulta entonces [X]BF = 0, pero como X es l.i. entonces BF = 0,
luego B 0 BF = 0, es decir, F = 0, con lo cual a1 = · · · = am = 0.
Definición 1.3.4. La matriz B de la proposición 1.3.3 es la matriz de cambio
de la base X a la base Y .
La matriz B 0 es la matriz de cambio de Y a X; notemos que B 0 es semi-invertible.
Esta situación se presenta solamente en los anillos no dimensionales (véase [6] y la
observación 1.3.10 más adelante). Para anillos dimensionales n = m y la matriz de
cambio B es invertible.
Corolario 1.3.5. Sea B ∈ Mn×m (A); B es semi-invertible si, y sólo si, las columnas
de B constituyen una base de Am . Si m = n, B es invertible si, y sólo si, las columnas
de B constituyen una base de An .
1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 15

Demostración. Basta tomar V = An y X la base canónica de An en la prueba de la


proposición 1.3.3.

Ejemplo 1.3.6. La sola independencia de las columnas de una matriz no garantiza


que sea semi-invertible. Consideremos por ejemplo la matriz cuadrada
 
1 2
B= ∈ M2 (Z),
3 4

notemos que B no es invertible como matriz entera ya que su inversa como matriz
real es
 
−1 −2 1
B = 3 ∈ M2 (Z);
2
− 12

notemos además que las columnas de B son l.i.

Definición 1.3.7. Dos matrices P ∈ Mp×q (A) y Q ∈ Mm×n (A) son semi-equi-
valentes si existen matrices semi-invertibles D ∈ Mp×m (A) y C ∈ Mq×n (A) tales
que

Q = D0 P C.

Si p = m y q = n se dice que P y Q son equivalentes si existen matrices invertibles


D ∈ GLm (A) y C ∈ GLn (A) tales que Q = D−1 P C, lo cual denotaremos por P ∼ Q.
Si p = m = q = n se dice que P y Q son similares si existe una matriz invertible
C ∈ GLn (A) tal que Q = C −1 P C, lo cual se denota por P ≈ Q.

Todas las relaciones de la definición anterior son de equivalencia.

Proposición 1.3.8. Sea f : V → W una t.l, donde V es libre con bases X =


{x1 , . . . , xn }, X 0 = {x01 , . . . , x0q } y W es libre con bases Y = {y1 , . . . , ym }, Y 0 =
{y10 , . . . , yp0 }. Sean P = mX,Y (f ), Q = mX 0 ,Y 0 (f ), C la matriz de cambio de X a X 0
y D la matriz de cambio de Y a Y 0 . Entonces,

Q = D0 P C.

Si q = n y p = m entonces Q = D−1 P C. Si V = W , Y = X, Y 0 = X 0 , entonces


Q = C −1 P C.
16 CAPÍTULO 1. MATRICES

Demostración. Tenemos que


m
X
f (xj ) = yk · pkj , 1 ≤ j ≤ n
k=1
p
X
f (x0t ) = yr0 · qrt , 1 ≤ t ≤ q
r=1
Xn
x0t = xj · cjt
j=1
Xm
yr0 = yk · dkr , 1 ≤ r ≤ p,
k=1

luego
Pn
f (xj ) · cjt = nj=1 ( m
Pm Pn
f (x0t ) =
P P
j=1 k=1 yk · pkj ) · cjt = k=1 yk · ( j=1 pkj cjt );

f (x0t ) = pr=1 ( m
P P Pm Pp
k=1 yk · dkr ) · qrt = k=1 yk · ( r=1 dkr qrt ),

y puesto que Y es l.i., entonces P C = DQ, es decir, Q = D0 P C.


Proposición 1.3.9. Dos matrices P ∈ Mp×q (A) y Q ∈ Mm×n (A) son semiequi-
valentes si, y sólo si, representan la misma transformación lineal. Si q = n y p =
m, entonces P, Q ∈ Mm×n (A) son equivalentes si, y sólo si, representan la misma
transformación lineal. Si q = n = p = m, entonces P, Q ∈ Mn (A) son similares si,
y sólo si, representan la misma transformación lineal.
Demostración. ⇒): Sea Q = D0 P C con D ∈ Mp×m (A) y C ∈ Mq×n (A) semi-
f
invertibles; P representa una t.l. Aq − → Ap en las bases canónicas X de Aq y Y
de A . Sea [Y ] := [Y ]D; como D es semi-invertible, entonces Y 0 es también una
p 0

base de Ap (notemos que Y 0 está conformada por las m columnas de D, luego


Ap ∼= Am ). De igual manera, sea [X 0 ] := [X]C, y X 0 es también una base de Aq (X 0
está conformada por las n columnas de C, luego Aq ∼ = An ). De otra parte, Q también
g
representa una t.l. Aq − → Ap en las bases X 0 , Y 0 ; se tiene entonces que mX,Y (f ) = P
y mX 0 ,Y 0 (g) = Q, de donde mX 0 ,Y 0 (f ) = D0 mX,Y (f )C = D0 P C = Q = mX 0 ,Y 0 (g), y
por lo tanto, f = g.
⇐): Esta parte corresponde a la proposición 1.3.8.
Observación 1.3.10. (i) Un punto donde el álgebra lineal sobre anillos se aparta del
álgebra lineal clásica es en la existencia y tamaño de las bases. En [7] se demuestra
que el Z-espacio de los números racionales Q no es libre. En cuanto a la unicidad
de las bases, en general, podemos afirmar que en un espacio vectorial libre existen
infinitas bases. Por ejemplo, en Rn el conjunto Xa = {e1 ·a, . . . , en }, con a ∈ R−{0},
es una base. En Z2 se tienen las siguientes bases,
1.4. MATRICES Y OPERACIONES ELEMENTALES 17

{(1, 0), (0, 1)}, {(−1, 0), (0, −1)}, {(1, 0), (0, −1)}, {(−1, 0), (0, 1)}, {(1, 1), (1, 2)}.

En el siguiente capı́tulo veremos que {(a, b), (c, d)} es una base de Z2 si, y sólo si,
ad − bc = ±1. El problema de la unicidad entonces es mejor plantearlo en términos
del tamaño de las bases. En [7] se prueba que todo espacio vectorial libre finitamente
generado (f.g.) posee una base finita, y también que, en un espacio vectorial libre
todas las bases son finitas o bien todas son infinitas. Además, para espacios de bases
infinitas no hay problema con el tamaño de las bases, todas tienen la misma cantidad
de elementos. Sin embargo, existen anillos A para los cuales se tiene la siguiente
propiedad: si V es un A-espacio de bases finitas, no necesariamente todas las bases
de V tienen el mismo número de elementos. Un ejemplo puede ser consultado en [7].
(ii) Sea V un A-espacio libre. Se dice que V es dimensional si todas las bases de
V tienen el mismo número de elementos. Este número se denomina la dimensión
de V y se denota por dimA (V ). Se dice que A es un anillo dimensional si todos
sus A-espacios libres son dimensionales (en inglés IBN , invariant basis number). La
mayorı́a de los anillos estudiados en álgebra son dimensionales (véase [2] y [5]). Por
ejemplo, los anillos de división son dimensionales: en efecto, sean X y X 0 dos bases de
tamaños n y n0 , respectivamente, de un espacio vectorial V sobre un anillo de división
A; si n > n0 , entonces, tal como se prueba en espacios vectoriales sobre cuerpos (sin
usar conmutatividad), n0 + 1 vectores de X son linealmente dependientes, lo cual es
falso ya que X es l.i. Los anillos conmutativos también son dimensionales (esto lo
probaremos más adelante).
(iii) Notemos que un anillo A es dimensional si, y sólo si, las únicas matrices
semi-invertibles sobre A son las matrices cuadradas (en cuyo caso son invertibles).
Esto hace que si A es un anillo dimensional, entonces todos los A-espacios vectoriales
libres izquierdos son dimensionales, es decir, A es dimensional a derecha si, y sólo
si, A es dimensional a izquierda (véase [5]). Además, en anillos dimensionales, semi-
invertible = invertible y semi-equivalente = equivalente.
(iv) En adelante en el presente cuaderno asumiremos que A es un
anillo dimensional .

1.4. Matrices y operaciones elementales


En el grupo GLn (A) se tienen tres tipos importantes de matrices que permiten
realizar cambios sobre las filas y/o columnas de una matriz. Definimos en esta sección
estas matrices invertibles especiales.

Definición 1.4.1. Sea n ≥ 2. Se definen los siguientes tipos de matrices elemen-


tales.

(i) Matrices propiamente elementales:


18 CAPÍTULO 1. MATRICES

 
1
 ..
. a

 

Tij (a) := E + Eij · a =  .. 
 , a ∈ A, i 6= j.
 . 
 .. 
 . 
1

(ii) Permutaciones:

Pij := E − Eii − Ejj + Eij + Eji .

(iii) Diagonales:

Di (a) := E + Eii · (a − 1), a ∈ A∗ .

Proposición 1.4.2. Las matrices elementales son invertibles,


Tij (a)−1 = Tij (−a), Pij−1 = Pij , Di (a)−1 = Di (a−1 ).
Demostración. Ejercicio para el lector.
Definición 1.4.3. El subgrupo de GLn (A) generado por todas las matrices propia-
mente elementales se denomina grupo elemental, y se denota por En (A).
Las matrices elementales inducen las llamadas operaciones elementales sobre
las filas y columnas de una matriz F ∈ Mm×n (A), m, n ≥ 2:
(i) El efecto de multiplicar F a la derecha por Tij (a) ∈ GLn (A) es sumar a la
j-ésima columna de F la i-ésima columna multiplicada a derecha por a. El
efecto de multiplicar F a la izquierda por Tij (a) ∈ GLm (A) es sumar a la
i-ésima fila la j-ésima fila multiplicada a izquierda por a.
(ii) El producto F Pij , con Pij ∈ GLn (A) intercambia las columnas i-ésima y j-
ésima de F . Pij F , con Pij ∈ GLm (A), efectúa el correspondiente intercambio
de filas.
(iii) La matriz F Di (a), con Di (a) ∈ GLn (A), se obtiene de F multiplicando la
i-ésima columna de F a la derecha por a. Di (a)F , con Di (a) ∈ GLm (A), se
obtiene de F multiplicando la i-ésima fila de F por a a la izquierda.
Teniendo en cuenta que el producto de matrices invertibles es invertible, obtenemos
inmediatamente el siguiente resultado.
Corolario 1.4.4. Si la matriz G ∈ Mm×n (A) se obtuvo de F ∈ Mm×n (A) por
medio de operaciones elementales sobre las filas y/o columnas de F , entonces G es
equivalente a F .
1.5. EJERCICIOS 19

1.5. Ejercicios
1. Determine 10 bases diferentes en Z2 distintas de la base canónica.

2. Determine 10 conjuntos diferentes en Z2 cada uno de 2 elementos y l.d.

3. Sea K un cuerpo y sea V un K-espacio. Si x1 , . . . , xn son vectores l.i. de V ,


demuestre que cada conjunto de n + 1 vectores de hx1 , . . . , xn i es l.d.

4. Demuestre que todo cuerpo K es un anillo dimensional.

5. Sea n ≥ 1 entero y sea Rn [x] el conjunto de polinomios reales de grado menor


o igual a n. Demuestre que Rn [x] es un R-espacio de dimensión n + 1.

6. Con la notación del ejercicio anterior, sea X un subconjunto de Rn [x] que


contiene para cada k = 0, 1, . . . , n un único polinomio de grado k. Demuestre
que X es una base de Rn [x].

7. Demuestre la afirmación del ejemplo 1.1.17.

8. Sea f : V → W una t.l. para la cual existe una función g : W → V tal que
f g = iW y gf = iV . Demuestre que g es una t.l.

9. Compruebe que EndR (R2 ) no es un anillo conmutativo.

10. Demuestre que M2 (R) es una R-álgebra no conmutativa.

11. Sea R un anillo conmutativo y R[x1 , . . . , xn ] el conjunto de polinomios en


n indeterminadas con coeficientes en R. Demuestre que R[x1 , . . . , xn ] es una
R-álgebra conmutativa.

12. Demuestre el corolario 1.3.2.

13. Demuestre que las columnas de la matriz B del ejemplo 1.3.6 son l.i.

14. Demuestre que las relaciones de la definición 1.3.7 son de equivalencia.

15. (véase [1], pág. 17) Sea A un anillo; un subconjunto no vacı́o I de A es un


ideal derecho de A si x + y ∈ I y xa ∈ I para cada x ∈ I y cada a ∈ A.
De manera similar se definen los ideales izquierdos de A. Demuestre que para
cada 1 ≤ r ≤ n − 1, el conjunto
 
0
I=
A
20 CAPÍTULO 1. MATRICES

conformado por todas las matrices en las cuales las primeras r filas son nulas
es un ideal derecho de Mn (A). De igual manera, demuestre que el conjunto
de matrices de Mn (A) conformado por todas las matrices en las cuales las
primeras r columnas son nulas es un ideal izquierdo de Mn (A).

16. Sea V un A-espacio y sea v ∈ V ; se define

AnnA (v) := {a ∈ A|v · a = 0}.

Demuestre que AnnA (v) es un ideal derecho de A. Además, si

AnnA (V ) := {a ∈ A|v · a = 0 para cada v ∈ V },

entonces AnnA (V ) es un ideal bilátero de A, es decir, AnnA (V ) es un ideal


izquierdo y derecho de A que cumple
T
AnnA (V ) = v∈V AnnA (v).

17. Sean V1 , V2 dos subespacios de un A-espacio V . Demuestre que

V1 + V2 := {vi + v2 |v1 ∈ V1 , v2 ∈ V2 }

es un subespacio de V y que AnnA (V1 + V2 ) = AnnA (V1 ) ∩ AnnA (V2 ).

18. Sea V un A-espacio libre con una base de n elementos. Sea f : V → V una
t.l. Muestre con un ejemplo que la sobreyectividad de f y la inyectividad no
son condiciones equivalentes.

19. Demuestre la proposición 1.4.2.

20. Sea A un anillo y sea B ∈ Mn (A); se dice que B es simétrica si B T = B,


y antisimétrica si B T = −B. Demuestre que B + B T es simétrica y que
B − B T es antisimétrica. Además, si 2 := 1 + 1 ∈ A∗ , entonces demuestre que
B es suma de una matriz simétrica y una matriz antisimétrica.

21. Sean P, Q matrices rectangulares o cuadradas, según corresponda, sobre un


anillo conmutativo R. Demuestre que (P + Q)T = P T + QT ; (P Q)T = QT P T ;
(P −1 )T = (P T )−1 .

22. Sean A1 , . . . , An anillos; demuestre que el producto cartesiano

A1 × · · · × An := {(a1 , . . . , an )|ai ∈ Ai , 1 ≤ i ≤ n}
1.5. EJERCICIOS 21

bajo las operaciones definidas por componentes tiene estructura de anillo. De-
muestre además los siguientes isomorfismos de anillo y grupo, respectivamente:

Mn (A1 × · · · × An ) ∼
= Mn (A1 ) × · · · × Mn (An ),
GLn (A1 × · · · × An ) ∼
= GLn (A1 ) × · · · × GLn (An ).

23. Sea R un anillo conmutativo y sea B = [bij ] ∈ Mn (R). Se define la traza de


B por T r(B) := b11 + · · · + bnn . Demuestre las siguientes propiedades:

(i) T r(BC) = T r(CB).


(ii) T r(B + C) = T r(B) + T r(C).
(iii) T r(B · r) = T r(B)r, r ∈ R.
(iv) La traza es una t.l. sobreyectiva de Mn (R) en R.
(v) ker(T r) = hXi, donde X = {Eij |i 6= j} ∪ {E11 − Eii |i 6= 1}.
(vi) T r(B T ) = T r(B).
(vii) T r(P −1 BP ) = T r(B), para cada P ∈ GLn (R).
(viii) ker(T r) = hY i, con Y = {BC − CB|B, C ∈ Mn (R)}.
Capı́tulo 2

Determinantes y sistemas de
ecuaciones lineales

En este capı́tulo presentaremos la teorı́a de determinantes sobre anillos conmutativos


arbitrarios y la usaremos para estudiar sistemas de ecuaciones lineales sobre estos
anillos. Si no se advierte lo contrario R denotará un anillo conmutativo.

2.1. Determinantes
El enfoque que daremos a la función determinante utiliza el grupo de permutaciones
de un conjunto finito, el cual trataremos a continuación.

Definición 2.1.1. Para cada n ≥ 1 sea Sn el conjunto de todas las funciones biyec-
tivas del conjunto In := {1, 2, . . . , n}. Cada una de tales funciones se denomina
permutación del conjunto In . Bajo la operación de composición de funciones, Sn
es claramente un grupo, y se le denomina grupo simétrico de grado n. Una per-
mutación π ∈ Sn se llama ciclo de longitud m, 1 ≤ m ≤ n, si existen m elementos
diferentes α1 , . . . , αm ∈ In tales que π(αi ) = αi+1 para 1 ≤ i ≤ m − 1, π(αm ) = α1
y π(α) = α para cada α ∈ In \ {α1 , . . . , αm }. Un ciclo de longitud 2 se denomina
trasposición. Dos ciclos π = (α1 · · · αm ) y θ = (β1 · · · βr ) se dicen disyuntos, si
{α1 · · · αm } ∩ {β1 · · · βr } = ∅.

Enunciamos a continuación algunas de las propiedades más importantes del


grupo Sn y de sus ciclos. La demostración de éstas puede ser consultada en [9]
y [5].

(i) Los ciclos disjuntos conmutan.

(ii) Cada permutación de Sn es el producto de ciclos disjuntos. La representación


es única salvo el orden.

22
2.1. DETERMINANTES 23

(iii) Cada permutación en Sn es producto de trasposiciones.

(iv) Si una permutación π ∈ Sn tiene dos descomposiciones en productos de r y s


trasposiciones, entonces r es par si, y sólo si, s es par.

(v) Una permutación π ∈ Sn se denomina par , si se descompone en un número


par de trasposiciones. El conjunto An de las trasposiciones pares de Sn tiene
las siguientes propiedades: el producto de permutaciones para es par; la per-
mutación idéntica es par; la inversa de una permutación par es par. En otras
palabras, An bajo la composición es un grupo, llamado el grupo alternante
de grado n.
n!
(vi) Sn tiene n! elementos, mientras que An posee 2
.

Definición 2.1.2. Sea n ≥ 1. Para cada B = [bij ] ∈ Mn (R) se define su determi-


nante como el elemento de R dado por
X
det B := (−1)π b1π(1) · · · bnπ(n) , (2.1.1)
π∈Sn

donde (−1)π es 1 ó −1, dependiendo si π es par ó impar, respectivamente.

A partir de (2.1.1) se pueden demostrar las principales propiedades de la función


determinante

det : Mn (R) → R
B 7→ det B.

Proposición 2.1.3. Sea B = [bij ] ∈ Mn (R). Entonces

det[B1 , . . . , aBi , . . . , Bn ]T = a det B, a ∈ R.

Demostración. Sea C = [cij ] la matriz obtenida de B multiplicando la i-ésima fila


por a ∈ R. Entonces
X
det C = (−1)π c1π(1) · · · ciπ(i) · · · cnπ(n)
π∈Sn
X
= (−1)π b1π(1) · · · abiπ(i) · · · bnπ(n)
π∈Sn

= a det B.

Nótese la aplicación de la propiedad conmutativa.


24 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Proposición 2.1.4. Sea B = [bij ] ∈ Mn (R) y (a1 . . . , an ) ∈ Rn . Entonces


   
b11 · · · b1n b11 · · · b1n
   
   
det 
b i1 + a 1 · · · b in + a n
 = det B + det  a1 · · · an  .
  
   
bn1 · · · bnn bn1 · · · bnn
Demostración. Sea C = [cij ] ∈ Mn con
(
brs , r 6= i
crs =
bis + as , r = i.
Entonces,
X
det C = (−1)π b1π(1) · · · (biπ(i) + aπ(i) ) · · · bnπ(n)
π∈Sn
 
b11 · · · b1n
 
 
= det B + det  a1 · · · an 

.
 
bn1 · · · bnn

Proposición 2.1.5. Si dos filas de una matriz son iguales entonces su determinante
es nulo.
Demostración. Sea B = [bij ] ∈ Mn (R) tal que Br = Bs con r 6= s. Sea τ =
(rs) ∈ Sn y An el grupo de permutaciones pares. Sea An τ := {πτ | π ∈ An }.
Nótese que |An τ | = n!2 y que cada permutación de An τ es impar. Resulta entonces
Sn = An ∪∅ An τ , con lo cual podemos desarrollar el determinante de B de la siguiente
manera:
X X
det B = (−1)π b1π(1) · · · bnπ(n) + (−1)πτ b1πτ (1) · · · bnπτ (n)
π∈An π∈An
X
= [(−1)π b1π(1) · · · bnπ(n) + (−1)πτ b1πτ (1) · · · bnπτ (n) ].
π∈An

Observemos con mayor detalle cada término de la anterior suma:


(−1)π b1π(1) · · · brπ(r) · · · bsπ(s) · · · bnπ(n) + (−1)πτ b1πτ (1) · · · brπτ (r) · · · bsπτ (s) · · · bnπτ (n)
(2.1.2)
Para i 6= r, s, biπ(i) = biπτ (i) ; brπ(r) = bsπ(r) = bsπτ (s) ; bsπ(s) = brπ(s) = brπτ (r) ; (−1)π
y (−1)πτ tienen signo diferente. Por lo tanto la suma de 2.1.2 es nula, y se obtiene
que det B = 0.
2.1. DETERMINANTES 25

Proposición 2.1.6. Si en una matriz se intercambian dos filas el determinante


cambia de signo.

Demostración. Sean B, C ∈ Mn (R), donde Cr = Bs , Cs = Br para r 6= s, y Ci = Bi


para i 6= r, s. Considérese la matriz D = [B1 , . . . , Br + Bs , . . . , Bs + Br , . . . , Bn ]T .
De acuerdo a 2.1.5 det D = 0, pero por 2.1.4 se tiene que

0 = det D = det[B1 , . . . , Br , . . . , Bs + Br , . . . , Bn ]T +
det[B1 , . . . , Bs , . . . , Bs + Br , . . . , Bn ]T
= det[B1 , . . . , Br , . . . , Bs , . . . , Bn ]T + det[B1 , . . . , Br , . . . , Br , . . . , Bn ]T +
det[B1 , . . . , Bs , . . . , Bs , . . . , Bn ]T + det[B1 , . . . , Bs , . . . , Br , . . . , Bn ]T
= det B + det C.

Corolario 2.1.7. Si la matriz C ∈ Mn (R) se obtuvo de B ∈ Mn (R) mediante una


permutación π de filas, entonces det C = (−1)π det B.

Demostración. Consecuencia directa de 2.1.6.

Proposición 2.1.8. Sea B ∈ Mn (R). Entonces

det[B1 , . . . , Br + aBs , . . . , Bs , . . . , Bn ]T = det B, con a ∈ R, r 6= s.

En consecuencia, si una fila es nula el determinante es nulo.

Demostración. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.5.

De la definición y de las propiedades establecidas se obtienen los siguientes re-


sultados:

(i) det E = 1.

(ii) det Di (a) = a, a ∈ R.

(iii) det Pij = −1 para i 6= j.

(iv) det Tij (a) = 1, a ∈ R.

Teorema 2.1.9. Para B, C ∈ Mn (R) se cumple que

det(BC) = (det B)(det C). (2.1.3)


26 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Demostración. Considérese la matriz D ∈ Mn (R) cuyas filas se definen por


Di := bi1 C1 + · · · + bin Cn , 1 ≤ i ≤ n.
Aplicando 2.1.3 y 2.1.4 a la primera fila de D obtenemos
n
X
det D = bij det[Cj , b21 C1 + · · · + b2n Cn , . . . , bn1 C1 + · · · + bnn Cn ]T .
j=1

Procediendo de manera análoga con las demás filas resulta


X
det D = b1j1 b2j2 · · · bnjn det[Cj1 , . . . , Cjn ]T , (2.1.4)
j1 ,...,jn

donde j1 , . . . , jn recorren independientemente los valores de 1 a n. Para valores


iguales de dos ı́ndices el determinante det[Cj1 , . . . , Cjn ] es nulo. Ası́ pues, en (2.1.4)
podemos suponer que los subı́ndices j1 , . . . , jn son diferentes. Esto hace que teng-
amos una correspondencia biyectiva entre Sn las n-tuplas (j1 , . . . , jn ) de entradas
diferentes entre sı́. Resulta entonces
X
det D = b1π(1) · · · bnπ(n) det[Cπ(1) , . . . , Cπ(n) ]T ,
π∈Sn

aplicando el corolario 2.1.7 resulta


X
det D = (−1)π b1π(1) · · · bnπ(n) det[C1 , . . . , Cn ]T , es decir,
π∈Sn

det D = (det B)(det C).

De este teorema se desprenden algunas conclusiones importantes.


Corolario 2.1.10. (i) Si B ∈ GLn (R), entonces det B ∈ R∗ y además det B −1 =
(det B)−1 .
(ii) Matrices similares tienen el mismo determinante.
(iii) Los anillos conmutativos son dimensionales.
Demostración. Las dos primeras afirmaciones son evidentes.
(iii) Sea V un R-espacio libre con bases X = {x1 , . . . , xn } y Y = {y1 , . . . , ym }.
Supóngase que m 6= n; por ejemplo m > n. Sea B ∈ Mn×m (R) la matriz de cambio
de X a Y . Por 1.3.3, existe B 0 ∈ Mm×n (R) tal que B 0 B = E (idéntica de orden m).
Sean B,
e Bf0 ∈ Mm (R) las matrices obtenidas de B y B 0 adjuntando columnas y filas
nulas respectivamente. Entonces B f0 B
e = E, pero det E = 1 = det B f0 det B
e = 0 ya
que B tiene filas nulas.
e
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 27

El punto (ii) del corolario anterior induce la siguiente definición.

Definición 2.1.11. Si f : V → V es una transformación lineal de un espacio de


dimensión finita, entonces se define el determinante de f como el determinante
de la matriz de f en cualquier base.

La función determinante ha sido introducida a través de las filas de las matrices.


Para mostrar que el tratamiento por columnas es análogo, basta probar que para
cada B ∈ Mn (R) se tiene que

det B = det B T . (2.1.5)

En efecto, sea B T = [b0ij ] con b0ij = bij . Nótese que π ∈ Sn es par sı́, y sólo si,
π −1 ∈ Sn lo es; además, cuando π recorre Sn , π −1 también lo hace. Por tanto,
X
det B = (−1)π b1π(1) · · · bnπ(n)
π∈Sn
X
= (−1)π b0π(1)1 · · · b0π(n)n .
π∈Sn

Sea π(i1 ) = 1, π(i2 ) = 2, . . . , π(in ) = n, reordenando el producto b0π(1)1 · · · b0π(n)n se


tiene que
X
det B = (−1)π b0π(i1 )i1 · · · b0π(in )in
π∈Sn
X
= (−1)π b01π−1 (1) · · · b0nπ−1 (n)
π∈Sn
X
= (−1)π b01π−1 (1) · · · b0nπ−1 (n) .
π −1 ∈Sn

En total,
X
det B = (−1)θ b01θ(1) · · · b0nθ(n)
θ∈Sn

= det B T

2.2. Determinantes y funciones multilineales


Consideramos en seguida la caracterización de los determinantes a través de
cuatro propiedades básicas.
28 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Definición 2.2.1. Sea V un R-espacio y n ≥ 1. Una función multilineal sobre


V de n argumentos es una aplicación

D : V × · · · × V → R,

que es lineal en cada uno de sus argumentos, es decir,


(i) D(vi , . . . , vi + vi0 , . . . , vn ) = D(v1 , . . . , vi , . . . , vn ) + D(v1 , . . . , vi0 , . . . , vn ), para
cada 1 ≤ i ≤ n.

(ii) D(v1 , . . . , vi · a, . . . , vn ) = D(v1 , . . . , vi , . . . , vn )a, a ∈ R, para cada 1 ≤ i ≤ n.

La función se dice alternada si

(iii) D(v1 , . . . , vi , vi+1 , . . . , vn ) = 0, para vi = vi+1 y cada 1 ≤ i ≤ n − 1;

y antisimétrica, si

(iv) D(v1 , . . . , vi , vi+1 , . . . , vn ) = −D(v1 , . . . , vi+1 , vi , . . . , vn ), para cada 1 ≤ i ≤ n.


Proposición 2.2.2. Toda función multilineal alternada es antisimétrica. Si 2 :=
1 + 1 R∗ , entonces el recı́proco es válido.
Demostración.

D(v1 , . . . , vi + vi+1 , vi + vi+1 , . . . , vn ) = 0


=D(v1 , . . . , vi , vi + vi+1 , . . . , vn ) + D(v1 , . . . , vi+1 , vi + vi+1 , . . . , vn )
=D(v1 , . . . , vi , vi , . . . , vn ) + D(v1 , . . . , vi , vi+1 , . . . , vn )+
D(v1 , . . . , vi+1 , vi , . . . , vn ) + D(v1 , . . . , vi+1 , vi+1 , . . . , vn ),

de donde
D(v1 , . . . , vi , vi+1 , . . . , vn ) = −D(v1 , . . . , vi+1 , vi , . . . , vn ).
Para el recı́proco basta considerar

D(v1 , . . . , vi , vi , . . . , vn ) = −D(v1 , . . . , vi , vi , . . . , vn ),

de donde 2D(v1 , . . . , vi , vi , . . . , vn ) = 0.
Proposición 2.2.3. La función determinante definida en (2.1.1), es una función
multilineal alternada de sus filas (y columnas).
Demostración. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.6.
Teorema 2.2.4. D : Mn (R) → R es una función multilineal y alternada respecto
de las filas, tal que D(E) = 1. Entonces D = det.
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 29

Demostración. Sean B, C ∈ Mn (R), tales Cr = Bs , Cs = Br para r 6= s y Ci = Bi


para i 6= r, s. Entonces D(C) = −D(B): en efecto, supóngase por ejemplo que s > r.
La matriz C es el resultado de intercambiar la r-ésima y s-ésima filas de B. Nótese
que este intercambio se logra aplicando 2(s − r) − 1 veces la propiedad (iv) de 2.2.1,
la cual podemos usar en virtud de 2.2.2. Puesto que toda permutación π ∈ Sn es
producto de transposiciones, entonces de lo demostrado hace un momento se obtiene:
si la matriz C ∈ Mn (R) se obtuvo de B ∈ Mn (R) mediante una permutación π de
sus filas, entonces D(C) = (−1)π D(B).
Antes de emprender la prueba propiamente, nótese que si la matriz B tiene dos filas
iguales, entonces D(B) = 0: si las filas son consecutivas no hay algo por mostrar.
De no ser ası́, aplicamos una permutación adecuada para que lo sean, y entonces
usamos lo probado hace un momento.
Sea B = [bij ] ∈ Mn (R) y ei = (0, . . . , 1, . . . , 0) para 1 ≤ i ≤ n. B Ppuede ser
n n n
considerado Pn como una elemento de R × · · · × R notando que B = [ j=1 b1j ·
ej , . . . , j=1 bnj · ej ]. De esto se sigue que
n
X n
X
D(B) =D[ b1j · ej , . . . , bnj · ej ]
j=1 j=1
n
X n
X
= b1j D[ej , . . . , bnj · ej ]
j=1 j=1

=··· =
X
= b1j1 · · · bnjn D[ej1 , . . . , ejn ],
j1 ,...,jn

donde j1 , . . . , jn recorren independientemente valores de 1 a n. El resto de la prueba


es similar a la demostración del teorema 2.1.9.
La proposición 2.2.3 y el teorema 2.2.4 garantizan la existencia y unicidad de
una función determinante.

Presentaremos a continuación un resultado antiguo  relativo a determinantes pero


i , . . . , ik
con aplicaciones recientes. Sea A ∈ Mm×n (R) y A 1 la submatriz de A de
j1 , . . . , j k
orden k × k, conformada por las filas i1 , . . . , ik y las columnas j1 , . . . , jk . Se tiene
entonces la siguiente fórmula.
Proposición 2.2.5 (Fórmula de Cauchy-Binet). Sean A ∈ Mm×n (R), B ∈
Mn×p (R) matrices sobre R y C ∈ Mm×p (R) su producto. Entonces,
  X    
i1 , . . . , i k i1 , . . . , i k r1 , . . . , r k
det C = det A det B ,
j1 , . . . , j k r1 , . . . , r k j1 , . . . , j k
30 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

donde la suma se extiende a todos los subconjuntos {r1 , . . . , rk } de In = {1, 2, . . . , n}


tales que 1 ≤ r1 < r2 < · · · < rk ≤ n.

Demostración. Ejercicio para el lector.

2.3. Menores y cofactores


La teorı́a de determinantes puede ser emprendida por medio de los llamados menores
de las matrices. La construcción en este caso la efectuamos por inducción sobre el
tamaño n de las matrices. Apoyándonos en el teorema 2.2.4, estableceremos que la
nueva definición coincide con la dada en (2.1.1) de la sección anterior.

Definición 2.3.1. Definimos inductivamente una función

D : Mn (R) → R

de la siguiente manera:

(i)

D1 : M1 (R) → R
a 7→ D1 (a) := a.

(ii)

D2 : M2 (R) → R
 
b11 b12
7→ b11 D1 (b22 ) − b21 D1 (b12 ) = b11 b22 − b21 b12 .
b21 b22

(iii) Se supone definida una función

Dn−1 : Mn−1 (R) → R


B 7→ Dn−1 (B)

(iv) Sea B = [bij ] ∈ Mn (R). Se denomina menor del elemento bij a la imagen
mediante Dn−1 de la matriz obtenida eliminando la i-ésima fila y la j-ésima
columna de B. Dicho menor lo denotaremos por Mij . Definimos entonces

D : Mn (R) → R
Xn
B 7→ (−1)i+1 bi1 Mi1 . (2.3.1)
i=1
2.3. MENORES Y COFACTORES 31

Se dice que la función D se ha definido por medio de los menores de la primera


columna.
Proposición 2.3.2. La función D de la definición 2.3.1 es multilineal y alternada
de sus filas. Además, D(E) = 1.
Demostración. La prueba de las cuatro propiedades requeridas se hace por inducción
sobre n. Los casos n = 1, 2 se demuestran directamente a partir de las definiciones
de D1 y D2 . Supóngase entonces que Dn−1 satisface las cuatro propiedades. Sea
E = (eij ) la idéntica de orden n. Puesto que eij = 0 para i 6= 1, de (2.3.1) resulta
D(E) = e11 M11 . Pero M11 = Dn−1 (En−1 ) donde En−1 denota la idéntica de tamaño
n − 1. Por inducción D(E) = 1.
Sea B = [bij ] ∈ Mn (R), v = (a1P , . . . , an ) ∈ Rn y C = [cij ] = (B1 , . . . , Br +
n
T
v, . . . , Bn ) . Por (2.3.1), D(C) = i=1 (−1)
i+1
ci1 Mi10 , donde Mi10 es el menor de
ci1 . Podemos escribir entonces
n
X
D(C) = (−1)i+1 ci1 Mi10 + (−1)r+1 (br1 + a1 )Mr1
i=1
i6=r
X n
= (−1)i+1 bi1 [Mi1 + Dn−1 (F )] + (−1)r+1 (br1 + a1 )Mr1 ,
i=1
i6=r

donde F es la matriz obtenida de C suprimiendo la primera columna y la i-ésima


fila. Resulta entonces
D(C) = D(B) + D[B1 , . . . , v, . . . , Bn ].
Sean ahora B = [bij ] ∈ Mn (R) y C = [cij ] = [B1 , . . . , aBr , . . . , Bn ]T , a ∈ R. Entonces
n
X
D(C) = (−1)i+1 ci1 Mi10
i=1
n
X
= (−1)i+1 bi1 aMi1 + (−1)r+1 br1 aMr1
i=1
i6=r

=aD(B).
Sean por último B = [bij ] ∈ Mn (R) tal que B = [B1 , . . . , Br , Br , . . . , Bn ]T . Entonces
n
X
D(B) = (−1)i+1 bi1 Mi1 + (−1)r+1 br1 Mr1 + (−1)r+2 Mr+1,1
i=1
i6=r,r+1

=0 + (−1)r+1 [br1 Mr1 − br1 Mr1 ],


dado que Mr1 = Mr+1,r . De esta manera, D(B) = 0.
32 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Del teorema 2.2.4 se desprende inmediatamente que la función D en (2.3.1)


coincide con la función definida en (2.1.1).
Como habı́amos mencionado antes, la función D se definió mediante los menores
de la primera columna. Sin embargo, también podemos definir la función D a través
de los menores de cualquier columna, y demostrar de manera análoga la proposición
2.3.2. De esto, y teniendo en cuenta que det(B T ) = det(B), resulta que
n
X
det B = (−1)i+j bij Mij , 1 ≤ j ≤ n, (2.3.2)
i=1
n
X
det B = (−1)j+i bij Mij , 1 ≤ i ≤ n. (2.3.3)
j=1

Definición 2.3.3. Sea B = [bij ] ∈ Mn (R). El elemento Bij definido mediante

Bij := (−1)i+j Mij ,

se denomina el complemento algebraico de bij . La matriz Cof (B) de los com-


plementos algebraicos
Cof (B) = [Bij ],
se denomina matriz cofactor de B. La transpuesta Cof (B)T de la matriz cofactor
de denomina la adjunta de B, y se denota por Adj(B).

Teorema 2.3.4. Sea B ∈ Mn (R). Entonces,

(i) B Adj(B) = Adj(B)B = det(B)E.

(ii) B ∈ GLn (R) si, y sólo si, det(B) ∈ R∗ . En tal caso

B −1 = (det B)−1 Adj(B).

Demostración. (i) Probaremos inicialmente las siguientes fórmulas:


(
0 i 6= j
bi1 Bj1 + · · · + bin Bjn = (2.3.4)
det B i=j
(
0 i 6= j
b1j B1i + · · · + bnj Bni = (2.3.5)
det B i = j.

Las pruebas en ambos casos son análogas, por ello sólo analizaremos (2.3.4). El caso
i = j corresponde a (2.3.3). Sea pues i 6= j y considérese la matriz C = [cij ] obtenida
2.3. MENORES Y COFACTORES 33

de B reemplazando la j-ésima fila de B por la i-ésima. Entonces calculando det C


por la j-ésima fila tenemos
n
X n
X
k+j
0 = det C = (−1) bjk Mjk = bik Bjk .
k=1 k=1

Sea ahora C = [cij ] = B Adj(B). Entonces,


n
(
X 0 i 6= j
cij = bik Bjk
k=1
det B i = j,

de donde B Adj(B) = det(B)E. De (2.3.5) resulta también det(B)E = Adj(B)B.


(ii) Es consecuencia de (i) y del corolario 2.1.10.
Del teorema anterior se desprenden algunas consecuencias interesantes. Sean
B, C ∈ Mn (R) tales que BC = E, entonces det B ∈ R∗ , con lo cual B ∈ GLn (R) y
CB = E. La función

det : GLn (R) → R∗


B 7→ det B

es un homomorfismo sobreyectivo de grupos.


Definición 2.3.5. El conjunto de matrices de GLn (R) cuyo determinante es 1,
es decir, el núcleo del homomorfismo det es un subgrupo normal de GLn (R), de-
nominado el grupo especial lineal de dimensión n sobre R, y se denota por
SLn (R).
SLn (R) constituye otro de los grupos de matrices que estudiaremos en el último
capı́tulo. Se tienen además las siguientes propiedades:

En (R) ≤ SLn (R)  GLn (R), GLn (R)/SLn (R) ∼


= R∗ , (2.3.6)

donde En (R) es el grupo elemental generado por todas las transvecciones (véase
la definición 1.4.3). Se puede probar que para n ≥ 3, En (R)  SLn (R). Además,
existen clases importantes de anillos conmutativos para los cuales el grupo especial
y el elemental coinciden. Sobre esto volveremos en el último capı́tulo (véase también
[13]). Por ahora veamos las siguientes propiedades para cuerpos.
Proposición 2.3.6. Sea K un cuerpo. Entonces,
(i) GLn (K) = hTij (a), Dn (b), 1 ≤ i, j ≤ n, i 6= j, a ∈ K, b ∈ K ∗ i.

(ii) En (K) = SLn (K).


34 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Demostración.
  (i) Inducción sobre n. Para n = 1 no hay algo por demostrar. Sea
a b
n=2y ∈ GLn (K); no es posible que a = 0 = c; sea c 6= 0, entonces
c d
1 b0
 1−a     
1 c a b
= , b0 = b + (1−a)d
c
,
0 1 c d c d
1 0 1 b0 1 b0
    
= , d0 = −b0 c + d,
−c 1  c d  0 d0 
1 b0 1 −b0

1 0
= ,
0 d0 0 1 0 d0
de donde,
a−1
1 0 1 0 1 b0
      
a b 1 c
= ;
c d 0 1 c 1 0 d0 0 1
nótese que d0 6= 0, pues de lo contrario d = b0 c = bc+d−ab
c
c y ası́ bc − ad = 0, esto
d d
último implica que b = c a, y como d = c c tenemos que las columnas dela matriz son
d11 · · · d1n
l.d. contradiciendo nuestra hipótesis inicial. Sea D =   ∈ GLn (K);
dn1 · · · dnn
existe 1 ≤ j ≤ n tal que dj1 6= 0; entonces

1 d012 · · · d01n
 
1 − d11  d021 d022 · · · d02n 
T1j ( )D =  ,
dj1  
0 0 0
dn1 dn2 · · · dnn

mediante operaciones
  elementales del tipo Tij reducimos esta última matriz a una
1 0
de la forma donde D0 ∈ GLn−1 (K); mediante inducción y despejando como
0 D0
hicimos en el caso n = 2 completamos la prueba (nótese que en la factorización de
D sólo aparece una matriz diagonal). Por otra parte, si c = 0 pero a 6= 0, realizamos
la siguiente operación elemental previamente:
    
1 0 a b a b
= , con a 6= 0.
1 1 0 d a b+d

(ii) Esto se obtiene de (i) y (2.3.6).


Otras consecuencias de la teorı́a de determinantes son las siguientes.

Teorema 2.3.7. Sea V un R-espacio libre de dimensión finita n ≥ 1. Tenemos,

(i) Si X es un sistema de generadores de V con n elementos, entonces X es una


base de V .
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 35

(ii) Un conjunto X de generadores de V con r ≥ 1 elementos es minimal si V


no se puede generar con menos de R elementos. Si X es minimal, entonces X
es una base de V y |X| = n. En particular, V no se puede generar con menos
de n elementos, es decir, dim V = minimal de generadores de V .

Demostración. (i) Vimos en el ejemplo 1.3.6 que aunque X sea l.i. con |X| = n,
no necesariamente X resulta ser una base de V . Veremos ahora que si V = hXi y
|X| = n, entonces X es una base de V . En efecto, sean Y = {y1 , . . . , yn } un base
de V , y r1 , . . . , rn ∈ R tales que x1 · r1 + · · · + xn · rn = 0, entonces [X][r]T = 0;
sin embargo, [X] = [Y ]B y [Y ] = [X]C para ciertas matrices B, C ∈ Mn (R).
De esta forma, [Y ]B[r]T = 0 de donde B[r]T = 0; además, [Y ] = [Y ]BC y en
consecuencia BC = E, con lo que det(B) det(C) = 1, es decir, det(B) ∈ R∗ y por
tanto B ∈ GLn (R); ası́, CB = E y CB[r]T = 0, de donde se concluye que [r]T = 0.
(ii) Como r es minimal necesariamente r ≤ n. Supongamos que r < n; como en (i),
sea Y = {y1 , . . . , yn } una base de V , entonces [X] = [Y ]B para alguna B ∈ Mn×r (R)
y [Y ] = [X]C para cierta matriz C ∈ Mr×n (R); ası́ [Y ] = [Y ]BC, y por tanto,
BC = E. Sean B0 := [B | 0] ∈ Mn (R) y C0 := [ C0 ] ∈ Mn (R), entonces B0 C0 = E
y, en consecuencia, det(B0 ) det(C0 ) = 1; pero det(C0 ) = 0 lo que es claramente una
contradicción, y ası́ necesariamente r = n. De (i) se sigue que X es una base.

Teorema 2.3.8. Sea R un anillo conmutativo cualquiera y sea f : Rn → Rn un


homomorfismo sobreyectivo. Entonces f es biyectivo.

Demostración. Sea X = {e1 , . . . , en } la base canónica de Rn ; entonces existen


a1 , . . . , an ∈ Rn tales que f (ai ) = ei para 1 ≤ i ≤ n. Sea g : Rn → Rn el homomorfis-
mo dado por g(ei ) = ai para 1 ≤ i ≤ n, entonces f g = iRn ; ası́ mX (f g) = F G = E,
de modo que det(F ) ∈ R∗ y, por tanto, F es invertible. En consecuencia, f es un
homomorfismo biyectivo.

Ejemplo 2.3.9. Aún en DIP s inyectividad no implica sobreyectividad: basta con-


siderar la aplicación f : Z → Z dada por f (a) := 2a; claramente esta aplicación es
un homomorfimo inyectivo pero no sobre.

2.4. Ideales, rango y sistemas de ecuaciones


Definición 2.4.1. Sea R un anillo conmutativo. Se denomina sistema lineal de
ecuaciones en n indeterminadas y m ecuaciones, al conjunto de ecuaciones

a11 x1 + · · · + a1n xn = b1
.. .. .. .. (2.4.1)
. . . .
am1 x1 + · · · + amn xn = bm
36 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

con a11 , . . . , amn , b1 , . . . , bm ∈ R. Los elementos aij se denominan coeficientes del


sistema, los bi se denominan los términos independientes del sistema, esto para
1 ≤ i ≤ m y 1 ≤ j ≤ n, y x1 , . . . , xn representan elementos de R por determinar. Si
A = [aij ] ∈ Mm×n (R) es la matriz de coeficientes del sistema, X := [x1 , . . . , xn ]T y
B := [b1 , . . . , bm ]T , el sistema (2.4.1) puede escribirse matricialmente en la forma

AX = B. (2.4.2)

El sistema (2.4.2) se dice homogéneo si B = 0. Se denomina solución del sistema


(2.4.2) a un vector columna X0 = [x01 , . . . , x0n ], x0i ∈ R, tal que AX0 = B. (2.4.2)
se dice compatible (o soluble) si posee al menos una solución, de los contrario se
denomina incompatible. Un sistema compatible con más de una solución se llama
indeterminado. Sea A0 X = B 0 otro sistema de orden m × n sobre R; AX = B y
A0 X = B 0 se dicen equivalentes, si ambos son incompatibles, o bien siendo ambos
compatibles, tienen el mismo conjunto de soluciones. Es claro que esta relación es
de equivalencia. La matriz (A | B) de orden m × (n + 1) obtenida de A adjuntando
B como última columna, se denomina matriz ampliada del sistema (2.4.2).
El propósito de esta sección es estudiar la compatibilidad y determinabilidad
de los sistemas lineales de ecuaciones con coeficientes en un anillo conmutativo
arbitrario. Supongamos inicialmente que el sistema (2.4.2) es cuadrado, es decir,
m = n. Multiplicando (2.4.2) por la adjunta de A resulta

Adj(A)AX = Adj(A)B,
 Pn 
k+1
k=1 (−1) M k1 b k
det(A)[x1 , . . . , xn ]T =  ..
.
 
Pn .
k+n
k=1 (−1) Mkn bk
Entonces,
n
X
det(A)xj = (−1)k+j Mkj bk ,
k=1
es decir,
 
a11 · · · a1,j−1 b1 a1,j+1 · · · a1n
det(A)xj = det  ... .. .. .. .. .. ..  (2.4.3)

. . . . . . 
an1 · · · an,j−1 bn an,j+1 · · · ann

para cada 1 ≤ j ≤ n, es decir, det(A)xj = det[A1 · · · Aj−1 BAj+1 · · · An ]. Nótese que


si det(A) ∈ R∗ , entonces el sistema cuadrado AX = B es determinado. En tal caso,
(2.4.3) se conoce como la regla de Cramer , con X = A−1 B.
Pasamos ahora a considerar el caso general de un sistema rectangular como en
(2.4.2). Comencemos por recordar el concepto de ideal de un anillo conmutativo R.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 37

Definición 2.4.2. Un subconjunto no vacı́o I de R se denomina ideal de R si

(i) Para cualesquiera a, b ∈ I su suma a + b ∈ I.

(ii) Para cada a ∈ I y cada r ∈ R el producto ar ∈ I.

En otras palabras, los ideales de R son los subespacios del R-espacio canónico
1
R (véase [6] ). Podemos entonces hablar del ideal generado por un conjunto (finito
o infinito) X de elementos de R. Sea A = [aij ] ∈ Mn×n (R). Para cada 1 ≤ k ≤
mı́n{m, n}, sea Ik (A) el ideal generado por los determinantes de todas las submatri-
ces de orden k × k de A. Se define además Ik (A) := R para k ≤ 0 e Ik (A) := 0 para
k > mı́n{m, n}. Ik (A) se denomina el k-ésimo ideal determinante de la matriz
A.
Nótese que se tiene la cadena

· · · = I−1 (A) = R = I0 (A) ⊇ I1 (A) ⊇ · · · ⊇ Imı́n{m,n} ⊇ Imı́n{m,n}+1 = 0 = · · · .

Presentamos enseguida el primer criterio de necesidad para la compatibilidad de un


sistema.

Proposición 2.4.3. Si el sistema (2.4.2) tiene solución, entonces los ideales de-
terminantes de A coiniciden con los ideales determinantes de la matriz ampliada
(A | B).
Demostración. Podemos asumir que m ≤ n: en efecto, si m > n, agregando in-
determinadas xn+1 , . . . , xm con coeficientes nulos y columnas a la matriz A, ob-
tenemos un nuevo sistema A0 X 0 = Bcon  A0 = (A | 0); nótese que X es solu-
X
xn+1 
ción de AX = B si, y sólo si, X 0 =  ..  es solución de A0 X 0 = B. Además,
 
 . 
xm
0 0
Ik (A) = Ik (A ) e Ik (A | B) = Ik (A | B), para todo k ∈ Z. Por lo tanto, dado
k ∈ Z, Ik (A0 ) = Ik (A0 | B) si, y sólo si, Ik (A) = Ik (A | B). Supondremos entonces
que m ≤ n; para k ≤ 0 ó k > mı́n{m, n} = m se tiene que Ik (A) = Ik (A | B).
Sea entonces 1 ≤ k ≤ mı́n{m, n} = m; es claro que Ik (A) ⊆ Ik (A | B). Sea s el
determinante de una submatriz de (A | B) de tamaño k × k; si toda la submatriz
está incluida en A se sigue de inmediato que s ∈ Ik (A). Supongamos entonces que
la submatriz incluye la columna B:
 
ai1 j1 · · · ai1 jk−1 bi1
 ai j · · · ai j bi2 
 21 2 k−1
s = det  .. ..  .

.. ..
 . . . . 
aik j1 · · · aik jk−1 bik
38 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Sea X = [x1 , . . . , xn ] una solución de AX = B, entonces

bi1 = ai1 1 x1 + · · · + ai1 n xn


.. .. .. ..
. . . .
bik = aik 1 x1 + · · · + aik n xn .

Aplicando las propiedades de la función determinante obtenemos


 
ai1 j1 · · · ai1 jk−1 ai1 1
s =x1 det  ... .. .. ..  + · · · +

. . . 
aik j1 · · · aik jk−1 aik 1
 
ai1 j1 · · · ai1 jk−1 ai1 n
xn det  ... .. .. ..  .

. . . 
aik j1 · · · aik jk−1 aik n

De esta forma s resulta ser una combinación lineal de subdeterminantes de A de


tamaño k × k (algunos de ellos pueden ser nulos). En consecuencia, s ∈ Ik (A).

La condición de la proposición 2.4.3 no es suficiente para garantizar la solubilidad


del sistema AX = B. Es posible presentar un ejemplo donde los ideales determi-
nantes de A y (A | B) coincidan, sin que el sistema AX = B tenga solución (véase
[1], pág. 59, ejemplo 5.24).

Definición 2.4.4. Sea A ∈ Mm×n (R), con m, n enteros positivos arbitrarios. El


rank(A) de la matriz A se define como el mayor entero no negativo k tal que
Ik (A) 6= 0. Nótese que 0 ≤ rank(A) ≤ mı́n{m, n}. El rango de A según McCoy,
denotado por Mrank(A), es el mayor entero no negativo tal que AnnR (Ik (A)) = 0,
donde
AnnR (Ik (A)) := {r ∈ R | Ik (A)r = 0},
es decir, AnnR (Ik (A)) es el conjunto de elementos r ∈ R que anulan a cada elemento
de Ik (A).

Se tienen las siguientes propiedades del rango.

Proposición 2.4.5. Sea A ∈ Mm×n (R). Entonces,

(i) rank(A) = rank(AT ),


M rank(A) = M rank(AT ).

(ii) Para cada Q ∈ GLm (R) y P ∈ GLn (R),


rank(QAP ) = rank(A),
M rank(QAP ) = M rank(A).
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 39

(iii) 0 ≤ M rank(A) ≤ rank(A) ≤ mı́n{m, n}.

Demostración. (i) Veamos primero que Ik (A) = Ik (AT ), para todo k ∈ Z. Para
k ≤ 0 tenemos que Ik (A) = R e Ik (AT ) = R; para k > mı́n{m, n} tenemos que
Ik (A) = 0 = Ik (AT ). Supongamos ahora que 1 ≤ k ≤ mı́n{m,  n} y sea s un
i 1 · · · ik
 .. .. ..  de A tal que s =
generador de Ik (A), entonces existe una submatriz A  . . .
j1 · · · j k
   
i1 · · · ik i1 · · · ik
 .. .
.. .
..  = det A  ...
T .. .. ; de esto último se sigue que s ∈ I (AT ).
det A  .
 
. . k
j1 · · · jk j1 · · · jk
De manera análoga se muestra la otra contenencia, de modo que Ik (A) = Ik (AT );
ası́ rank(A) coincide con el mayor entero positivo k tal que Ik (A) 6= 0, que es
precisamente el mayor entero positivo k para el que Ik (AT ) 6= 0, es decir, es igual al
rank(AT ). De la misma manera tenemos que M rank(A) = M rank(AT ).
(ii) Comenzamos probando la siguiente propiedad general (véase [1], pág. 43, lema
4.5): si B ∈ Mm×p (R) y C ∈ Mp×n (R) entonces

Ik (BC) ⊆ Ik (B) ∩ Ik (C), para todo k ∈ Z. (2.4.4)

En efecto, para k ≤ 0 tenemos que Ik (BC) = R, Ik (B) = R = Ik (C); de forma


similar, si k > mı́n{m, n} entonces Ik (BC) = 0, pero en este caso k > m ó k > n
lo cual implica que k > mı́n{m, p} ó k > mı́n{p, n}, luego Ik (B) = 0 ó Ik (C) = 0.
Por tanto, podemos asumir 1 ≤ k ≤ mı́n{m, n}. Para terminar la demostración de
(2.4.4) probemos los siguientes preliminares:
(a) Ik (BC) ⊆ Ik (C): Sea C = [C 1 · · · C n ], entonces BC = [BC 1 · · · BC n ].
Sea s un generador de Ik (BC), es decir, s es el determinante de una submatriz
de BC de orden k × k tomando las filas i1 < · · · < ik y las columnas j1 <
· · · < jk de BC, entonces (BC)j1 = BC j1 , . . . , (BC)jk = BC jk , de modo que
s ∈ Ik ([(BC)j1 · · · (BC)jk ]) = Ik ([BC j1 · · · BC jk ]) = Ik (B[C j1 · · · C jk ]). Claramente
Ik ([C j1 · · · C jk ]) ⊆ Ik (C), luego basta probar que Ik (B[C j1 · · · C jk ]) ⊆ Ik ([C j1 · · · C jk ]).
Ası́ pues, estamos en la situación inical pero con dos matrices B ∈ Mm×p (R),
F ∈ Mp×k (R) con 1 ≤ k ≤ mı́n{m, k}, esto es, k ≤ m. Tenemos

 
B1 F
BF =  ... ,
 
Bm F
40 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

luego para cada 1 ≤ i ≤ m


 
f11 · · · fik
(BF )i =Bi F = [bi1 · · · bip ]  ... .. .. 

. . 
fp1 · · · fpk
=[bi1 f11 + · · · + bip fp1 · · · bi1 f1k + · · · + bip fpk ]
=bi1 F1 + · · · + bip Fp ,
Pp
de donde (BF )i = l=1 bil Fl .
Sea u un generador de Ik (BF ), entonces
   
i1 · · · ik (BF )i1
u = det(BF  ... .. .. ) = det  .. 

. .   . 
1 ··· k (BF )ik
 
Pp  F l
l=1 bi1 l Fl p Pp bi l Fl 
= det  .. X  l=1 2 
= bi1 l det 
 
. .. 
Pp  . 
l=1 bik l Fl
l=1 Pp
l=1 bik l Fl
 
Fl1
X  .. 
=··· = bi1 l1 · · · bik lk det  .  ,
l1 ,...,lk Flk
   
Fl1 Fl1
 ..   .. 
pero det  .  = 0 si hay filas repetidas, y en los demás casos det  .  ∈ Ik (F ).
Flk Flk
Por lo tanto, u ∈ Ik (F ).
(b) Ik (BC) ⊆ Ik (B): Por (i) Ik (BC) = Ik ((BC)T ) = Ik (C T B T ) ⊆ Ik (B T ) =
Ik (B). Con esto hemos completado la prueba de 2.4.4.
De (2.4.4) resulta Ik (P AQ) = Ik (A) para todo k ∈ Z, P ∈ GLm (R) y Q ∈
GLn (R): en efecto, Ik (P A) ⊆ Ik (A) = Ik (P −1 (P A)) ⊆ Ik (P A), entonces Ik (P A) =
IA ; Ik (P AQ) = Ik (AQ) ⊆ Ik (A) = Ik ((AQ)Q−1 ) ⊆ Ik (AQ) = Ik (P AQ), y ası́,
Ik (P AQ) = Ik (A). En consecuencia, rank(P AQ) = rank(A) y M rank(P AQ) =
M rank(A).
(iii) Es claro que rank(A) ≤ mı́n{m, n}, también por definición M rank(A) ≥ 0; sea
l = M rank(A) y supongamos que l > rank(A), entonces Il (A) = 0 y en consecuencia
AnR (Il (A)) = R, lo que claramente es una contradicción.
Sea ahora A ∈ Mm×n (R) con m ≤ n y supóngase que M rank(A) = m. Sea

Im (A| B) el ideal generado por los determinantes de todas las submatrices de orden
m × m de (A | B) que no son completamente submatrices de A, es decir, la columna
B va incluida.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 41

Proposición 2.4.6. Sea A ∈ Mm×n con m ≤ n, y sea M rank(A) = m. Si existe


un ideal J de R y un elemento s ∈ R (que no sea divisor de cero), tales que

JIm (A | B) ⊆ hsi ⊆ JIm (A),

entonces AX = B es soluble.

Demostración. Antes de probar la proposición, recordemos algunos hechos elemen-


tales relacionados con divisores de cero e ideales. Un elemento s ∈ R se dice que no
es divisor de cero en R si s 6= 0 y para cada a ∈ R tal que sa = 0 se tiene que
a = 0. De otra parte, para I, J ideales de un anillo R se define su producto IJ como
el ideal generado por el conjunto de todos los productos de la forma ab, con a ∈ I y
b ∈ J. Nótese entonces que cada elemento de IJ es una suma finita a1 b1 + · · · + at bt ,
con ai ∈ I, bi ∈ J, 1 ≤ i ≤ t (véase [6]).
Como M rank(A) = 0, entonces AnnR (Im (A)) = 0 y por tanto, Im (A) 6= 0. Existe
entonces al menos una submatriz A0 de A de orden m×m con determinante no nulo.
Reenumerando las columnas y las indeterminadas x1 , . . . , xn , podemos asumir sin
pérdida de generalidad que
 
a11 · · · a1m
A0 =  ... .. ..  , r := det(A0 ) 6= 0.

. .  1
am1 · · · amm

Entonces,     
det(A0 ) · · · 0 b1 b1
. .. . 0 0 . 
  ..  = A Adj(A )  ..  ,
    

0 · · · det(A0 ) bm bm
y por tanto,
     
r1 · · · 0 b1 (−1)1+1 M11 ··· (−1)m+1 Mm1 b1
...   ..  0 .. .. ..   .. 
  .  =A 

 . . .  . 
0 · · · r1 bm (−1)1+m M1m · · · (−1)m+m Mmm bm
 
(−1)1+1 b1 M11 + · · · + (−1)m+1 bm Mm1
=A0 
 .. 
. 
(−1)1+m b1 M1m + · · · + (−1)m+m bm Mmm
 
x11
=A0  ...  ,
 
x1m
42 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


Pm
con x1j ∈ Im (A | B), luego r1 bi = j=1 aij x1j para 1 ≤ i ≤ m. Tomando x1m+1 =
1
· · · = xn = 0 obtenemos
n
X
r1 b i aij x1j , 1 ≤ i ≤ m.
j=1

Sean r1 , . . . , rk los generadores de Im (A). De manera análoga a como lo hicimos hace


un momento tenemos
n
X
rt b i = aij xtj , 1 ≤ i ≤ m, 1 ≤ t ≤ k,
j=1


donde xtj ∈ Im (A | B). Por hipótesis existen q1 , . . . , qk ∈ J tales que
k
X
s= qt r t .
t=1

Entonces
k
X k X
X n
sbi = qt r t b i = qt aij xtj
t=1 t=1 j=1
n
X Xk
= aij ( qt xtj ).
j=1 t=1

Pk t ∗
Pero t=1 qt xj ∈ JIm (A | B) ⊆ hsi. Por lo tanto,
n
X
sbi = aij sxej , xej ∈ R, 1 ≤ i ≤ m,
j=1

y como s no es divisor de cero tenemos que


n
X
bi = aij xej .
j=1

Corolario 2.4.7. Sea A ∈ Mm×n (R) con m ≤ n. Si Im (A) = R, entonces AX = B


es soluble.
Demostración. Im (A) = R implica que M rank(A) = m. Tomando J = R y s = 1
en la proposición 2.4.6, el corolario se sigue de inmediato.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 43

Evidentemente el recı́proco no es siempre cierto, basta considerar el sistema


homogéneo sobre el anillo Z de enteros
    
1 0 x 0
= .
0 0 y 0

Definición 2.4.8. Sea A ∈ Mm×n (R); se dice que A es unimodular si Imı́n{m,n} (A)
= R.
Corolario 2.4.9. Sea A ∈ Mm×n (R).
(i) Sea m ≤ n. Entonces, A es unimodular si, y sólo si, A tiene inversa a derecha.

(ii) Sea n ≤ m. Entonces, A es unimodular si, y sólo si, A tiene inversa a izquier-
da.
Demostración. (i)⇒): Como m ≤ n entonces   mı́n{m, n} =  m,
 ası́ Im (A) = R y
1 0
0 0
por el corolario 2.4.9 tenemos que AX =  ..  , . . . , AX =  ..  son solubles, luego
   
. .
0 1
   
c11 c1m
 ..   .. 
existen C =  .  , . . . , C =  .  ∈ Rn tales que A[C 1 · · · C m ] = E, es decir,
1 m

cn1 cnm
1 m
si C = [C · · · C ], entonces C es una inversa derecha de A.
⇐): Si AC = E para alguna C ∈ Mn×m (R), entonces Im (AC) = Im (E) = R ⊆
Im (A) ∩ Im (C), y por tanto, Im (A) = R, es decir, A es unimodular dado que
mı́n{m, n} = m.
(ii) Sea n ≤ m; como A ∈ Mm×n (R) entonces AT ∈ Mn×m (R); ası́, AT tiene in-
versa a derecha si, y sólo si, In (AT ) = R, es decir, si existe D ∈ Mm×n (R) tal que
AT D = E. Esto último se tiene si, y sólo si In (A) = R dado que In (A) = In (AT ).
Por lo tanto, DT A = E si, y sólo si, A es unimodular.
Observación 2.4.10. (i) Sea A ∈ Mm×n (R) con m ≤ n. Entonces A no puede tener
inversa a izquierda: si existe C ∈ Mn×m (R) tal que CA = E, entonces [C | 0][ A0 ] = E
y tomando determinantes obtenemos que 0 = 1.
(ii) Sea A ∈ Mm×n (R) con n ≤ m. Entonces A no puede tener inversa a derecha:
si existe C ∈ Mm×n (R) tal que CA = E, entonces [A | 0][ C0 ] = E y tomando
determinantes obtenemos que 0 = 1.
Estudiaremos ahora los sistemas homogéneos AX = 0 con A ∈ Mm×n (R). Nótese
en primer lugar que tales sistemas son solubles y que el conjunto de soluciones
conforman un subespacio de Mn×1 (R) ∼= Rn .
44 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Teorema 2.4.11. Sea A ∈ Mm×n (R). AX = 0 tiene solución no trivial X =


[x1 , . . . , xn ]T si, y sólo si, M rank(A) < n. En particular si m < n, entonces el
sistema AX = 0 tiene solución no trivial.
Demostración. ⇒): Sea X = [x1 . . . , xn ]T una solución no trivial del sistema AX =
0, luego xj 6= 0 para algún subı́ndice j, 1 ≤ j ≤ n. Si m < n, tenemos que
M rank(A) ≤ m < n y no hay algo por probar. Sea entonces m ≥ n; de este modo
   
x1 a11 · · · a1n
A0  ...  = 0, con A0 =  ... .. ..  .
  
. . 
xn an1 · · · ann
Multiplicando por Adj(A0 ) obtenemos
det(A0 )xj = 0. (2.4.5)
Nótese que si A0 es cualquier submatriz de A de tamaño n × n, entonces también se
tiene 2.4.5; en otras palabras, xj 6= 0 anula a todos los generadores de In (A). Por lo
tanto, AnnR (In (A)) 6= 0, y ası́ M rank(A) < n.
⇐): Supongamos ahora que t := M rank(A) < n; entonces AnnR (It+1 (A)) 6= 0,
sea y 6= 0 ∈ R tal que It+1 (A)y = 0; si t = 0 entonces X := [y, . . . , y] es una
solución no trivial del sistema. Supongamos entonces que 1 ≤ t ≤ mı́n{m, n}; como
AnnR (It (A)) = 0, el producto de y con algún generador de It (A) es no nulo. Este
generador es el determinante de una submatriz de A de orden t×t. Permutando filas
y/o columnas de A y reindizando las indeterminadas, podemos asumir sin pérdida
de generalidad que tal submatriz es
 
a11 · · · a1t
A0  ... .. ..  , y(det(A0 )) 6= 0.

. . 
at1 · · · att
Sea A00 la matriz  
a11 · · · a1,t+1
A00 :=  ... .. ..  ,

. . 
at+1,1 · · · at+1,t+1
(si t = m, tomamos at+1,1 = · · · = at+1,t+1 = 0). Sea dj el determinante de la
submatriz de A00 obtenida al suprimir la última fila y la j-ésima columna, 1 ≤ j ≤
t + 1; sean además
hj :=(−1)j+(t+1) dj , 1 ≤ j ≤ t + 1
xej :=hj y, 1 ≤ j ≤ t + 1
xej :=0, t + 2 ≤ j ≤ n
Xe fn ]T .
:=[xe1 , . . . , x
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 45

0
Nótese que X
e=6 0 dado que xg
t+1 = y det(A ) 6= 0; se tiene entonces que

 Pt+1 
j=1 a1j xej
AX
e = ..
.

 .
Pt+1
j=1 amj x
ej

Pero para 1 ≤ i ≤ m,
t+1
X Xt+1
aij xej =( aij hj )y
j=1 j=1

Xt+1
=( aij (−1)j+(t+1) dj )y
j=1

Xt+1
=( aij A00t+1,j )y.
j=1

Para i 6= t + 1 la suma en el último paréntesis es nula; para i = t + 1 esta suma


corresponde al determinante de una submatriz de A de tamaño (t + 1) × (t + 1), es
decir, es un generador de It+1 (A). Como y ∈ AnnR (It+1 (A)) entonces AX e = 0 y el
sistema tiene una solución no trivial.

Corolario 2.4.12. Sea A ∈ Mn (R). AX = 0 tiene solución no trivial si, y sólo si,
det(A) es un divisor de cero en R.

Demostración. det(A) es un divisor de cero en R si, y sólo si, AnnR (In (A)) 6= 0 si,
y sólo si, M rank(A) < n.

Corolario 2.4.13. Sea V un R-espacio libre de dimensión m ≥ 1. Entonces todo


conjunto de n > m vectores de V es l.d.

Demostración. Sean Y := {y1 , . . . , ym } una base de V , v1 , . . . , vn ∈ V y b1 , . . . , bn ∈


R tales que v1 · b1 + · · · + vn · bn = 0. Entonces, existen escalares aij ∈ R tales que
(a11 ·y1 +· · ·+am1 ·ym )·b1 +· · ·+(a1n ·y1 +· · ·+amn ·ym )·bn = 0. De la independencia
lineal de los vectores de Y resulta el sistema AB = 0, con A ∈ Mm×n (R) y B :=
[b1 , . . . , bn ]T . Según el teorema 2.4.11, algún bj es no nulo.

Ejemplo 2.4.14. Calculemos rank(A) y M rank(A) para


     
2 2 2 0 1 2
A= ,B= ,C= ∈ M2 (Z6 ).
0 2 0 3 3 5
46 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

rank(A): I0 (A) = Z6 , I1 (A) = h2i, I2 (A) = h2i; ası́ rank(A) = 2.


M rank(A): Ann(I0 (A)) = 0, Ann(I1 (A)) = {0, 3} = h3i, Ann(I2 (A)) = h3i;
ası́ M rank(A) = 0.
rank(B): I0 (B) = Z6 , I1 (B) = h2, 3i = Z6 dado que 3 − 2 = 1 ∈ I1 (B) e
I2 (B) = 0; entonces rank(B) = 1.
M rank(B): Ann(I0 (B)) = 0, Ann(I1 (B)) = 0, Ann(I2 (B)) = Z6 ; por lo tanto
M rank(B) = 1.
rank(C), M rank(C): I0 (C) = Z6 , I1 (C) = h1, 2, 3, 5i = Z6 , I2 (C) = h−1i =
h1i = Z6 . Entonces rank(C) = 2 = M rank(C).

Ejemplo 2.4.15. Sea R = Z4 . Calculemos todas las soluciones de AX = B con


   
1 1 1 1
A = 2 1 2 y B = 2.
  
1 0 2 3
Tenemos,
   
1 1 1 1
det(A) =1 det + 2 det
1 2 2 1
=(2 − 1) + 2(1 − 2) = −1 = 3,
 
1 1 1
det 2 1 2 =3 + 2(−1) = 1;

3 0 2

entonces 3x1 = 1 de modo que x1 = 3. Análogamente,


 
1 1 1
det 2 2 2 = 0,
1 3 2
ası́ que 3x2 = 0 implica x2 = 0.
Finalmente,
 
1 1 1
det 2 1 2 = 1 + 3(−1) = −2 = 2,
1 0 3
 
3
por tanto de 3x3 = 2 se sigue x3 = 2 y en consecuencia X = 2.

2
A continuación haremos la comparación de algunos de los resultados de esta
sección con los correspondientes del álgebra lineal clásica sobre cuerpos.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 47

Definición 2.4.16. Sea K un cuerpo y sea X = {x1 , . . . , xn } un conjunto finito


de vectores de un K-espacio vectorial V . Se define el rango de X, denotado por
Rank(X), como la dimensión de su envolvente lineal, es decir,
Rank(X) := dim(hXi).
Recordemos algunas propiedades destacadas del rango:
(i) Rank(X) coincide con el máximo número de vectores l.i. que posea X. Nótese
también que Rank(X) concuerda con el número minimal de generadores de
hXi (véase el teorema 2.3.7).
(ii) Si V es un K-espacio de dimensión n y X es un sistema de n vectores de V ,
entonces X es una base de V si, y sólo si, Rank(X) = n.
(iii) El rango columna de una matriz F ∈ Mm×n (K) se define como el rango
de sus vectores columna: cada columna de F se puede considerar como un
elemento de K m y de esta forma
rango columna de F := Rank{F (1) , . . . , F (n) }.

(iv) El rango columna de F coincide con la dimensión del espacio imagen de la


transformación f que F representa.
(v) De manera análoga se define el rango fila de la matriz F , el cual coincide
con el rango columna. Este rango común se denomina rango de la matriz F
y se denota por Rank(F ). En particular se tiene que Rank(F ) = Rank(F T ).
(vi) F ∈ Mn (K) es invertible si, y sólo si, Rank(F ) = n.
(vii) Sean F ∈ Mm×n (K), Q ∈ GLm (K) y P ∈ GLn (K). Entonces,
Rank(QF P ) = Rank(F ).

(viii) Dos matrices son equivalentes si, y sólo si, tienen el mismo rango.
Proposición 2.4.17. Para cada A ∈ Mm×n (K) se cumple
0 ≤ M rank(A) = rank(A) = Rank(A).
Demostración. Si k = rank(A), Ik (A) 6= 0, Ik+1 = 0, luego AnnK (Ik (A)) = 0 y
AnnK (Ik+1 (A)) = K, con lo cual M rank(A) = k. Sea ahora Rank(A) = r, entonces
A es equivalente a la matriz
 
E 0
B= , E = Idéntica de orden r × r.
0 0
Por la proposición 2.4.5, rank(A) = rank(B) = r; en consecuencia, r = k.
48 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

En relación con los sistemas de ecuaciones lineales sobre cuerpos se tienen los si-
guientes resultados.
(a) Sea AX = 0 un sistema homogéneo de orden m × n. Si Rank(A) = r entonces
la dimensión del espacio solución es n − r, y recı́procamente.
(b) Todo sistema lineal AX = B de orden m × n, con A 6= 0, es equivalente a uno
con matriz escalonada y de la forma
a01j1 xj1 + a01j2 xj2 + a01j3 xj3 + · · · + a01n xn = b01
a02j2 xj2 + a02j3 xj3 + · · · + a02n xn = b02
······
a0rjr xjr + · · · + a0rn xn = b0r (2.4.6)
0= b0r+1
..
.
0 = b0m ,
donde a01j1 , . . . , a0rjr 6= 0, 1 ≤ j1 < j2 < · · · < jr . AX = B es soluble si, y sólo
si, en el sistema escalonado anterior no se presentan ecuaciones de la forma
b0t = 0, t ≥ r, con b0t un elemento no nulo de K. En tal caso, dando valores ar-
bitrarios de K a las indeterminadas libres xjr +1 , . . . , xn obtenemos valores
determinados para las indeterminadas principales xj1 , . . . , xjr .
(c) Sea AX = B un sistema lineal de orden m × n. En el corolario 2.4.7 se
demostró que si m ≤ n con Im (A) = K, entonces el sistema AX = B es
soluble. Pero la condición Im (A) = K es equivalente a que M rank(A) = m =
Rank(A). De este modo, si Rank(A) = m, el sistema AX = B es soluble.
(d) Respecto a los ideales determinantes de A y de la matriz ampliada [A | B] se
tiene que la coincidencia de estos últimos implica la solubilidad del sistema
AX = B: en efecto, si los ideales determinantes de A y [A | B] coinciden,
entonces sus rangos son iguales. De esta forma la envolvente lineal de las
columnas de [A | B] coincide con la envolvente lineal de las columnas de A, es
decir, B es una combinación lineal de las columnas de A
     
b1 a11 a1n
 ..   ..   . 
 .  =  .  x1 + · · · +  ..  xn ,
bm am1 amn

de donde B = AX y X = [x1 , . . . , xn ]T es solución. En resumen tenemos que


AX = B es soluble si, y sólo si, Rank(A) = Rank[A | B].
2.5. EJERCICIOS 49

(e) Si A ∈ Mm×n (K), vimos en el teorema 2.4.11 que AX = 0 tiene solución no


trivial si, y sólo si, Rank(A) < n. En particular, si m < n entonces Rank(A) ≤
m < n y el sistema AX = 0 tiene solución no trivial. Para el caso cuadrado la
condición det(A) es divisor de cero (véase el corolario 2.4.12) es equivalente a
que det(A) = 0.

2.5. Ejercicios
1. Sea A0 la colección de elementos de A que son divisores de cero. Si K es un
cuerpo demuestre que

Mn (K)0 = {B ∈ Mn (K)| det(B) = 0}.

2. Sean B ∈ Mm×p (R) y C ∈ Mp×n (R). Demuestre que

(i) M rank(BC) ≤ mı́n{M rank(B), M rank(C)}.


(ii) rank(BC) ≤ mı́n{rank(B), rank(C)}.

3. Sean A ∈ Mn (R) y B ∈ Rn . Sea X0 una solución de AX = B. Demuestre que


X0 es la única solución si, y sólo si, M rank(A) = n.
Capı́tulo 3

Producto tensorial

En este capı́tulo estudiamos el producto tensorial de espacios, transformaciones y


matrices sobre anillos conmutativos. Definiremos los tensores y estableceremos su
relación con las funciones multilineales. El producto tensorial de tensores también
será considerado. Salvo que se advierta lo contrario, R denotará un anillo conmuta-
tivo arbitrario. Para los espacios vectoriales utilizaremos la notación por la izquierda
para los escalares de R.

3.1. Producto tensorial de espacios vectoriales


Sea V un R-espacio vectorial libre con base X, recordemos que cada función t :
X → W , con W un R-espacio arbitrario, se puede extender de manera única a
una transformación lineal T : V → W de tal forma que T (x) = t(x), para cada
x ∈ X. De otra parte, si X es un conjunto no vacı́o cualquiera, entonces R(X)
denota el R-espacio libre con base canónica X 0 := {µx (1)}x∈X , donde µx : R → R(X)
es la inyección canónica de la suma directa externa (véase [7]) de tal forma que
µx (1) := (rz )z∈X y rz := 0 si z 6= x y rx := 1.
Podemos ya emprender la construcción del producto tensorial de dos espacios
vectoriales arbitrarios.
Sean U, V dos espacios vectoriales sobre R, sea X el producto cartesiano de los
conjuntos U y V , es decir, X := U × V . Notemos que en el conjunto X hemos
olvidado las estructuras de R-espacio que tienen U y V , a estos últimos los estamos
tomando simplemente como conjuntos no vacı́os. Consideremos entonces el R-espacio
vectorial R(X) con base canónica X 0 = {µx (1)}x∈X . Notemos que los elementos de
X son parejas, es decir, un elemento x ∈ X es de la forma x = (u, v). En otras
palabras, µx (1) = µ(u,v) (1) denota el arreglo que tiene solamente una entrada no
nula, la ubicada en la “posición (u, v)”, en la cual colocamos el escalar 1 ∈ R. Un

50
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 51

elemento de R(X) es una combinación lineal finita en la forma

r1 · µ(u1 ,v1 ) (1) + · · · + rt · µ(ut ,vt ) (1).

Observemos que el elemento anterior es un arreglo finito que tiene ubicados en la


posición (u1 , v1 ) al escalar r1 , en la posición (u2 , v2 ) al escalar r2 y, por último, en
la posición (ut , vt ) al escalar rt , en todas las demás posiciones al escalar cero. Esta
notación puede ser simplificada de la siguiente manera: representemos el elemento
µ(u,v) (1) de la base canónica X simplemente por (u, v) de tal forma que veamos a
U × V como la base canónica de R(X) y a las parejas (u, v) como los elementos de
esta base. Ası́ pues, podemos pensar en R(U ×V ) y considerar que la base canónica
es U × V . Con esta notación podemos decir que un elemento de R(U ×V ) es una
combinación lineal finita en la forma

r1 · (u1 , v1 ) + · · · + rt · (ut , vt ) ,

donde r1 , . . . , rt ∈ R.
Sea S el subespacio de R(U ×V ) generado por todos los elementos de la siguiente
forma

(u + u0 , v) − (u, v) − (u0 , v) , (3.1.1)


(u, v + v 0 ) − (u, v) − (u, v 0 ) , (3.1.2)
r · (u, v) − (r · u, v) , (3.1.3)
r · (u, v) − (u, r · v) , (3.1.4)

con r ∈ R. Sea U ⊗ V el R-espacio vectorial cociente correspondiente, es decir,

U ⊗ V := R(U ×V ) /S. (3.1.5)

Denotemos por u⊗v la clase de equivalencia (u, v) en el cociente U ⊗V = R(U ×V ) /S.


Entonces en U ⊗ V se tienen las siguientes propiedades fundamentales.

Proposición 3.1.1. Para cualesquiera elementos u, u0 ∈ U, v, v 0 ∈ V y r ∈ R se


tiene que:

(i) (u + u0 ) ⊗ v = u ⊗ v + u0 ⊗ v

(ii) u ⊗ (v + v 0 ) = u ⊗ v + u ⊗ v 0

(iii) r · (u ⊗ v) = r · u ⊗ v

(iv) r · (u ⊗ v) = u ⊗ r · v.

Demostración. Esto resulta en forma directa de las relaciones (3.1.1) - (3.1.4).


52 CAPÍTULO 3. PRODUCTO TENSORIAL

Corolario 3.1.2. La función canónica

t:U ×V →U ⊗V
(u, v) 7→ u ⊗ v

es bilineal, es decir, satisface las siguientes propiedades:

(i) t (u + u0 , v) = t(u, v) + t(u0 + v)

(ii) t(u, v + v 0 ) = t(u, v) + t(u, v 0 )

(iii) t(r · u, v) = r · t(u, v)

(iv) t(u, r · v) = r · t(u, v),

para cualesquiera u, u0 ∈ U, v, v 0 ∈ V y r ∈ R.

Demostración. Consecuencia directa de la proposición anterior.

Definición 3.1.3. El espacio vectorial U ⊗ V se denomina producto tensorial de


U con V .

Sea z un elemento de U ⊗ V , con z ∈ R(U ×V ) , entonces z es de la forma z =


r1 · (u1 , v1 ) + · · · + rt · (ut , vt ), por tanto en el cociente U ⊗ V = R(U ×V ) /S se tiene
que
z = (r1 · u1 ) ⊗ v1 + · · · + (rt · ut ) ⊗ vt ,
pero como r1 · u1 , . . . , rt · ut ∈ U , entonces podemos siempre asumir que z es de la
forma
u1 ⊗ v 1 + · · · + ut ⊗ v t .
El producto tensorial tiene la siguiente propiedad universal.

Teorema 3.1.4. Sea W un R-espacio y sea f : U × V → W una funcion bilineal.


Entonces, existe una única transformación lineal F : U ⊗ V → W tal que F t = f :
t
U ×V - U ⊗V
p
pp
p pp
f
p ppF
pp
?+
W

La tranformación lineal F se define por

F (u ⊗ v) := f (u, v) .
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 53

Demostración. La función f definida sobre la base canónica U ×V de R(U ×V ) induce


una única transformación lineal F 0 : R(U ×V ) → W dada por F 0 (u, v) := f (u, v).
Definimos entonces la función F (z) := F 0 (z), donde z ∈ R(U ×V ) . En particular, si
z = (u, v) es un básico, entonces F (u ⊗ v) = F 0 (u, v) = f (u, v). Debemos ver que
F está bien definida. Sean z1 , z2 ∈ R(U ×V ) tales que z1 = z2 , entonces z1 − z2 ∈ S
y por tanto z1 − z2 es una R-combinación lineal de elementos como en (3.1.1) -
(3.1.4). Como F 0 es R-lineal, basta considerar cada una de las cuatro relaciones por
separado. Si z1 − z2 = (u + u0 , v) − (u, v) − (u0 , v), entonces
F 0 (z1 − z2 ) = F 0 [(u + u0 , v) − (u, v) − (u0 , v)]
= f (u + u0 , v) − f (u, v) − f (u0 , v)
= 0, ya que f es bilineal.
De igual manera se establecen los otros tres casos. Esto muestra que F 0 (z1 ) = F 0 (z2 ),
y F está bien definida.
De otra parte, como F 0 es R-lineal, entonces F es una transformación lineal.
Además, F t (u, v) = F (u ⊗ v) = f (u, v), esto prueba que F t = f .
Para terminar la demostración, sea G otra transformación lineal G : U ⊗ V → W
tal que Gt = f ; para probar la igualdad G = F basta considerar el vector u ⊗ v.
Ası́ pues, Gt (u, v) = f (u, v), es decir, G (u ⊗ v) = f (u, v) = F (u ⊗ v).
Algunas consecuencias del teorema anterior son las siguientes propiedades evi-
dentes del producto tensorial de espacios. Sean U, V R-espacios, entonces:
(i) (U ⊗ V ) ⊗ W ∼= U ⊗ (V ⊗ W ). El producto tensorial de estos tres espacios
se puede entonces denotar como U ⊗ V ⊗ W . Más adelante consideraremos el pro-
ducto tensorial de tres o mas espacios y su relación con las funciones multilineales
introducidas en el capı́tulo 2.
(ii) U ⊗ V ∼
= V ⊗ U.
(iii)
R⊗V ∼ = V, U ⊗R ∼= U, R ⊗ R ∼ = R.
Para probar (iii) basta considerar la función bilineal f : R×V → V , f (r, v) := r·v. Se
induce entonces la transformación lineal F : R ⊗ V → V dada por F (r ⊗ v) := r.v.
De otra parte, la función G : V → R ⊗ V definida por G(v) := 1 ⊗ v es una
transformación lineal tal que F G = iV y GF = iR⊗V . El segundo isomorfismo se
establece en forma similar, y el tercero es consecuencia de cualquiera de los dos
anteriores.
Consideremos el caso particular en que U y V son libres de dimensión finita.
Teorema 3.1.5. Sean U y V dos espacios vectoriales libres de dimensión finita n
y m con bases X = {x1 , . . . , xn } y Y = {y1 , . . . , ym }, respectivamente. Entonces,
X ⊗ Y := {xi ⊗ yj | 1 ≤ i ≤ n, 1 ≤ j ≤ m} es una base de U ⊗ V , y en consecuencia,
dimR (U ⊗ V ) = nm.
54 CAPÍTULO 3. PRODUCTO TENSORIAL

Demostración. Notemos en primer lugar que si U = 0 ó V = 0, entonces el teorema


se tiene en forma trivial con bases vacı́as. Sean pues n, m ≥ 1. Consideremos el
R-espacio de matrices rectangulares Mn×m (R) con componentes en R. Definimos
entonces la transformación lineal
T : Mn×m (R) → U ⊗ V
Eij 7→ xi ⊗ yj , 1 ≤ i ≤ n, 1 ≤ j ≤ m.
De otra parte, consideremos la función
f : U × V → Mn×m (R)
f (u, v) = a1 b1 E11 + · · · + a1 bm E1m + · · · + an b1 En1 + · · · + an bm Enm ,
donde u = a1 · x1 + · · · + an · xn y v = b1 · y1 + · + bm · ym . Es fácil ver que f es bilineal.
Por el teorema 3.1.4 existe una transformación lineal F : U ⊗V → Mn×m (R) definida
por F (u ⊗ v) = f (u, v) = a1 b1 E11 + · · · + a1 bm E1m + · · · + an b1 En1 + · · · + an bm Enm .
Pero notemos que F T = iMn×m (R) y también T F = iU ⊗V . Esto demuestra que T es
un isomorfismo de espacios vectoriales, con lo cual X ⊗ Y es una base de U ⊗ V y
dimR (U ⊗ V ) = nm.
Corolario 3.1.6. Sea R un dominio de integridad y sean U, V, X, Y como en el
teorema 3.1.5. Para cualesquiera elementos u ∈ U y v ∈ V se tiene que
u ⊗ v = 0 ⇔ u = 0 ó v = 0.
Demostración. La condición suficiente se tiene en forma trivial. Sean pues u =
a1 · x1 + · · · + an · xn y v = b1 · y1 + · · · + bm ·P
ym no nulos, entonces existen i0 , j0
tales que ai0 6= 0 y bj0 6= 0; puesto que u ⊗ v = n,m i=1,j=1 ai bj · (xi ⊗ yj ), entonces del
teorema 3.1.5 resulta u ⊗ v 6= 0 ya que ai0 bj0 6= 0.

3.2. Producto tensorial de transformaciones y ma-


trices
Sean T : U → U 0 y F : V → V 0 dos transformaciones lineales, entonces la función
T × F : U × V → U0 ⊗ V 0
(u, v) 7→ T (u) ⊗ F (v)
es bilineal y por tanto induce una transformación lineal
T ⊗ F : U ⊗ V → U0 ⊗ V 0
u ⊗ v 7→ T (u) ⊗ F (v) .
La transformación T ⊗ F se conoce como el producto tensorial de T con F . Se
tiene entonces la siguiente propiedad.
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 55

Teorema 3.2.1. Sean X = {x1 , . . . , xn } una base de U , X 0 = {x01 , . . . , x0p } una


base de U 0 , Y = {y1 , . . . , ym } una base de V y Y 0 = {y10 , . . . , yq0 } una base de V 0 .
Entonces,  
a11 B · · · a1n B
mX⊗Y,X 0 ⊗Y 0 (T ⊗ F ) =  ... .. ..  ,

. . 
ap1 B · · · apn B
donde A = [aij ] := mX,X 0 (T ) y B = [bij ] := mY,Y 0 (F ). La matriz de T ⊗ F se
conoce como el producto tensorial de las matrices A y B, y se denota por A ⊗ B.
Ası́ pues,  
a11 B · · · a1n B
A ⊗ B :=  ... .. ..  .

. . 
ap1 B · · · apn B
A ⊗ B es de orden pq × nm.
Demostración. Basta aplicar T ⊗ F a los vectores de la base X ⊗ Y y expresar los
resultados a través de la base X 0 ⊗ Y 0 .
Ejemplo 3.2.2. Sean T : R3 → R2 y F : R2 → R4 las transformaciones lineales
definidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x + y, y, y − x) .
Determinemos la matriz de T ⊗ F en las bases canónicas: Basta calcular las matrices
A y B de las transformaciones T y F en las bases canónicas:
 
2 3 0
A = m (T ) = ,
3 0 4
 
1 0
 1 1 
B = m (F ) =  0 1 ,

−1 1
 
2B 3B 0B
m (T ⊗ F ) = A ⊗ B = ,
3B 0B 4B
 
2 0 3 0 0 0
 2 2 3 3 0 0 
 
 0 2 0 3 0 0 
 
 −2 2 −3 3 0 0 
m (T ⊗ F ) = 
 .
 3 0 0 0 4 0 

 3 3 0 0 4 4 
 
 0 3 0 0 0 4 
−3 3 0 0 −4 4
56 CAPÍTULO 3. PRODUCTO TENSORIAL

Mostraremos a continuación otras propiedades interesantes del producto tensorial


de transformaciones y matrices.
(i) Sean T : U → U 0 y F : V → V 0 transformaciones lineales sobreyectivas.
Entonces, T ⊗ F es sobreyectiva. En efecto, si u0 ⊗ v 0 ∈ U 0 ⊗ V 0 , entonces existe
u ∈ U y v ∈ V tales que T (u) = u0 , F (v) = v 0 . Por lo tanto, (T ⊗ F ) (u ⊗ v) =
T (u) ⊗ F (v) = u0 ⊗ v 0 .
(ii) Sean T : U → U 0 y F : V → V 0 transformaciones lineales sobreyectivas,
entonces ker (T ⊗ F ) = ker (T )⊗V +U ⊗ker (F ). Veamos la demostración: denotemos
por W := ker (T ) ⊗ V + U ⊗ ker (F ), este es un subespacio de U ⊗ V . Es claro que
W ⊆ ker (T ⊗ F ), probemos entonces la otra inclusión. Consideremos el espacio
cociente (U ⊗ V ) /W y la transformación lineal canónica

J : U ⊗ V → (U ⊗ V ) /W
z 7→ z.

Para el producto tensorial U 0 ⊗ V 0 consideremos el siguiente diagrama:


t
U0 × V 0 - U0 ⊗ V 0
pp
p pp
p p
h
pp
pp
? +
H

(U ⊗ V ) /W

donde h (T (u) , F (v)) := J (u ⊗ v). Veamos que h está bien definida. Sean T (u1 ) =
T (u) y F (v1 ) = F (v), entonces u1 − u := u2 ∈ ker (T ) y v1 − v := v2 ∈ ker (F ),
luego

u1 ⊗ v1 = (u + u2 ) ⊗ (v + v2 )
= u ⊗ v + u ⊗ v 2 + u 2 ⊗ v + u2 ⊗ v 2
= u ⊗ v + (u ⊗ v2 + u2 ⊗ v + u2 ⊗ v2 ) ,

donde u ⊗ v2 + u2 ⊗ v + u2 ⊗ v2 ∈ U ⊗ ker (F ) + ker (T ) ⊗ V = W , esto muestra que

u1 ⊗ v1 − u ⊗ v ∈ W,

luego J (u ⊗ v) = J (u1 ⊗ v1 ). Notemos que h es bilineal, por tanto induce la trans-


formación lineal H dada por

H (T (u) ⊗ F (v)) := h (T (u) , F (v)) = J (u ⊗ v) ,

de donde H (T ⊗ F ) = J. Sea z ∈ ker (T ⊗ F ), entonces H (T ⊗ F ) (z) = H (0) =


0 = J (z) = z, lo cual indica que z ∈ W .
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 57

(iii) Sean T1 : U → U 0 , T2 : U 0 → U 00 y F1 : V → V 0 , F2 : V 0 → V 00 transforma-


ciones lineales, entonces

(T2 T1 ) ⊗ (F2 F1 ) = (T2 ⊗ F2 ) (T1 ⊗ F1 ) .

En forma matricial,

A2 A1 ⊗ B2 B1 = (A2 ⊗ B2 ) (A1 ⊗ B1 ) .

(iv) Si iU : U → U es la idéntica de U e iV : V → V , es la idéntica de V , entonces

iU ⊗ iV = iU ⊗V .

En forma matricial,
En ⊗ Em = Enm .
(v) Sean T : U → U 0 y F : V → V 0 transformaciones lineales biyectivas, entonces

(T ⊗ F )−1 = T −1 ⊗ F −1 .

Matricialmente,
(A ⊗ B)−1 = A−1 ⊗ B −1 .
(vi) Sean T y F1 , F2 transformaciones lineales compatibles para las operaciones
indicadas, entonces
T ⊗ (F1 + F2 ) = T ⊗ F1 + T ⊗ F2 .
En forma matricial,

A ⊗ (B1 + B2 ) = A ⊗ B1 + A ⊗ B2 .

En forma similar se tienen las distributivas por el lado derecho.


(vii) Sean T : U → U 0 y F : V → V 0 transformaciones lineales y sea a ∈ R,
entonces
(a · T ) ⊗ F = T ⊗ (a.F ) = a. (T ⊗ F ) .
En forma matricial,

(a · A) ⊗ B = A ⊗ (a · B) = a · (A ⊗ B).

(viii) Sean A ∈ Mn (R) , B ∈ Mm (R), entonces

tr (A ⊗ B) = tr (A) tr (B) ,
det (A ⊗ B) = det (A)m det (B)n .

(ix) Sean A, A0 ∈ Mn (K) y B, B 0 ∈ Mm (K), entonces

A ∼ A0 , B ∼ B 0 ⇒ A ⊗ B ∼ A 0 ⊗ B 0 ; A ≈ A 0 , B ≈ B 0 ⇒ A ⊗ B ≈ A 0 ⊗ B 0 .
58 CAPÍTULO 3. PRODUCTO TENSORIAL

3.3. Funciones multilineales y tensores


En el capı́tulo 2 consideramos funciones multilineales sobre un mismo espacio V
para establecer la teorı́a de determinantes (véase la definición 2.2.1). Estudiaremos
ahora la noción general de función multilineal y su relación con el producto tensorial
de tres o más espacios vectoriales. Comezamos con el dual de un espacio vectorial.
Sea V un R-espacio, el conjunto de transformaciones lineales HomR (V, R) es un
R-espacio y se denomina el espacio dual de V , denotado V ∗ . Para cuando V es
libre de dimensión finita se tiene la siguiente propiedad.

Proposición 3.3.1. Sea V un R-espacio de dimensión finita n ≥ 1 con base X :=


{x1 , . . . , xn }. Entonces, X ∗ := {x∗1 , . . . , x∗n } es una base de V ∗ , denominada la base
dual de X, con x∗i (xj ) := δij , donde δij es el Psı́mbolo de Kronecker. P Además, para
cada f ∈ V ∗ y cada v ∈ V se tiene que f = nk=1 f (xk ) · x∗k y v = nk=1 x∗k (v) · xk .

Demostración. Este es un sencillo ejercicio para el lector.

Definición 3.3.2. Sean V1 , . . . , Vn , W espacios vectoriales sobre el anillo conmuta-


tivo R; una función
f
V1 × · · · × Vn −
→W

es multilineal si es lineal en cada argumento, es decir, para 1 ≤ i ≤ n y r ∈ R

f (x1 , . . . , xi + x0i , . . . , xn ) = f (x1 , . . . , xi , . . . , xn ) + f (x1 , . . . , x0i , . . . , xn ),


f (x1 , . . . , r · xi , . . . , xn ) = r · f (x1 , . . . , xi , . . . , xn ).

Proposición 3.3.3. La colección M(V1 , . . . , Vn ; W ) de todas las funciones multi-


lineales de V1 × · · · × Vn en W es un R-espacio vectorial respecto de las siguientes
operaciones:

(f + g)(x1 , . . . , xn ) := f (x1 , . . . , xn ) + g(x1 , . . . , xn ),


(r · f )(x1 , . . . , xn ) := r · f (x1 , . . . , xn ).

Demostración. Ejercicio para el lector.

El producto tensorial de tres o más espacios V1 , . . . , Vn se puede construir en forma


inductiva definiendo V1 ⊗ · · · ⊗ Vn := (V1 ⊗ · · · ⊗ Vn−1 ) ⊗ Vn , o también, mediante
las funciones multilineales, como veremos a continuación: consideremos el cociente
del R-espacio libre R(V1 ×···×Vn ) por el subespacio S generado por todos los vectores
de la forma

(x1 , . . . , xi + x0i , . . . , xn ) − (x1 , . . . , xi , . . . , xn ) − (x1 , . . . , x0i , . . . , xn ),


r · (x1 , . . . , xi , . . . , xn ) − (x1 , . . . , r · xi , . . . , xn ),
3.3. FUNCIONES MULTILINEALES Y TENSORES 59

con 1 ≤ i ≤ n y r ∈ R. Este espacio cociente se denota por V1 ⊗ · · · ⊗ Vn y se


denomina producto tensorial de V1 , . . . , Vn . La clase del vector (x1 , . . . , xn ) se
denota por x1 ⊗ · · · ⊗ xn , y cada elemento de V1 ⊗ · · · ⊗ Vn es una suma finita de
elementos de esta forma. La función canónica definida por

t : V1 × · · · × Vn → V1 ⊗ · · · ⊗ Vn
(x1 , . . . , xn ) 7→ x1 ⊗ · · · ⊗ xn

es multilineal. Esto en particular quiere decir que x1 ⊗ · · · ⊗ (xi + x0i ) ⊗ · · · ⊗ xn =


x1 ⊗· · ·⊗xi ⊗· · ·⊗xn +x1 ⊗· · ·⊗x0i ⊗· · ·⊗xn y r·(x1 ⊗· · ·⊗xi ⊗· · ·⊗xn ) = x1 ⊗· · ·⊗r·
xi ⊗· · ·⊗xn . El producto tensorial V1 ⊗· · ·⊗Vn tiene la siguiente propiedad universal
(véase el teorema 3.1.4): sea W un R-espacio y sea f : V1 ×· · ·×Vn → W una función
multilineal. Entonces, existe una única transformación lineal F : V1 ⊗ · · · ⊗ Vn → W
tal que F t = f :
t
V1 × · · · × Vn - V1 ⊗ · · · ⊗ Vn
ppp
p p ppp
ppp
ppp F
f
p p
pp
?
W

La tranformación lineal F se define por

F (x1 ⊗ · · · ⊗ xn ) := f (x1 , . . . , xn ) .

El teorema 3.1.5 tiene también lugar en este caso general, es decir, el producto
tensorial de espacios libres de dimensión finita es libre y la dimensión es el producto
de las dimensiones. De manera más precisa, si Xi es una base de Vi de tamaño ki ,
entonces

X := X1 ⊗ · · · ⊗ Xn := {xj1 ⊗ · · · ⊗ xjn |xji ∈ Xi , 1 ≤ i ≤ n}

es una base de V1 ⊗ · · · ⊗ Vn de tamaño k1 · · · kn . Utilizando la notación precedente


tenemos el siguiente resultado general válido para espacios arbitrarios.

Teorema 3.3.4. M(V1 , . . . , Vn ; W ) ∼


= HomR (V1 ⊗ · · · ⊗ Vn , W ).

Demostración. Según acabamos de ver, dada f ∈ M(V1 , . . . , Vn ; W ) existe una


única F ∈ HomR (V1 ⊗ · · · ⊗ Vn , W ) tal que F t = f , definimos entonces α :
M(V1 , . . . , Vn ; W ) → HomR (V1 ⊗ · · · ⊗ Vn , W ) por α(f ) := F . Observemos que α
es una transformación lineal inyectiva. Además, dada F ∈ HomR (V1 ⊗ · · · ⊗ Vn , W )
definimos f ∈ M(V1 , . . . , Vn ; W ) por f (x1 , . . . , xn ) := F (x1 ⊗ · · · ⊗ xn ); es claro
entonces que f ∈ M(V1 , . . . , Vn ; W ) y α(f ) = F .
60 CAPÍTULO 3. PRODUCTO TENSORIAL

Corolario 3.3.5. M(V1 , . . . , Vn ; R) ∼ = HomR (V1 ⊗ · · · ⊗ Vn , R) = (V1 ⊗ · · · ⊗ Vn )∗ .


Si V1 , . . . , Vn son libres de dimensión finita, entonces

(V1 ⊗ · · · ⊗ Vn )∗ ∼
= V1∗ ⊗ · · · ⊗ Vn∗ . (3.3.1)

Demostración. La primera afirmación es consecuencia directa del teorema anterior


tomando W := R.
Sea fi ∈ Vi∗ , 1 ≤ i ≤ n. Definimos la función

f : V1 × · · · × Vn → R
f (v1 , . . . , vn ) := f1 (v1 ) · · · fn (vn ) .

Notemos que f es multilineal, luego induce una única transformación lineal

F : V1 ⊗ · · · ⊗ Vn → R
F (v1 ⊗ · · · ⊗ vn ) := f (v1 , . . . , vn ) = f1 (v1 ) · · · fn (vn ) .

Esto indica que F ∈ (V1 ⊗ · · · ⊗ Vn )∗ ; se define entonces la función

fe : V1∗ × · · · × Vn∗ → (V1 ⊗ · · · ⊗ V )∗


(f1 , . . . , fn ) 7→ fe(f1 , . . . , fn ) := F.

Notemos que fe es multilineal, y por lo tanto, induce una transformación lineal

Fe : V1∗ ⊗ · · · ⊗ Vn∗ → (V1 ⊗ · · · ⊗ Vn )∗


Fe (f1 ⊗ · · · ⊗ fn ) := fe(f1 , . . . , fn ) = F
Fe (f1 ⊗ · · · ⊗ fn ) (v1 ⊗ · · · ⊗ vn ) = F (v1 ⊗ · · · ⊗ vn ) = f1 (v1 ) · · · fn (vn ) .

Sea Xi := {xi1 , . . . , xiki } un base de Vi y sea Xi∗ = {x∗i1 , . . . , x∗iki } la base dual.
Entonces,

Fe x∗1j1 ⊗ · · · ⊗ x∗njn (x1r1 ⊗ · · · ⊗ xnrn ) = x∗1j1 (x1r1 ) · · · x∗njn (xnrn )




= 1 si (j1 , . . . , jn ) = (r1 , . . . , rn )
= 0, en otro caso.

Sabemos que {x∗1j1 ⊗ · · · ⊗ x∗njn | 1 ≤ ji ≤ ki , 1 ≤ i ≤ n} es una base de V1∗ ⊗


· · · ⊗ Vn∗ y que (X1⊗ · · · ⊗ Xn )∗ es una base de (V1 ⊗ · · · ⊗ Vn )∗ ; por lo anterior,
Fe x∗1j1 ⊗ · · · ⊗ x∗njn = (x1j1 ⊗ · · · ⊗ xnjn )∗ , 1 ≤ ji ≤ ki , 1 ≤ i ≤ n. Es decir, Fe es
una transformación lineal que envı́a una base en una base, por tanto, Fe es biyectiva.
3.3. FUNCIONES MULTILINEALES Y TENSORES 61

Sea V un R-espacio arbitrario y denotemos por


Mn (V ; R) := M(V, . . . , V ; R) ∼ · · ⊗ V})∗
| ⊗ ·{z
= (V (3.3.2)
| {z }
n-veces n-veces

el R-espacio de funciones multilineales sobre V de n argumentos (véase la definición


2.2.1). Para el caso particular en el cual V es de dimensión finita se tiene la siguiente
noción de tensor.
Definición 3.3.6. Sea V un R-espacio vectorial libre de dimensión finita k ≥ 1.
Los elementos del R-espacio
Tn (V ) := Mn (V ; R) ∼ · · ⊗ V})∗ ∼
| ⊗ ·{z
= (V =V ∗
· · ⊗ V }∗
| ⊗ ·{z
n-veces n-veces
se denominan n-tensores sobre V .
Notemos que V ∗ es el espacio de los 1-tensores y que las funciones bilineales sobre
V son los 2-tensores. Las funciones multilineales considerdas en el capı́tulo 2 para
definir la función determinante son un ejemplo de n-tensores. Según la definción
anterior, un n-tensor es una suma finita del producto tensorial de n 1-tensores.
Corolario 3.3.7. Sea V un R-espacio vectorial libre de dimensión finita k ≥ 1.
Entonces, Tn (V ) es libre con dim(Tn (V )) = k n . Si X := {x1 , . . . , xk } es una base de
V , entonces {x∗j1 ⊗ · · · ⊗ x∗jn | 1 ≤ ji ≤ k, 1 ≤ i ≤ n} es una base de Tn (V ). Además,
si f ∈ Tn (V ), entonces
k
X
f= f (xj1 , . . . , xjn ) · (x∗j1 ⊗ · · · ⊗ x∗jn ). (3.3.3)
j1 ,...,jn

Demostración. Las primeras dos afirmaciones son consecuencia directa de la prueba


del corolario 3.3.5. Veamos la prueba de la tercera afirmación: sea (v1 , . . . , vn ) ∈
V n = V × · · · × V ; si vi = ai1 · x1 + · · · + aik · xk , entonces
k
X
f (v1 , . . . , vn ) = a1j1 a2j2 · · · anjn f (xj1 , . . . , xjn ),
j1 ,...,jn

y por otro lado


k
X
[ f (xj1 , . . . , xjn ) · (x∗j1 ⊗ · · · ⊗ x∗jn )](v1 , . . . , vn )
j1 ,...,jn
k
X
= f (xj1 , . . . , xjn )x∗j1 (v1 ) · · · x∗jn (vn )
j1 ,...,jn
k
X
= f (xj1 , . . . , xjn )a1j1 a2j2 · · · anjn .
j1 ,...,jn
62 CAPÍTULO 3. PRODUCTO TENSORIAL

Los escalares f (xj1 , . . . , xjn ) se denominan las coordenadas del tensor f en la


base X := {x1 , . . . , xk }. Veamos como cambian las coordenadas de f al cambiar
la base X: sea Y := {y1 , . . . , yk } otra base de V y Y ∗ = {y1∗ , . . . , yk∗ } la base dual
correspondiente. Entonces,

k
X
f= f (yi1 , . . . , yin ) · (yi∗1 ⊗ · · · ⊗ yi∗n ). (3.3.4)
i1 ,...,in

Puesto que {yi∗1 ⊗· · ·⊗yi∗n | 1 ≤ ji ≤ k} es una base de Tn (V ) y x∗j1 ⊗· · ·⊗x∗jn ∈ Tn (V ),


entonces
k
X
x∗j1 ⊗ ··· ⊗ x∗jn = (x∗j1 ⊗ · · · ⊗ x∗jn )(yi1 , . . . , yin ) · (yi∗1 ⊗ · · · ⊗ yi∗n )
i1 ,...,in
k
X
= x∗j1 (yi1 ) · · · x∗jn (yin ) · (yi∗1 ⊗ · · · ⊗ yi∗n )
i1 ,...,in
k
X Xk Xk
= x∗j1 ( cvi1 · xv ) · · · x∗jn ( cvin · xv ) · (yi∗1 ⊗ · · · ⊗ yi∗n )
i1 ,...,in v=1 v=1
k
X
= cj1 i1 · · · cjn in · (yi∗1 ⊗ · · · ⊗ yi∗n ).
i1 ,...,in

Reemplazando en (3.3.3) resulta

k
X k
X
f= cj1 i1 · · · cjn in f (xj1 , . . . , xjn ) · (yi∗1 ⊗ · · · ⊗ yi∗n ).
j1 ,...,jn i1 ,...,in

De (3.3.4) se obtiene entonces que

k
X
f (yi1 , . . . , yin ) = cj1 i1 · · · cjn in f (xj1 , . . . , xjn ), (3.3.5)
j1 ,...,jn

donde C := [crs ] es la matriz de cambio de la base X a la base Y .


Concluimos esta sección con la definición del producto tensorial de tensores. Para
esto comencemos con una construcción un poco más general. Existe una transfor-
mación lineal
F
Mn (V ; R) ⊗ Mm (V ; R) −
→ Mn+m (V ; R).
3.4. TENSORES SIMÉTRICOS, ANTISIMÉTRICOS Y ALTERNADOS 63

En efecto, consideremos el siguiente diagrama


t
Mn (V ; R) × Mm (V ; R) - Mn (V ; R) ⊗ Mm (V ; R)
ppp
p p ppp
p
ppp
pp ppp
ppp F
f
p p p
ppp
? ppp

Mn+m (V ; R)

donde t(h, g) := h ⊗ g y f (h, g) := fh,g , con

fh,g (v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ).

Observemos que efectivamente fh,g ∈ Mn+m (V ; R) y f es bilineal, luego F existe y


es una transformación lineal definida por F (h ⊗ g) := fh,g , es decir,

F (h ⊗ g)(v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ). (3.3.6)

Ası́ pues, dadas dos funciones multilineales h ∈ Mn (V ; R) y g ∈ Mm (V ; R) se define


su producto tensorial por

(h ⊗ g)(v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ). (3.3.7)

En particular, si V es de dimensión finita, entonces h ∈ Tn (V ), g ∈ Tm (V ) y la


relación anterior define el producto tensorial de tensores.

Proposición 3.3.8. Sea V un R-espacio vectorial libre de dimensión finita k ≥ 1.


Entonces, Tn (V ) ⊗ Tm (V ) ∼
= Tn+m (V ).

Demostración. Basta observar que la transformación lineal F definida en (3.3.6)


envia una base de Tn (V )⊗Tm (V ) en una base de Tn+m (V ), luego F es un isomorfismo.

3.4. Tensores simétricos, antisimétricos y alterna-


dos
En el capı́tulo 2 definimos las funciones multilineales antisimétricas y alternadas
de n argumentos sobre un R-espacio arbitrario V . Demostramos que que si 2 ∈
R∗ , entonces las funciones multilineales alternadas y las antisimétricas coinciden.
Retomamos ahora el tema para el caso particular de los tensores. En esta sección,
salvo que advierta lo contrario, V es un R-espacio libre de dimensión finita k ≥ 1.
64 CAPÍTULO 3. PRODUCTO TENSORIAL

Definición 3.4.1. Un tensor f ∈ Tn (V ) es simétrico si para cada permutación


π ∈ Sn y cualquier elemento (v1 , . . . , vn ) ∈ V × · · · × V se cumple

f (vπ(1) , . . . , vπ(n) ) = f (v1 , . . . , vn ).

Se dice que f es antisimétrico si

f (vπ(1) , . . . , vπ(n) ) = (−1)π f (v1 , . . . , vn ).

f es alternado si f (v1 , . . . , vn ) = 0, cuando vi = vj con i 6= j.

De esta definición se obtienen de manera directa los siguientes resultados.

Proposición 3.4.2. Sean Sn (V ), An (V ) y ALn (V ) las colecciones de n-tensores


simétricos, antismétricos y alternados, respectivamente, sobre el espacio V . En-
tonces, Sn (V ), An (V ) y ALn (V ) son R-espacios. Además, ALn (V ) ⊆ An (V ) y
si 2 ∈ R∗ , entonces An (V ) = ALn (V ).

Demostración. Ejercicio para el lector.


Para los tensores alternados se tienen además las siguientes propiedades.

Proposición 3.4.3. Sean v1 , . . . , vn ∈ V vectores tales que para algún i, vi ∈


hv1 , . . . , vi−1 , vi+1 , . . . , vn i. Entonces, para cada f ∈ ALn (V ), f (v1 , . . . , vn ) = 0.
Además, si R es un DI y v1 , . . . , vn ∈ V son linealmente dependientes, entonces
para cada f ∈ ALn (V ), f (v1 , . . . , vn ) = 0.

Demostración. Sea vi = r1 · v1 + · · · + ri−1 · vi−1 + ri+1 · vi+1 + · · · + rn · vn , entonces


f (v1 , . . . , vi−1 , r1 · v1 + · · · + ri−1 · vi−1 + ri+1 · vi+1 + · · · + rn · vn , vi+1 , . . . , vn ) =
r1 · f (v1 , . . . , vi−1 , v1 , vi+1 , . . . , vn ) + · · · + ri−1 · f (v1 , . . . , vi−1 , vi−1 , vi+1 , . . . , vn ) +
ri+1 · f (v1 , . . . , vi−1 , vi+1 , vi+1 , . . . , vn ) + · · · + rn · f (v1 , . . . , vi−1 , vn , vi+1 , . . . , vn ) = 0.
Para la segunda afirmación, existen r1 , . . . , rn ∈ R no todos nulos, digamos ri 6= 0,
tales que r1 · v1 + · · · + ri · vi + · · · + rn · vn = 0. Resulta,
0 = f (v1 , . . . , vi−1 , 0, vi+1 , . . . , vn ) = ri · f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vn ),
pero como R es un DI y ri 6= 0, entonces f (v1 , . . . , vn ) = 0.

Corolario 3.4.4. Sea R un DI y sea V un R-espacio libre de dimensión finita


k ≥ 1. Entonces, para cada n > k, ALn (V ) = 0.

Demostración. Consecuencia directa del corolario 2.4.13 y de la proposición anterior.

Si R = K es un cuerpo de caracterı́sitica cero, a cada tensor f ∈ Tn (V ) se pueden


asociar un tensor simétrico y uno alternado ( = antisimétrico). En efecto, definimos
3.4. TENSORES SIMÉTRICOS, ANTISIMÉTRICOS Y ALTERNADOS 65

1
P
Sf (v1 , . . . , vn ) := n! π∈Sn f (vπ(1) , . . . , vπ(n) ),
1 π
P
Alf (v1 , . . . , vn ) := n! π∈Sn (−1) f (vπ(1) , . . . , vπ(n) ).

Sea τ ∈ Sn , entonces θ := πτ recorre también el grupo Sn y se obtiene


1 X
Sf (vτ (1) , . . . , vτ (n) ) := f (vπτ (1) , . . . , vπτ (n) )
n! π∈S
n

1 X
= f (vθ(1) , . . . , vθ(n) )
n! θ∈S
n

= Sf (v1 , . . . , vn ).
−1
Ası́ pues, Sf ∈ Sn (V ). De manera similar, π = θτ −1 y (−1)π = (−1)θ (−1)τ , pero
−1
(−1)τ = (−1)τ , luego
1 X
Alf (τ (v1 ), . . . , τ (vn )) := (−1)π f (vπτ (1) , . . . , vπτ (n) )
n! π∈S
n

1 X
= (−1)τ (−1)θ f (vθ(1) , . . . , vθ(n) )
n! θ∈S
n
τ
= (−1) Alf (v1 , . . . , vn ).

Proposición 3.4.5. Sean K un cuerpo, con char(K) = 0, y V un K-espacio de


dimensión k ≥ 1. Entonces, las funciones S : Tn (V ) → Sn (V ) y Al : Tn (V ) →
ALn (V ) definidas por S(f ) := Sf y Al(f ) := Alf son transformaciones lineales.
Además, si f es simétrico (alternado), entonces Sf = f (Alf = f ).

Demostración. Ejercicio para el lector.

Proposición 3.4.6. Sea K un cuerpo, con char(K) = 0, y sea V un K-espacio de


dimensión finita k ≥ 1. Entonces,

T2 (V ) = S2 (V ) ⊕ AL2 (V ).

Demostración. Considerando que un 2-tensor sobre V es una función bilineal sobre


V , entonces el resultado es inmediato si se tiene en cuenta que toda forma bili-
neal se puede expresar en forma única como suma de una forma simétrica y una
antisimétrica:
f (u, v) = 12 [f (u, v) + f (v, u)] + 12 [f (u, v) − f (v, u)].

Concluimos esta sección definiendo el producto exterior entre tensores.


66 CAPÍTULO 3. PRODUCTO TENSORIAL

Definición 3.4.7. Sea K un cuerpo, con char(K) = 0. Sea V un K-espacio de


dimensión k ≥ 1 y sean f ∈ Tn (V ), g ∈ Tm (V ). El producto exterior de f y g se
define por
(n + m)!
f ∧ g := Alf ⊗g . (3.4.1)
n!m!
Según la proposición 3.3.8, f ⊗g ∈ Tn+m (V ), luego Alf ⊗g ∈ ALn+m (V ) y se tiene
que
(n + m)! 1 X
(f ∧ g)(v1 , . . . , vn+m ) = (−1)π (f ⊗ g)(vπ(1) , . . . , vπ(n+m) )
n!m! (n + m)!
π∈Sn+m
1 X
= (−1)π f (vπ(1) , . . . , vπ(n) )g(vπ(n+1) , . . . , vπ(n+m) ).
n!m!
π∈Sn+m

Algunas propiedades del producto exterior se resumen en la siguiente proposición.

Proposición 3.4.8. Sean, K, V , k, V , f y g como en la definción anterior. En-


tonces,

(i) Si f, g ∈ T1 (V ), entonces f ∧ g = f ⊗ g − g ⊗ f .

(ii) f ∧ 0 = 0.

(iii) Si h ∈ Tm (V ), entonces f ∧ (g + h) = f ∧ g + f ∧ h. La distributiva por el lado


izquierdo también se cumple.

(iv) Si h ∈ Tp (V ), entonces (f ∧ g) ∧ h = f ∧ (g ∧ h).

(v) Si a ∈ K, entonces, (a · f ) ∧ g = f ∧ (a · g) = a · (f ∧ g).

(vi) g ∧ f = (−1)nm (f ∧ g).

(vii) f ∧ f = 0 si n es impar.
1
Demostración. (i) (f ∧ g)(u, v) = 1!1! [f (u)g(v) − f (v)g(u)] = f (u)g(v) − g(u)f (v) =
(f ⊗ g)(u, v) − (g ⊗ f )(u, v).
(ii) Evidente ya que f ⊗ 0 = 0.
(iii) También evidente ya que f ⊗ (g + h) = f ⊗ g + f ⊗ h.
(iv) Esta propiedad asociativa se interpreta de la siguiente manera:

(n + m + p)!
(f ∧ g) ∧ h = Al(f ⊗g)⊗h
n!m!p!

(n + m + p)!
f ∧ (g ∧ h) = Alf ⊗(g⊗h)
n!m!p!
3.4. TENSORES SIMÉTRICOS, ANTISIMÉTRICOS Y ALTERNADOS 67

pero
1 X π
Al(f ⊗g)⊗h = (−1) ((f ⊗ g) ⊗ h)(v1 , . . . , vn+m+p )
(n + m + p)! π∈S
n+m+p
1 X π
= (−1) (f (v1 , . . . , vn )g(vn+1 , . . . , vn+m ))h(vn+m+1 , . . . , vn+m+p )
(n + m + p)! π∈S
n+m+p
1 X π
= (−1) f (v1 , . . . , vn )(g(vn+1 , . . . , vn+m )h(vn+m+1 , . . . , vn+m+p ))
(n + m + p)! π∈S
n+m+p
1 X π
= (−1) (f ⊗ (g ⊗ h))(v1 , . . . , vn+m+p )
(n + m + p)! π∈S
n+m+p

=Alf ⊗(g⊗h) .

Esto completa la prueba de la identidad asociativa.


(v) Se obtiene de

(a · f ) ⊗ g = f ⊗ (a · g) = a · (f ⊗ g).

(vi) Sabemos que


1 X
(f ∧ g)(v1 , . . . , vn+m ) = (−1)π f (vπ(1) , . . . , vπ(n) )g(vπ(n+1) , . . . , vπ(n+m) );
n!m!
π∈Sn+m

consideremos la permutación θ ∈ Sn+m definida por

θ(1) := n + 1, . . . , θ(m) := n + m, θ(m + 1) := 1, . . . , θ(m + n) := n,

entonces
1 X
(g ∧ f )(vθ(1) , . . . , vθ(m+n) ) = (−1)π g(vπθ(1) , . . . , vπθ(m) )f (vπθ(m+1) , . . . , vπθ(m+n) )
m!n!
π∈Sn+m

=(f ∧ g)(v1 , . . . , vn+m ).

Pero como g ∧ f es alternada, entonces es antisimétrica, luego

(g ∧ f )(vθ(1) , . . . , vθ(m+n) ) =(g ∧ f )(vn+1 , . . . , vn+m , v1 , . . . , vn )


=(−1)m (g ∧ f )(v1 , vn+1 . . . , vn+m , v2 , . . . , vn )
=(−1)m (−1)m (g ∧ f )(v1 , v2 , vn+1 . . . , vn+m , v3 , . . . , vn )
..
.
=(−1)nm (g ∧ f )(v1 , . . . , vn+m ).

Ası́ pues, (f ∧ g) = (−1)nm (g ∧ f ), lo cual es equivalente a lo requerido.


(vii) El resultado se tiene de (vi) ya que char(K) = 0.
68 CAPÍTULO 3. PRODUCTO TENSORIAL

3.5. Álgebras y producto tensorial


En esta última sección vamos a definir el producto tensorial de álgebras, el álgebra
tensorial y el álgebra exterior de un R-espacio.
Sean A y B dos R-álgebras, entonces podemos construir el producto tensorial
A ⊗ B de los R-espacios A y B. Este espacio puede ser dotado de estructura de R-
álgebra con el producto definido de la siguiente manera: consideremos el diagrama
t
A×B×A×B - A⊗B⊗A⊗B
ppp
p p ppp
ppp
f
p p ppp F
p
ppp
? 
A⊗B

donde t es la función multilineal canónica, t(a, b, a0 , b0 ) := a⊗b⊗a0 ⊗b0 y f es definida


por f (a, b, a0 , b0 ) := aa0 ⊗ bb0 . Nótese que f es multilineal, por tanto, f induce la
transformación lineal F definida por F (a⊗a0 ⊗b⊗b0 ) := aa0 ⊗bb0 . Puesto que se tiene
el isomorfismo de R-espacios A ⊗ B ⊗ A ⊗ B ∼ = (A ⊗ B) ⊗ (A ⊗ B), entonces podemos
F
suponer que F es la transformación lineal definida por (A ⊗ B) ⊗ (A ⊗ B) − → A ⊗ B,
F ((a ⊗ b) ⊗ (a0 ⊗ b0 )) := aa0 ⊗ bb0 . Por el teorema 3.3.4, F induce una función bilineal
fb
(A ⊗ B) × (A ⊗ B) −
→ A ⊗ B,

la cual permite definir la multiplicación en A ⊗ B:

fb(a ⊗ b, a0 ⊗ b0 ) := F ((a ⊗ b) ⊗ (a0 ⊗ b0 )) = aa0 ⊗ bb0 ;

ası́ pues, como fb es bilineal, entonces el producto queda bien definido por

(a ⊗ b)(a0 ⊗ b0 ) := fb(a ⊗ b, a0 ⊗ b0 ) = aa0 ⊗ bb0 . (3.5.1)

La bilinealidad de fb garantiza que este produto es distributivo. La asociatividad


es consecuencia asociatividad en A y B. El uno de esta álgebra es 1 ⊗ 1. A ⊗ B se
conoce como el producto tensorial de A y B. Si A y B son álgebras conmutativas,
entonces A ⊗ B es conmutativa.
Consideremos ahora un R-espacio V , definimos
M
T (V ) := T i (V ), T 0 (V ) := R, T i (V ) := V
| ⊗ ·{z
· · ⊗ V}, i ≥ 1. (3.5.2)
i≥0 i−veces

Notemos que cada elemento z ∈ T (V ) es de la forma z = (zi )i≥0 , con zi ∈ T i (V )


y zi = 0 para casi todo i. En otras palabras, si µi : T i (V ) → T (V ) es la inyección
3.5. ÁLGEBRAS Y PRODUCTO TENSORIAL 69

canónica dePla suma directa externa (véase [7]), entonces z se puede escribir en la
forma z = i∈Cz µi (zi ), donde Cz := {i|zi 6= 0} es el soporte de z (finito). T (V ) es
pues un R-espacio. Si identificamos a T i (V ) con su imagen a través de la inyección
canónica µi , es decir, si consideramos a T i (V ) como subespacio del R-espacio T (V ),
entonces T (V ) es suma directa interna de los subespacios T i (V ):
X
T (V ) = ⊕ T i (V ) = R ⊕ V ⊕ (V ⊗ V ) ⊕ · · ·
i≥0

Ası́ pues, cada elemento z ∈ T (V ) tiene una representación única en la forma z =


z0 + z1 + · · · + zi , con zj ∈ T j (V ), 0 ≤ j ≤ i. T (V ) tiene estructura de R-álgebra
con el producto definido mediante distributividad y el R-isomorfismo

T i (V ) ⊗ T j (V ) ∼
= T i+j (V ). (3.5.3)

En T (V ) tenemos entonces que

(v1 ⊗ · · · ⊗ vi )(vi+1 ⊗ · · · ⊗ vi+j ) := v1 ⊗ · · · ⊗ vi+j , (3.5.4)


r(v1 ⊗ · · · ⊗ vi ) := r · (v1 ⊗ · · · ⊗ vi ) =: (v1 ⊗ · · · ⊗ vi )r. (3.5.5)

El producto anterior está bien definido si se tiene en cuenta (3.5.3) y que la repre-
sentación de cada elemento de T (V ) a través de la suma directa interna es única.
Como estamos considerando que T i (V ) ⊆ T (V ), entonces el isomorfismo (3.5.3) se
puede interpretar como

T i (V )T j (V ) ⊆ T i+j (V ).

Notemos que el elemento v1 ⊗ · · · ⊗ vi ∈ T i (V ) corresponde al producto v1 · · · vi de


tal forma que la relación (3.5.4) se puede escribir en el forma

(v1 ⊗ · · · ⊗ vi )(vi+1 ⊗ · · · ⊗ vi+j ) = (v1 · · · vi )(vi+1 · · · vi+j ) = v1 · · · vi+j .

T (V ) se conoce como el álgebra tensorial del R-espacio V . Notemos que la in-


clusión

µ : V → T (V )
v 7→ v

es una transformación lineal. El cero de T (V ) es el cero de R, lo mismo ocurre con


el uno. Observemos que T (V ) es un álgebra no conmutativa: para v, v 0 ∈ V se tiene
que vv 0 = v ⊗ v 0 6= v 0 ⊗ v = v 0 v.
El álgebra tensorial tiene la siguiente propiedad universal.
70 CAPÍTULO 3. PRODUCTO TENSORIAL

Teorema 3.5.1. Para cada R-álgebra B y cada transformación lineal f : V → B,


existe un único homomorfismo de R-álgebras F : T (V ) → B tal que F µ = f :
µ
V - T (V )
p pp
p
f
p pp
pp
F
?
B

F se define por

F (v) := f (v), v ∈ V, F (r) := r · 1, r ∈ R. (3.5.6)

Demostración. Para i ≥ 2, sea fi la transformación lineal inducida por la función


multilineal
fi0 : V × · · · × V → B, fi0 (v1 , . . . , vi ) := f (v1 ) · · · f (vi ),
fi (v1 ⊗ · · · ⊗ vi ) = f (v1 ) · · · f (vi );
además, sean f1 := f , f0 (r) = r · 1. Definimos F por
F (z0 + z1 + · · · + zi ) := f0 (z0 ) + f1 (z1 ) + · · · + fi (zi ), con zj ∈ T j (V ), 0 ≤ j ≤ i.
Ası́, F es una transformación lineal bien definida y satisface F (v1 ⊗ · · · ⊗ vi ) =
fi (v1 ⊗ · · · ⊗ vi ) = f (v1 ) · · · f (vi ) para i ≥ 2, F (v) = f1 (v) = f (v) para cada v ∈ V
y F (r) = f0 (r) = r · 1 para cada r ∈ R. Notemos que F µ = f . Además, F es un
homomorfismo de R-álgebras ya que
F (v1 · · · vi )F (vi+1 · · · vi+j ) = F (v1 ⊗ · · · ⊗ vi )F (vi+1 ⊗ · · · ⊗ vi+j ) =
f (v1 ) · · · f (vi )f (vi+1 ) · · · f (vi+j ) = F (v1 ⊗ · · · ⊗ vi+j ) = F (v1 · · · vi+j ) =
F ((v1 · · · vi )(vi+1 · · · vi+j )),
y F (1) = 1. Si G es otro homomorfismo de R-álgebras tal que Gµ = f , entonces para
cada v ∈ V , G(v) = Gµ(v) = f (v) = F (v), además, G(r) = G(r · 1) = r · G(1) =
r · 1 = F (r) para cada r ∈ R, es decir, G = F .

Pasamos ahora a construir el álgebra exterior de V . En T (V ) consideremos el


ideal bilátero J (véase [6]) generado por los elementos de la forma v 2 , v ∈ V , es
decir,

J := hv 2 |v ∈ V i;

además, definimos

J0 := 0 =: J1 , Ji := J ∩ T i (V ) para i ≥ 2.
3.5. ÁLGEBRAS Y PRODUCTO TENSORIAL 71

Nótese que Ji coincide con el R-subespacio Si de T i (V ) generado por los elementos


de la forma v1 · · · vi , con vr = vs para algún par de ı́ndices 1 ≤ r 6= s ≤ i. En efecto,
es claro que Ji ⊆ Si ; para la inclusión recı́proca basta observar que cada elemen-
to v1 · · · vr · · · vs · · · vi , con vr = vs , pertenece a Ji . Ilustremos con dos situaciones
particulares la prueba inductiva requerida: consideremos v1 v2 v1 ,

(v1 + v2 )(v1 + v2 )v1 = v1 (v1 + v2 )v1 + v2 (v1 + v2 )v1 = v1 v1 v1 + v1 v2 v1 + v2 v1 v1 + v2 v2 v1 ,

luego v1 v2 v1 ∈ J3 . Consideremos también el caso v1 v2 v3 v1 :

(v1 + v2 )(v1 + v2 )v3 v1 = v1 v1 v3 v1 + v1 v2 v3 v1 + v2 v1 v3 v1 + v2 v2 v3 v1 ,

notemos que los sumandos v1 v2 v3 v1 , v2 v1 v3 v1 están en J4 tal como vimos en el caso


particular anteriormente analizado. Por lo tanto, v1 v2 v3 v1 ∈ J4 . Los dos casos ante-
riores muestran que la prueba en el caso general v1 · · · vr · · · vs · · · vi , con vr = vs , se
establece por inducción sobre s − r.
Notemos que
X
J= ⊕Ji .
i≥0
P
En efecto, es claro que Ji ⊆ J para cada i ≥ 0, luego i≥0 Ji ⊆ J; además, la
suma es directa ya que Ji ⊆ T i (V ). Veamos que J ⊆ i≥0 ⊕Ji . Sea z ∈ J, entonces
P
existen zj , zj0 ∈ T (V ) y vj ∈ V , 1 ≤ j ≤ t, tales que z = z1 v12 z10 + · · ·P
+ zt vt2 zt0 , pero
0
si expresamos cada zj y cada zj a través de su expansión en T (V ) = i≥0 ⊕ T i (V ),
encontramos que cada uno de los sumandos de zj vj2 zj0 pertenece a algún Ji , luego la
inclusión señalada es cierta.
Se define entonces el álgebra cociente

Λ(V ) := T (V )/J, (3.5.7)

y se conoce como el álgebra exterior de V .

Proposición 3.5.2. Sea V un R-espacio. Entonces, se tiene el R-isomorfismo de


espacios
Λ(V ) ∼
M
= Λi (V ), (3.5.8)
i≥0

donde

Λ0 (V ) := T 0 (V )/J0 = R, Λ1 (V ) := T 1 (V )/J1 = V , Λi (V ) := T i (V )/Ji , i ≥ 2.


72 CAPÍTULO 3. PRODUCTO TENSORIAL

Demostración. La propiedad universal de i≥0 Λi (V ) permite definir una transfor-


L
mación lineal F según el siguiente diagrama:

Λ(V )
pp
 pp
6
µi pp
pp F
pp
pp
M
i
Λ (V ) - Λi (V )
νi
i≥0

donde νi es la inyección canónica y µi viene dada por


µi
T i (V )/Ji = Λi (V ) −
→ Λ(V ) = T (V )/J, µi (zi ) := zei ,
con zi := zi + Ji , zi ∈ T i (V ), zei := zi + J. Nótese que µi es una transformación lineal
bien definida: en efecto, si zi = ziP 0
, entonces zi −P zi0 ∈ Ji ⊆ J, luego zei = zei0 .
F se define por F ((zi )) := i∈C µi (zi ) = ei , donde C es el soporte de
i∈C z
(zi ) 6= 0 y F (0) := 0. Notemos que existe k de tal forma que completando con
sumandos nulos podemos escribir
F ((zi )) = i∈C zei = ze0 + · · · + zek , con zj ∈ T j (V ), 1 ≤ j ≤ k.
P

Por otro lado, sea G0 : T (V ) → i 0


L
i≥0 Λ (V ) definida por G (z0 + · · · + zi ) :=
ν0 (z0 ) + · · · + νi (zi ), con zj ∈ T j (V ), 0 ≤ j ≤ i. G0 es L obviamente una transformación
lineal bien definida. Hacemos entonces G : Λ(V ) → i≥0 Λi (V ), G(e z ) := G0 (z), con
z ∈ T (V ). G está bien definida ya que si ze = ze0 , entonces z − z 0 ∈ J = i≥0 ⊕Ji ,
P
de donde z − z 0 = z0 + · · · + zi , con zj ∈ Jj , luego G0 (z − z 0 ) = 0. G es claramente
una transformación lineal. Finalmente, GF ((zi )) = G(ze0 ) + · · · + G(zek ) = G0 (z0 ) +
· · · + G0 (zk ) =LG0 (z0 + · · · + zk ) = ν0 (z0 ) + · · · + νi (zk ) = (zi ), es decir, GF es
la idéntica de i≥0 Λi (V ). También, si z := z0 + · · · + zi ∈ T (V ), con zi ∈ T j (V ),
1 ≤ j ≤ i, entonces F G(e z ) = F G0 (z) = F G0 (z0 +· · ·+zi ) = F ν0 (z0 )+· · ·+F νi (zi ) =
µ0 (z0 ) + · · · + µi (zi ) = ze0 + · · · + zei = ze. Esto muestra que F G = iΛ(V ) .
Si identificamos a Λi (V ) con su imagen a través de la inyección canónica νi , es
decir, si consideramos a Λi (V ) como subespacio del R-espacio Λ(V ), entonces Λ(V )
es suma directa interna de los subespacios Λi (V ):
X
Λ(V ) = ⊕ Λi (V ) = R ⊕ V ⊕ Λ2 (V ) ⊕ · · ·
i≥0

Cada elemento z ∈ Λ(V ) tiene una representación única en la forma z = z0 + z1 +


· · · + zi , con zj ∈ Λj (V ), 0 ≤ j ≤ i. Para los elementos de Λi (V ) se usa la siguiente
notación:
v1 ∧ · · · ∧ vi := v1 · · · vi + Ji ∈ Λi (V ), (3.5.9)
3.5. ÁLGEBRAS Y PRODUCTO TENSORIAL 73

El isomorfismo (3.5.8) permite reinterpretar el producto en el anillo Λ(V ) ya que


a través del isomorfismo F se tiene que

(v1 ∧ · · · ∧ vi )(vi+1 ∧ · · · ∧ vi+j ) = v1 ∧ · · · ∧ vi+j . (3.5.10)

Lo anterior demuestra que en Λ(V ) se cumple la siguiente propiedad:

Λi (V )Λj (V ) ⊆ Λi+j (V ). (3.5.11)

La transformación lineal canónica de inclusión

ν : V → Λ(V )

satisface ν(v)2 = 0 para cada v ∈ V . En efecto, en Λ(V ) tiene lugar la identidad

v ∧ v = v 2 + J2 = 0. (3.5.12)

El álgebra exterior está caracterizada con la siguiente propiedad universal.

Teorema 3.5.3. Para cada R-álgebra B y cada transformación lineal f : V → B


tal que f (v)2 = 0, con v ∈ V , existe un único homomorfismo de R-álgebras F :
Λ(M ) → B tal que F ν = f :

ν - Λ(V )
V
p
p pp
f
p pp
pp
F
?
B

F se define por

F (v) := f (v), v ∈ V, F (r) := r · 1, r ∈ R. (3.5.13)

Demostración. Según el teorema 3.5.1, existe un homomorfismo de R-álgebras F 0 :


T (V ) → B tal que F 0 µ = f . Definimos F (e z ) := F 0 (z), con z ∈ T (V ); F está bien
definido ya que si ze = ze0 , entonces z − z 0 ∈ J y existen zj , zj0 ∈ T (V ) y vj ∈ V , 1 ≤
j ≤ t, tales que z −z 0 = z1 v12 z10 +· · ·+zt vt2 zt0 , luego F 0 (z −z 0 ) = F 0 (z1 )F 0 (v1 )2 F 0 (z10 )+
· · · + F 0 (zt )F 0 (vt )2 F 0 (zt0 ) = F 0 (z1 )f (v1 )2 F 0 (z10 ) + · · · + F 0 (zt )f (vt )2 F 0 (zt0 ) = 0. F es
un homomorfismo de R-álgebras ya que F 0 los es; además, para cada v ∈ V se tiene
que F ν(v) = F (e v ) = F 0 (v) = F 0 µ(v) = f (v). Es claro que F (r) = r · 1. Sea G otro
homomorfismo de R-álgebras tal que Gν = f , entonces G (v) = Gν(v) = f (v) =
F (v) y G(r) = G(r · 1) = r · G(1) = r · 1 = F (r), para cada r ∈ R.
74 CAPÍTULO 3. PRODUCTO TENSORIAL

Algunas propiedades interesantes realcionadas con el álgebra exterior son las


siguientes:
(i) Para cada v ∈ V , v ∧ v = 0. En notación multiplicativa usual, v 2 = 0.
(ii) Para u, v ∈ V , u ∧ v = −(v ∧ v). En notación multiplicativa, uv = −vu. En
efecto, (u + v)(u + v) = 0 = u2 + uv + vu + v 2 = uv + vu.
(iii) Para cada z ∈ Λi (V ) y w ∈ Λj (V ), z ∧ w = (−1)ij (w ∧ z). Mediante
notación multiplicativa se tiene que zw = (−1)ij wz. En efecto, si z = z1 ∧ · · · ∧ zi y
w = w1 ∧ · · · ∧ wj , entonces zw = (z1 · · · zi )(w1 · · · wj ) = (−1)i w1 (z1 · · · zi )(w2 · · · wj )
= · · · = (−1)i · · · (−1)i (w1 · · · wj )(z1 · · · zi ) = (−1)ij wz.
| {z }
j−veces
(iv) Si V es generado por n elementos, entonces para i > n, Λi (V ) = 0. En
efecto, en cada sumando de la expansión de v1 ∧ · · · ∧ vi := v1 · · · vi + Ji ∈ Λi (V ) a
través de los generadores de V hay elementos repetidos.
f
(v) Sea V − → U una transformación lineal. Entonces f induce un único homo-
Λ(f )
morfismo de R-álgebras Λ(V ) −−→ Λ(U ) tal que Λ(f )|V = f . Este homomorfismo
envia elementos de Λi (V ) en Λi (U ) para cada i ≥ 0. La restricción de Λ(f ) a Λi (V )
se denota por Λi (f ) y es tal que Λi (f )(v1 ∧ · · · ∧ vi ) = f (v1 ) ∧ · · · ∧ f (vi ). Además,
Λ(f ) es sobreyectivo si, y sólo si, para cada i ≥ 0, Λi (f L) esi sobreyectivo. En efecto,
basta aplicar el teorema 3.5.3 y observar que Λ(f ) = Λ (f ).
f
(vi) Sea R −
→ T un homomorfismo de anillos. Entonces,

Λ(V ) ⊗ T ∼
= Λ(V ⊗ T ) (isomorfismo de T -álgebras).

(vii) Sea V = V1 ⊕ V2 , entonces

Λ(V ) ∼
= Λ(V1 ) ⊗ Λ(V2 ) (isomorfismo de R-álgebras),

donde el producto en Λ(V1 )⊗Λ(V2 ) es definido mediante distributividad y la siguiente


regla:
(zi ⊗ zj )(zp ⊗ zq ) := (−1)jp (zi zp ) ⊗ (zj zq ), (3.5.14)
con zi ∈ Λi (V1 ), zj ∈ Λj (V2 ), zp ∈ Λp (V1 ), zq ∈ Λq (V2 ).
Veamos la demostración: notemos inicialmente que el producto (3.5.14) dota al
R-espacio Λ(V1 ) ⊗ Λ(V2 ) de una estructura de R-álgebra, distinta de la que vimos
para el producto tensorial de álgebras al principio de la presente sección. Por ejemplo,
se puede verificar fácilmente la propiedad asociativa de este producto y que 1 ⊗ 1 es
nuevamente el neutro multiplicativo.
La función definida por f : V → Λ(V1 ) ⊗ Λ(V2 ), f (v1 + v2 ) := v1 ⊗ 1 + 1 ⊗ v2 , es
un R-homomorfismo. Además safistace la identidad f (v1 + v2 )2 = 0. En efecto,

(v1 ⊗1+1⊗v2 )2 = (v1 ⊗1)(v1 ⊗1)+(v1 ⊗1)(1⊗v2 )+(1⊗v2 )(v1 ⊗1)+(1⊗v2 )(1⊗v2 ) =
(−1)0×1 (v12 ⊗ 1) + (−1)0×0 (v1 ⊗ v2 ) + (−1)1×1 (v1 ⊗ v2 ) + (−1)1×0 (1 ⊗ v22 ) = 0.
3.6. EJERCICIOS 75

Se induce entonces un homomorfismo de R-álgebras Λ(f ) : Λ(V ) → Λ(V1 ) ⊗ Λ(V2 )


definido por Λ(f )(v1 + v2 ) := v1 ⊗ 1 + 1 ⊗ v2 , Λ(f )(r) = r · (1 ⊗ 1).
De otra parte, según (v), las inclusiones canónicas ιi : Vi → V1 ⊕ V2 , i = 1, 2,
inducen homomorfismos de R-álgebras Λ(ιi ) : Λ(Vi ) → Λ(V ) de tal forma que
Λ(ιi )(vi ) = vi , Λ(ιi )(r) = r · 1Λ(V ) . Definimos entonces f : Λ(V1 ) × Λ(V2 ) → Λ(V )
por f (z1 , z2 ) := Λ(ι1 )(z1 )Λ(ι2 )(z2 ), con zi ∈ Λ(Vi ). Notemos que f es bilineal, por lo
tanto, se induce un R-homomorfismo F : Λ(V1 )⊗Λ(V2 ) → Λ(V ) para el cual se tiene
que F (z1 ⊗ z2 ) = Λ(ι1 )(z1 )Λ(ι2 )(z2 ) (teorema 3.1.4). Nótese que F (1 ⊗ 1) = 1Λ(V ) .
Probemos que F Λ(f ) = iΛ(V ) y que Λ(f )F = iΛ(V1 )⊗Λ(V2 ) : sea v1 + v2 ∈ V , se
tiene entonces que F Λ(f )(v1 + v2 ) = F (v1 ⊗ 1 + 1 ⊗ v2 ) = v1 + v2 ; F Λ(f )(r) =
F (r · (1 ⊗ 1)) = r · F (1 ⊗ 1) = r · 1Λ(V ) = r · 1R = r1R = r. De otra parte,

Λ(f )F (v1 ⊗ v2 ) = Λ(f )(Λ(ι1 )(v1 )Λ(ι2 )(v2 )) = Λ(f )(v1 v2 ) = Λ(f )(v1 )Λ(f )(v2 ) =
(v1 ⊗ 1)(1 ⊗ v2 ) = (−1)0×0 (v1 ⊗ v2 ) = v1 ⊗ v2 ;

además,

Λ(f )F (r ⊗ v2 ) = Λ(f )(Λ(ι1 )(r)Λ(ι2 )(v2 )) = Λ(f )(r · 1Λ(V ) )Λ(f )(v2 ) =
(r·Λ(f )(1Λ(V ) ))(1⊗v2 ) = (r·(1⊗1))(1⊗v2 ) = (r⊗1)(1⊗v2 ) = (−1)0×0 (r⊗v2 ) = r⊗v2 .

De manera similar se prueba que Λ(f )F (v1 ⊗r) = v1 ⊗r. Todo lo anterior demuestra
que Λ(f ) es un isomorfismo de R-álgebras.
(viii) Si V es libre con base X := {x1 , . . . , xn }, entonces para 1 ≤ i ≤ n, Λi (V )
es libre con base {xj1 ∧ · · · ∧ xji |1 ≤ j1 < · · · < ji ≤ n}. Además, dim Λi (V ) = ni
y dim Λ(V ) = 2n .
(ix) Si V es un espacio proyectivo finitamente generado, es decir, V es sumando
directo de un espacio libre de dimensión finita, entonces Λ(V ) y Λi (V ) son espacios
proyectivos finitamente generados, para cada i ≥ 0.

3.6. Ejercicios
1. Demuestre la proposición 3.3.3.

2. Sean U, V, W R-espacios. Demuestre que (U ⊗ V ) ⊗ W ∼


= U ⊗ (V ⊗ W ) y

U ⊗ V = V ⊗ U.

3. Demuestre las propiedades (iii)-(ix) de la sección 3.2.

4. Demuestre que el producto tensorial de dos matrices cuadradas simétricas es


una matriz simétrica.

5. Sean V1 , . . . , Vn R-espacios y sea π ∈ Sn una permutación. Demuestre que


V1 ⊗ · · · ⊗ Vn ∼ = Vπ(1) ⊗ · · · ⊗ Vπ(n) .
76 CAPÍTULO 3. PRODUCTO TENSORIAL

6. Determine en cada caso si f ∈ T2 (R2 ), donde


a) f : R2 × R2 → R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 + c2 d1 .
b) f : R2 × R2 → R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 − c2 d1 .
c) f : R2 × R2 → R, f ((c1 , c2 ), (d1 , d2 )) := c1 + d2 .
7. Para los tensores f del ejercicio anterior calcule Sf y Alf .
8. Sean T : R3 → R2 y F : R2 → R4 transformaciones lineales definidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x + y, y, y − x) .
Entonces, ¿ dim(ker(T ⊗ F )) = 2 ?.
9. Demuestre la proposición 3.4.2.
10. Sean V un R-espacio de dimensión finita k ≥ 1 y f ∈ Tn (V ). Demuestre que
f ∈ An (V ) si, y sólo si, para cada trasposición τ ∈ Sn y cada (v1 , . . . , vn ) ∈
V × · · · × V , f (τ (v1 ), . . . , τ (vn )) = −f (v1 , . . . , vn ).
11. Demuestre la proposición 3.4.5.
12. Demuestre la proposición 3.4.8.
13. Determine si se tienen los siguientes isomorfismos de R-álgebras:

Mn (R) ⊗ Mm (R) ∼
= Mnm×nm (R),
R[x] ⊗ R[y] ∼
= R[x, y].

14. Demuestre el teorema 3.5.1.


15. Sea K un cuerpo y sean A ∈ Mn (K), B ∈ Mm (K) matrices diagonalizables,
entonces ¿A ⊗ B es diagonalizable?.
16. ¿La función f definida por

f : R2 × R2 → R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 − c2 d1

es un tensor?
17. Sean f, g ∈ AL2 (R2 ) dos tensores antisimétricos. Entonces, ¿f ⊗ g es anti-
simétrico?
18. Demuestre las propiedades (v)-(ix) de la sección 3.5.
Capı́tulo 4

Formas canónicas

Aplicamos en este capı́tulo la teorı́a de los módulos finitamente generados sobre


dominios de ideales principales (véase [7]) para el estudio de las formas canónicas
clásica, racional y de Jordan de una transformación lineal T : V → V , con V un K-
espacio no nulo de dimensión finita y K un cuerpo. En la última sección estudiaremos
la forma canónica diagonal y la diagonalización de matrices mediante similaridad.

4.1. Polinomios mı́nimo y caracterı́stico


Sea EndK (V ) la K-álgebra de transformaciones lineales de V , T : V → V un elemen-
to que fijamos en EndK (V ), y sea K[x] la K-álgebra de polinomios con coeficientes
en K.
Proposición 4.1.1. La función

f : K[x] → EndK (V )
(4.1.1)
a(x) = a0 + a1 x + · · · + an xn 7→ a0 · iV + a1 · T + · · · + an · T n =: a(T )

es un homomorfismo de K-álgebras, donde iV es la función idéntica de V .


Demostración. Sean a(x) = a0 + a1 x + · · · + an xn , b(x) = b0 + b1 x + · · · + bm xm ∈
K[x], k ∈ K. Sin pérdidad de generalidad podemos suponer que n = m. Entonces
f [a(x) + b(x)] = f [(a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn ] = (a0 + b0 ) · iV + (a1 + b1 ) ·
T +· · ·+(an +bn )·T n = (a0 ·iV +a1 ·T +· · ·+an ·T n )+(b0 ·iV +b1 ·T +· · ·+bn ·T n ) =
f (a(x)) + f (b(x)).
f [a(x)b(x)] = f (c(x)) = c0 ·iV +c1 ·T +· · ·+c2n ·T 2n , donde ci = i=j+l aj bl , 1 ≤
P
i ≤ 2n, pero utilizando la distributividad del anillo EndK (V ) se verifica facilmente
que (a0 ·iV +a1 ·T +· · ·+an ·T n )(b0 ·iV +b1 ·T +· · ·+bn ·T n ) = c0 ·I +c1 ·T +· · ·+c2n ·T 2n ,
es decir, f (c(x)) = f (a(x))f (b(x)). Finalmente resulta evidente que f (k · a(x)) =
k · f (a(x)) y f (1) = iV .

77
78 CAPÍTULO 4. FORMAS CANÓNICAS

Corolario 4.1.2. Sea a(x) como en la proposición 4.1.1 y v ∈ V . El producto

a(x) · v :=(a0 · iV + a1 · T + · · · + an · T n )(v)


=a0 · v + a1 · T (v) + · · · + an · T n (v) = a(T )(v)

dota a V una estructura de K[x]-espacio izquierdo. Esta estructura se denota por


VT .

Demostración. Nótese que V tiene estructura de EndK (V )-módulo izquierdo con el


producto H · v := H(v), H ∈ EndK (V ), v ∈ V . La afirmación es ahora evidente ya
que f en (4.1.1) es un homomorfismo de anillos.

Proposición 4.1.3. VT es un K[x]-espacio finitamente generado y de torsión.

Demostración. Sea X = {x1 , . . . , xt } una base de VK . De la inclusión natural

l : K → K[x]
k 7→ k

concluimos que VT =K[x] hx1 , . . . , xt i. De otra parte se tiene el isomorfismo de K-


álgebras EndK (V ) = Mt (K). Por lo tanto, dimK (EndK (V )) = t2 , esto último im-
plica que f en (4.1.1) no puede ser inyectiva ya que de lo contrario f (1), f (x),
f (x2 ), . . . serı́a un subconjunto infinito linealmente independiente de EndK (V ), en
contradicción con lo ya establecido. Ası́, ker(f ) 6= 0; dado que K[x] es un DIP se
tiene

ker(f ) = hqT (x)i, (4.1.2)

con 0 6= qT (x) ∈ K[x]. Sin pérdida de generalidad podemos tomar qT (x) mónico.
Resulta entonces que qT (x) · v = 0 para cada v ∈ VT , con lo cual VT es de torsión.
Nótese finalmente que
AnnK[x] (VT ) = hqT (x)i. (4.1.3)

De acuerdo con este resultado podemos aplicar a VT la teorı́a de los espacios


finitamente generados de torsión sobre un DIP .

Definición 4.1.4. El polinomio qT (x) definido en (4.1.3) se denomina polinomio


mı́nimo de T .

Según (4.1.3), qT (x) no depende de la base X elegida en V .

Proposición 4.1.5. Se tienen las siguientes propiedades para el polinomio mı́nimo


qT (x):
4.1. POLINOMIOS MÍNIMO Y CARACTERÍSTICO 79

(i) Si q(x) ∈ K[x] es tal que

q(x) · v = 0 para cada v ∈ VT , (4.1.4)

es decir, si q(T ) = 0, entonces qT (x) | q(x).

(ii) qT (x) es el polinomio mónico de menor grado tal que satisface (4.1.4) y es
único para T .

Demostración. (i) Sea q(x) ∈ K[x] como en (4.1.4). Entonces q(x) ∈ AnnK[x] (VT ) =
hqT (x)i, con lo que qT (x) | q(x).
(ii) Sea p(x) mónico de K[x] que satisface (4.1.4). Por (i), gr(qT (x)) ≤ gr(p(x)).
Ahora, si p(x) es de grado mı́nimo entre los que cumplen (4.1.4), tenemos que
gr(qT (x)) = gr(p(x)), por (i) y como qT (x) y p(x) son mónicos, necesariamente
qT (x) = p(x).

Sea A ∈ Mt (K) una matriz, A define una única transformación lineal T : V → V


en la base X. Notemos que qT (A) = 0. En efecto, qT (mX (T )) = mX (qT (T )) =
mX (0) = 0. Tenemos pues que existe al menos un polinomio mónico que se anula en
A; consideremos la colección I de todos los polinomios de K[x] que se anulan en A,
este conjunto es claramente un ideal de K[x], luego I = hqA (x)i y el polinomio qA (x)
se puede tomar mónico. Nótese que qA (x) es el polinomio mónico de menor grado tal
que qA (A) = 0. En efecto, sea p(x) un polinomio mónico de grado mı́nimo tal que
p(A) = 0, entonces p(x) ∈ I, luego qA (x)|p(x), pero como p(x) es mónico y de grado
mı́nimo, entonces p(x) = qA (x). Se define el polinomio mı́nimo de la matriz A
por qA (x). Nótese que qA (x) = qT (x). En efecto, ya sabemos que qT (A) = 0, luego
qA (x)|qT (x); pero también qA (T ) = 0 ya que mX (qA (T )) = qA (mX (T )) = qA (A) = 0
y mX es inyectiva. Resulta, qT (x)|qA (x), con lo cual qT (x) = qA (x).

Definición 4.1.6. (i) Sea A = [aij ] ∈ Mt (K) una matriz cuadrada; se denomina
polinomio caracterı́stico de A al determinante de la matriz caracterı́stica
 
x − a11 −a12 · · · −a1t
 −a21 x − a22 · · · −a2t 
xE − A :=  .. (4.1.5)
 
.. .. .. 
 . . . . 
−at1 −at2 · · · x − att

y se denota por pA (x).


(ii) Sean K, V , T , X, t como en el corolario 4.1.3. Sea A = [aij ] = mX (T )
la matriz de T en la base X. Se define el polinomio caracterı́stico de T por
pT (x) := pA (x).
80 CAPÍTULO 4. FORMAS CANÓNICAS

Nótese que gr(pT (x)) = t = dimK (V ); además, pT (x) es mónico y no depende de


la base X elegida en V . En efecto, si Y es otra base de V y B := mY (T ), entonces
det(xE − B) = det(xE − C −1 AC) = det(C −1 (xE − A)C) = det(xE − A), donde C
es la matriz de cambio de la base X a la base Y .
Observemos que matrices similares tienen el mismo polinomio mı́nimo ya que
representan la misma transformación lineal. Lo mismo se tiene para el polinomio
caracterı́stico. Las afirmaciones recı́procas no son siempre ciertas, tal como lo ilustran
las matrices
   
1 1 1 0
y .
0 1 0 1

Proposición 4.1.7. Sea V = V1 ⊕ · · · ⊕ Vr una descomposición de V en suma de


subespacios T -invariantes no triviales, es decir, T (Vj ) ⊆ Vj . Sea Tj la restricción
de T a Vj , 1 ≤ j ≤ r. Entonces

(i) Existe una base X en V tal que la matriz de T en la base X es diagonal por
bloques.

(ii) det(T ) = det(T1 ) · · · det(Tr ).

(iii) pT (x) = pT1 (x) · · · pTr (x).

(iv) qT (x) = m.c.m.{qT1 (x), . . . , qTr (x)}

Demostración. (i) Si juntamos las bases de V1 , . . . , Vr obtenemos una base de V y


en esta base la matriz de T es diagonal por bloques.
Teniendo en cuenta que el determinante, el polinomio caracterı́stico y el poli-
nomio mı́nimo de una transformación lineal coinciden con los de su matriz en
cualquier base, entonces basta probar las afirmaciones en el caso matricial. Pero
el determinante de una matriz diagonal en bloques es el producto de los determi-
nantes de sus bloques, luego las partes (ii)-(iii) ya están probadas.
Resta demostrar la parte (iv). Sea
 
A1 · · · 0
A :=  ... . . . ... 
 
0 · · · Ar

y qA (x) el polinomio mı́nimo de A. Hagamos m(x) := m.c.m{qA1 (x), . . . , qAr (x)}.


Existen polinomios mi (x), 1 ≤ i ≤ r, tales que m(x) = qAi (x)mi (x). Se debe entonces
demostrar que qA (x) = m(x). Teniendo en cuenta que tanto qA (x) como m(x) son
mónicos, entonces basta demostrar que qA (x) | m(x) y m(x) | qA (x). Sea m(x) =
m0 + m1 x + · · · + ml xl , entonces
4.1. POLINOMIOS MÍNIMO Y CARACTERÍSTICO 81

 m(A) = m0 E + m1 A + · · · + ml Al = 
m0 E + m1 A1 + · · · + ml Al1 · · · 0
 .. .. .. 
 . . . 
l
0 · · · m 0 E + m 1 A r + · · · + m l Ar
   
m(A1 ) · · · 0 qA1 (A1 )m1 (A1 ) · · · 0
= .. .. .. .. .. ..
=  = 0.
   
. . . . . .
0 · · · m(Ar ) 0 · · · qAr (Ar )mr (Ar )
Esto garantiza que qA (x) | m(x).
Para demostrar la segunda parte basta mostrar que qA (x) es múltiplo de cada
qAi (x). Sea qA (x) = q0 + q1 x + · · · + qt xt , entonces qA (A) = 0 luego q0 E + q1 A + · · · +
q t At = 0 y
   
q 1 A1 · · · 0 qt At1 · · · 0
q0 I +  ... ... ..  + · · · +  .. ... .. 

.   . . 
0 · · · q 1 Ar 0 · · · qt Atr
 
qA (A1 ) · · · 0
= .. .. ..
 = 0,
 
. . .
0 · · · qA (Ar )
luego qA (Ai ) = 0 para cada i, y esto indica que qA (x) es múltiplo de cada qAi (x).
Proposición 4.1.8. Sea VT un K[x]-espacio cı́clico con generador v0 . Sean qT (x) =
q0 + q1 x + · · · + qn−1 xn−1 + xn el polinomio mı́nimo de T y pT (x) su polinomio
caracterı́stico. Entonces,
(i) X := {v0 , T (v0 ), . . . , T n−1 (v0 )} es una K-base de V .
 
0 0 · · · 0 −q0
1 0 · · · 0 −q1 
 
0 1 · · · 0 −q2 
(ii) mX (T ) =  ,
 .. .. .. .. .. 
. . . . . 
0 0 · · · 1 −qn−1
denominada la matriz compañera del polinomio qT (x).
(iii) pT (x) = qT (x).
Demostración. (i) Dado que VT es cı́clico, tenemos

VT ∼
= K[x]/AnnK[x] (V ) (K[x]-isomorfismo).
De acuerdo con (4.1.3), AnnK[x] (VT ) = hqT (x)i (nótese que qT (x) 6= 0 pues de lo
contrario V no serı́a de dimensión finita sobre K). La inclusión natural K ,→ K[x]
82 CAPÍTULO 4. FORMAS CANÓNICAS

convierte a K[x]/hqT (x)i en un K-espacio vectorial con base {1, x, . . . , xn−1 }, xi =


xi + hqT (x)i.
Sea v ∈ VT , entonces v = q(x) · v0 , q(x) ∈ K[x]; dado que K[x] es un dominio
euclideano, v = qT (x)t(x) · v0 + r(x) · v0 , con r(x) = 0 ó gr(r(x)) < n; resulta
entonces v = r(x) · v0 ∈ hv0 , T (v0 ), . . . , T n−1 (v0 )i, es decir, V = hXi. Sean ahora
a0 , . . . , an−1 ∈ K tales que

a0 · v0 + a1 · T (v0 ) + · · · + an−1 · T n−1 (v0 ) = 0,

entonces
(a0 + a1 x + · · · + an−1 xn−1 ) · v0 = 0,
y ası́
a0 + a1 x + · · · + an−1 xn−1 ∈ AnnK[x] (V ) = hqT (x)i.
Por lo tanto, a0 + a1 · x + · · · + an−1 · xn−1 = 0, de donde a0 = a1 = · · · = an−1 = 0.
(ii) La afirmación de esta parte se sigue de (i) y del hecho que

qT (x) · v0 = 0 = q0 v0 + q1 · T (v0 ) + · · · + qn−1 · T n−1 (v0 ) + T n (v0 ).

(iii) Dado que al mutiplicar una matriz por una propiamente elemental su determi-
nante no varı́a, se tiene
   
x 0 ··· 0 q0 0 x2 ··· 0 q0 + q1 x
−1 x · · · 0 q1  −1 x ··· 0 q1 
   
pT (x) = det  0 −1 · · · 0 q2  = det  0 −1 ··· 0 q2 
  

 .. .. .. .. ..  .. .. .. .. .. 
 . . . . .  . . . . . 
0 0 ··· −1 x + qn−1 0 0 ··· −1 x + qn−1
 
0 0 ··· 0 q0 + q1 x + q2 x 2
−1 0 · · · 0 q1 + q2 x 
 
= det  0 −1 · · · 0 q2  = ··· =
 
 .. .. .. .. .. 
 . . . . . 
0 0 ··· −1 x + qn−1
 
0 0 ··· 0 q0 + q1 x + · · · + qn−1 xn−1 + xn
−1 0 · · ·
 0 q1 + q2 x + · · · + xn−1 

 0 −1 · · · 0 q2 + q3 x + · · · + nn−2 
= det  ..
 
.. .. .. .. 
 . . . . . 
2
 
0 0 ··· 0 qn−2 + qn−1 x + x 
0 0 ··· −1 x + qn−1
=qT (x).
4.1. POLINOMIOS MÍNIMO Y CARACTERÍSTICO 83

Regresamos al estudio de las componentes primarias de VT .

Proposición 4.1.9. Sea p(x) un polinomio mónico irreducible de K[x]. La compo-


nente p(x)-primaria de VT es no nula si, y sólo si, p(x) | qT (x).
(p(x)) (p(x))
Demostración. ⇒): Supongamos que VT 6= 0 y sea 0 6= v ∈ VT . Entonces,
AnnK[x] (v) = hp(x) i, l ≥ 1 (véase [7]). Puesto que qT (x) · v = 0 entonces p(x)l |
l

qT (x), y por lo tanto p(x) | qT (x).


⇐): Sea qT (x) = p(x)q(x) con q(x) ∈ K[x] mónico. Nótese que gr(q(x)) <
gr(qT (x)), ası́ que por la proposición 4.1.5, existe v 6= 0 en VT tal que q(x) · v 6= 0,
(p(x))
pero entonces p(x) · (q(x) · v) = qT (x) · v = 0, es decir , VT 6= 0.
De la afirmación anterior resulta inmediatamente la siguiente descomposición de
VT en suma directa de sus componentes primarias.

Corolario 4.1.10. Sea

qT (x) = q1 (x)k1 · · · qr (x)kr (4.1.6)

la descomposición del polinomio mı́nimo de T en producto de mónicos irreducibles.


Entonces la descomposición de VT en suma de sus componentes primarias está dada
por

VT = (VT )(q1 (x)) ⊕ · · · ⊕ (VT )(qr (x)) . (4.1.7)

Se puede ahora descomponer cada componente primaria en suma directa de


K[x]-espacios cı́clicos (véase [7]). Para simplificar un poco la notación escribimos

(VT )(qj (x)) =: Vj , (4.1.8)

para 1 ≤ j ≤ r.

Lema 4.1.11. Con la notación anterior se tiene que:

(i) Vj es un K-subespacio T -invariante de V y entonces Tj := T |Vj es un K-


endomorfismo de Vj .

(ii) Sea qTj (x) el polinomio mı́nimo de Tj . Entonces

qTj (x) = qj (x)kj y Vj = ker(qj (T )kj ).

(iii) Si sj1 ≥ · · · ≥ sjlj ≥ 1 son los divisores elementales de Vj , escritos en orden


decreciente, entonces
sj1 = kj .
84 CAPÍTULO 4. FORMAS CANÓNICAS

(iv) Sea pTj (x) el polinomio caracterı́stico de Tj . Entonces,

pTj (x) = qj (x)sj1 +···+sjlj .

(v) qTj (x)|pTj (x).

(vi) dimK (Vj ) = (sj1 + · · · + sjlj )gr(qj (x)).


Demostración. (i) Dado que Vj en un K[x]-subespacio de VT , este también resulta
ser K-subespacio de V . Además, Vj es T -invariante. En efecto, T (Vj ) = x · Vj ⊆ Vj .
(ii) Por (4.1.6), qT (x) = qj (x)kj zj (x), con
k k
zj (x) := q1k1 (x) · · · qj−1
j−1 j+1
(x)qj+1 (x) · · · qrkr (x).
Sea vj ∈ Vj , entonces existe n ≥ 1 tal que qjn (x) · vj = 0. Como m.c.d.(qjn (x), zj (x))
= 1, existen w(x), l(x) ∈ K[x] tales que 1 = w(x)qjn (x) + l(x)zj (x), luego vj =
k
w(x)qjn (x) · vj + l(x)zj (x) · vj = l(x)zj (x) · vj , de donde qj j (x) · vj = l(x)qT (x) · vj = 0.
k
Entonces, hemos demostrado que para cada j, qTj (x) | qj j (x).
Por otra parte, de acuerdo con (4.1.7), cada elemento v ∈ V se puede expresar
en la forma
v = v1 + · · · + vj + · · · + vr , vj ∈ Vj .
Entonces,
k k +1
qTj (x)zj (x) · v = qTj (x)q1k1 (x) · · · qj−1
j−1 j
(x)qj+1 (x) · · · qrkr (x) · v = 0.
k
Resulta qT (x) | qTj (x)zj (x), con lo que qj j (x) | qTj (x).
Notemos que si v ∈ Vj , entonces qj (Tj )kj (v) = 0, es decir, qj (T )kj (v) = 0, luego
v ∈ ker(qj (T )kj ). Recı́procamente, si v ∈ ker(qj (T )kj ), entonces qj (T )kj (v) = 0, luego
qj (x)kj · v = 0, es decir, v ∈ Vj .
(iii) Se tiene el K[x]-isomorfismo
sjl
Vj ∼
s
= K[x]/hqj j1 (x)i ⊕ · · · ⊕ K[x]/hqj j (x)i, (4.1.9)
s
y AnnK[x] (Vj ) = hqj j1 (x)i = hqTj (x)i, véase (4.1.3), de modo que según (ii), sj1 = kj .
(iv) En (4.1.9) cada sumando es un K[x]-subespacio, luego también un K-
subespacio de Vj ; notemos que cada uno estos sumandos es Tj -invariante: en efecto,
sea Wi := K[x]/hqj ji (x)i, 1 ≤ i ≤ lj , entonces Vj ∼
s
= W1 ⊕ · · · ⊕ Wlj ; sea w ∈ Wi ,
luego x · w ∈ Wi , es decir, T (w) ∈ Wi , luego Tj (Wi ) ⊆ Wi .
Tenemos entonces que cada Wi es un K[x]- espacio cı́clico Tj -invariante, podemos
entonces aplicar las proposiciones 4.1.8 y 4.1.7 para obtener (iv).
(v) Consecuencia directa de (ii), (iii) y (iv).
(vi) Como el grado del polinomio caracterı́stico pTj (x) de Tj coincide con la
dimensión de Vj , entonces (v) es consecuencia de (iv).
4.2. FORMA CANÓNICA CLÁSICA 85

Definición 4.1.12. Sea VT descompuesto como en (4.1.7). Los divisores elementales


de VT se denominan divisores elementales de T .

De los resultados obtenidos podemos deducir uno de los teoremas básicos y más
importantes del álgebra lineal.

Teorema 4.1.13 (Hamilton-Cayley). Sea V un K-espacio de dimensión finita y


T : V → V una transformación lineal de V . Entonces

qT (x) | pT (x).

Demostración. Por la parte (v) del lema 4.1.11, para cada 1 ≤ j ≤ r se tiene
que qTj (x) | pTj (x), pero de la proposición 4.1.7 y la descomposición (4.1.7) resulta
qT1 (x) · · · qTr (x) = q1k1 (x) · · · qrkr (x) = qT (x) | pT (x).

4.2. Forma canónica clásica


Aplicamos ahora los resultados anteriores al estudio de las llamadas formas canónicas
de una transformación lineal, o equivalentemente, de una matriz. Comenzamos con
la forma canónica clásica.
Sr Según (4.1.7), podemos elegir en cada Vj una base Xj de tal manera que X :=
j=1 Xj es una base de V y la matriz de T en dicha base toma la forma

 
mX1 (T1 ) · · · 0
mX (T ) =  .. ... ..
. (4.2.1)
 
. .
0 · · · mXr (Tr )

Pero de acuerdo con (4.1.9), podemos elegir la base Xj de Vj de tal manera que la
matriz de Tj en dicha base es diagonal en bloques:
 
Aj1 · · · 0
mXj (Tj ) =  ... .. ..  . (4.2.2)

. . 
0 · · · Ajlj

Por la proposición 4.1.8, el bloque Aji es la matriz compañera del polinomio qj (x)sji
de (4.1.9). Queremos ahora descomponer cada bloque de (4.2.2) de tal manera que
aparezca la matriz compañera de qj (x).

Proposición 4.2.1. Sea V un K[x]-espacio cı́clico con generador v0 y supóngase


que el polinomio mı́nimo de T (véase la proposición 4.1.8) es de la forma q(x)s ,
86 CAPÍTULO 4. FORMAS CANÓNICAS

donde q(x) := q0 + q1 x + · · · + qn−1 xn−1 + xn es irreducible, s ≥ 1. Entonces existe


una base X en V tal que la matriz T en dicha base es de la forma
 
C 0 ··· 0
1 C ··· 0
 
mX (T ) =  0 1 0 , (4.2.3)

 .. .. 
. .
0 ··· 1 C

con s bloques C, donde C es la matriz compañera de q(x) y los 1 van dispuestos en


las entradas (n + 1, n), (2n + 1, 2n) . . . , ((s − 1)n + 1, (s − 1)n).

Demostración. Según la proposición 4.1.8, una K-base de V es


X 0 = {v0 , T v0 , T 2 v0 , . . . , T ns−1 v0 }.
Nótese que
X := {v0 , T v0 , . . . , T n−1 v0 ;
q(T )v0 , T q(T )v0 , . . . , T n−1 q(T )v0 ;
q(T )2 v0 , T q(T )2 v0 , . . . , T n−1 q(T )2 v0 ;
. . . ; q(T )s−1 v0 , T q(T )s−1 v0 , . . . , T n−1 q(T )s−1 v0 }
tiene ns elementos y satisface hX 0 i = hXi = V : en efecto, basta mostrar que cada
elemento de X 0 está en hXi. Es claro que v0 , T v0 , . . . , T n−1 v0 ∈ hXi; como
q(T )v0 = q0 v0 + q1 T v0 + · · · + qn−1 T n−1 v0 + T n v0 ,
entonces

T n v0 = q(T )v0 − q0 v0 − q1 T v0 − · · · − qn−1 T n−1 v0 ∈ hXi


T n+1 v0 = T q(T )v0 − q0 T v0 − · · · − qn−1 T n v0 ∈ hXi
..
.
n+n−1
T v0 = T n−1 q(T )v0 − q0 T n−1 v0 − · · · − qn−1 T 2n−2 v0 ∈ hXi
T 2n v0 = T n q(T )v0 − q0 T n v0 − · · · − qn−1 T 2n−1 v0
= q(T )2 v0 − q0 q(T )v0 − q1 T q(T )v0 − · · · − qn−1 T n−1 q(T )v0
− q0 T n v0 − · · · − qn−1 T 2n−1 v0 ∈ hXi,

continuando de esta manera, y por recurrencia, obtenemos lo anunciado.


Ası́ pues, X es una base de V y es fácil ver que mX (T ) es como en (4.2.3).
Reemplazando (4.2.3) en (4.2.2), y luego en (4.2.1), obtenemos la denominada
matriz canónica clásica de T . Nótese que esta matriz canónica clásica consta
solamente de unos, ceros y los coeficientes de los factores irreducibles q1 (x), . . . , qr (x)
4.2. FORMA CANÓNICA CLÁSICA 87

del polinomio mı́nimo qT (x). Para calcular la matriz canónica clásica de T es nece-
sario conocer el sistema de divisores elementales de T , es decir, de VT . Si A es una
matriz cuadrada, entonces A determina una única transformación lineal T , y se de-
finen los divisores elementales de A como el sistema de divisores elementales de
T.
Corolario 4.2.2. (i) Sea T : V → V una transformación lineal de un K-espacio
V de dimensión finita. Entonces, existe una base X en V tal que la matriz de
T en la base X es una matriz canónica clásica.

(ii) Toda matriz A ∈ Mn (K) es similar a una única matriz canónica clásica.

(iii) Dos matrices cuadradas son similares si, y sólo si, tienen el mismo sistema de
divisores elementales.
Demostración. Las dos primeras afirmaciones fueron probadas en el desarrollo de
la presente sección. La tercera se tiene ya que matrices similares representan la
misma transformación lineal y, si dos matrices tienen el mismo sistema de divisores
elementales, entonces son similares a la misma matriz canónica clásica, y por lo
tanto son similares.
Ejemplo 4.2.3. Ilustramos a continuación el cálculo de las componentes primarias
del VT , donde T es una transformación lineal definida por medio de una matriz.
También calcularemos la base X que permite obtener la forma diagonal en bloques
dada en (4.2.1). Consideremos la transformación lineal T : R4 → R4 definida por la
matriz
 
1 −1 0 1
 0 3 1 0 
A= .
 2 1 2 −1 
−3 −2 0 4
Mediante cálculo manual o usando algún paquete de cómputo (por ejemplo el SWP,
Scientific WorkPlace) encontramos que
pA (x) = qA (x) = 36 − 60x + 37x2 − 10x3 + x4 = (x − 2)2 (x − 3)2 ;
debemos entonces calcular las componentes primarias de V := R4 inducidas por A,
V1 = ker((A − 2E)2 ), V2 = ker((A − 3E)2 ). Tenemos
   
−2 −2 −1 1 1 0 −1 −1
 2 2 1 −1  , (A − 3E)2 =  2 1 −1 −1 
(A − 2E)2 = 


 1 1 1 0   −3 −1 2 2 
−3 −3 −2 1 3 1 −2 −2
y calculamos las bases de sus núcleos:
88 CAPÍTULO 4. FORMAS CANÓNICAS

       

 1 −1  
 1 1 

0   1  −1 −1
    
ker(A − 2E)2 =  ,  , ker(A − 3E)2 =  ,  .


 −1   0 
 

 1   0 

1 0 0 1
   

La base buscada X es la unión de los cuatro vectores anteriores. Construimos la


matriz de cambio
   
1 −1 1 1 0 1 1 1
 0 1 −1 −1   , C −1 =  1
 1 0 0 
C=  −1
,
0 1 0   1 1 1 0 
1 0 0 1 −1 −1 0 1

y finalmente encontramos que


   
0 1 1 1 1 −1 0 1 1 −1 1 1
 1
 1 0 0 
 0
 3 1 0 
 0
 1 −1 −1 
=
 1 1 1 0  2 1 2 −1   −1 0 1 0 
−1 −1 0 1 −3 −2 0 4 1 0 0 1
 
3 −1 0 0
 1 1 0 0 
 .
 0 0 3 0 
0 0 −1 3

Ejemplo 4.2.4. Para la matriz A del ejemplo anterior podemos calcular su forma
canónica clásica: tenemos pA (x) = qA (x) = q1 (x)2 q2 (x)2 , con q1 (x) = x − 2 y q2 (x) =
x − 3, luego la forma buscada es
 
2 0 0 0
1 2 0 0
 .
0 0 3 0
0 0 1 3

4.3. Forma canónica racional


La segunda forma canónica destacada es la racional, también denominada forma
canónica de Frobenius, en la cual intervienen los factores invariantes de VT . Del
corolario 4.1.10 y del teorema de estructura de los módulos f.g. sobre DIP s (véase
[7]) resulta

VT ∼
= K[x]/hq1 (x)i ⊕ · · · ⊕ K[x]/hqm (x)i, (4.3.1)
4.3. FORMA CANÓNICA RACIONAL 89

donde qi (x) | qj (x) para i ≤ j (cada qi (x) se puede tomar mónico). Existe entonces
una base X en V tal que
 
C1 · · · 0
R := mX (T ) =  ... . . . ..  , (4.3.2)

. 
0 · · · Cm

donde Cj es la matriz compañera de qj (x). Nótese que


pT (x) = q1 (x) · · · qm (x),
(4.3.3)
hqm (x)i = AnnK[x] (VT ), qT (x) = qm (x),
resultando otra demostración del teorema 4.1.13. Esta forma canónica consta de
ceros, unos y los coeficientes de los factores invariantes.
Definición 4.3.1. La matriz R en (4.3.2) se denomina racional o de Frobenius.
Los polinomios q1 (x), . . . , qm (x) en (4.3.1) se denominan los factores invariantes
de la matriz R. Una transformación lineal T : V → V es racionalizable si existe
una base X en V tal que mX (T ) es racional. Los factores invariantes de mX (T )
se denominan factores invariantes de T . Una matriz A ∈ Mn (K) es racio-
nalizable si A es similar a una matriz racional R, y los factores invariantes R se
conocen como los factores invariantes de A.
Corolario 4.3.2. Sea T : V → V una transformación lineal sobre un K-espacio V
de dimensión finita. Entonces, para cada base Y de V se cumple: T es racionalizable
si, y sólo si, mY (T ) es racionalizable.
Demostración. Esto es consecuencia del hecho que matrices similares representan la
misma transformación lineal.
Corolario 4.3.3. (i) Toda transformación lineal T : V → V de un K-espacio V de
dimensión finita es racionalizable.
(ii) Toda matriz A ∈ Mn (K) es similar a una única matriz racional R.
(iii) Dos matrices cuadradas son similares si, y sólo si, tienen los mismos factores
invariantes.
Demostración. La primera afirmación se tiene tal como vimos en (4.3.2); la segunda
en consecuencia de que una matriz representa una transformación lineal, la unicidad
se obtiene de la unicidad de los factores invariantes de VT . La tercera resulta de
que matrices similares representan la misma transformación lineal y, si dos matrices
tienen los mismos factores invariantes, entonces son similares a la misma matriz
racional, y por lo tanto son similares.
En la proposición 4.1.8 vimos que si VT es un K[x]-espacio cı́clico, entonces
pT (x) = qT (x). Veamos ahora la afirmación recı́proca.
90 CAPÍTULO 4. FORMAS CANÓNICAS

Corolario 4.3.4. Sea T : V → V una transformación lineal de un K-espacio de


dimensión finita. VT es cı́clico si, y sólo si, pT (x) = qT (x).

Demostración. La condición necesaria la vimos en la proposición 4.1.8. Supongamos


entonces que pT (x) = qT (x). Según (4.3.3), VT tiene un solo factor invariante, luego
por (4.3.1) VT es cı́clico.

Ejemplo 4.3.5. En este ejemplo mostramos un procedimiento manual sencillo para


calcular los factores invariantes de una matriz, y en consecuencia, su forma canónica
racional. El método sin embargo no es eficiente para matrices de dimensiones supe-
riores. Calculemos entonces los factores invariantes de la matriz
 
3 −4 −4
A =  −1 3 2 .
2 −4 −3

Notemos en primer lugar que si q(x) = q0 + q1 x + · · · + qn−1 xn−1 + xn y A es la


matriz compañera de p(x) entonces
 
q(x) 0
 1 
(xE − A) ∼  .
 
 . .. 
0 1

En efecto, vimos en la prueba de la proposición 4.1.8 que


 
0 0 · · · 0 q0 + q1 x + · · · + qn−1 xn−1 + xn
−1 0 · · · 0
 q1 + q2 x + · · · + xn−1 

 0 −1 · · · 0 n−2
q 2 + q 3 x + · · · + n 
(xE − A) ∼  .. ,
 
.. .. .. ..
 . . . . . 
2
 
0 0 ··· 0 qn−2 + qn−1 x + x 
0 0 · · · −1 x + qn−1

luego
   
0 0 ··· 0 q(x) q(x) 0
−1 0 ··· 0 0   1 
(xE − A) ∼  .. ..  ∼  .
   
.. .. .. . .
 . . . . .   . 
0 0 ··· −1 0 0 1
4.3. FORMA CANÓNICA RACIONAL 91

Por otra parte, si q1 (x), . . . , qm (x) son los factores invariantes de A, entonces

 
q1 (x) 0
 ... 
 
qm (x)
 
(xE − A) ∼  .
 
 1 

 . .. 

0 1

En efecto, dado que toda matriz es racionalizable, existe una matriz invertible C tal
que
 
A1 0
C −1 AC = 
 ... ,

0 Am

donde Ai es la compañera de qi (x), 1 ≤ i ≤ m. Entonces,

 
xE − A1 0
C −1 (xE − A)C = 
 ... ,

0 xE − Am

 
qi (x) 0
 1 
pero por lo que acabamos de ver, (xE − Ai ) ∼  , de modo que
 
 . . . 
0 1

 
q1 (x) 0
..

 . 

qm (x)
 
(xE − A) ∼  .
 
 1 

 . .. 

0 1
92 CAPÍTULO 4. FORMAS CANÓNICAS

Con el soporte teórico anterior podemos resolver el ejercicio planteado:


   
x−3 4 4 1 x − 3 −2
(xE − A) =  1 x − 3 −2  ∼ x − 3 4 4 
−2 4 x+3 −2 4 x+3
   
1 x−3 −2 1 0 0
∼ 0 −(x − 5)(x − 1) 2(x − 1) ∼ 0 −(x − 5)(x − 1) 2(x − 1)
0 2(x − 1) x−1 0 2(x − 1) x−1
   
1 0 0 1 0 0
∼ 0 −(x − 1)2 0  ∼ 0 −(x − 1)2 0 
0 2(x − 1) x − 1 0 0 x−1
 
x−1 0 0
∼ 0 −(x − 1)2 0 ,
0 0 1

entonces pA (x) = (x − 1)3 , qA (x) = (x − 1)2 y los factores invariantes de A son


x − 1,(x − 1)2 . Finalmente podemos calcular la forma racional de A:
 
1 0 0
0 0 −1.
0 1 2

4.4. Forma canónica de Jordan


Presentamos en esta sección otra forma canónica importante para transformaciones
lineales y matrices.
Definición 4.4.1. Sea a ∈ K, la matriz cuadrada de orden k ≥ 1
 
a 0 ··· 0 0
1 a · · · 0 0
Ja,k :=  .. .. .. ..
 
.. 
. . . . .
0 0 ··· 1 a

se denomina bloque elemental de Jordan de orden k perteneciente a a. La


matriz diagonal de m ≥ 1 bloques
 
J1 0
Ja := 
 .. ,

.
0 Jm

donde cada Jj es un bloque elemental de Jordan perteneciente a a y tal que


4.4. FORMA CANÓNICA DE JORDAN 93

orden J1 ≤ orden J2 ≤ · · · ≤ orden Jm

se denomina bloque de Jordan perteneciente a a.


Sean a1 , . . . , ar elementos diferentes de K. La matriz diagonal de r bloques de Jor-
dan, r ≥ 1,
 
Ja1 0
J := 
 ... ,

0 Jar

con Jai perteneciente a ai se denomina matriz diagonal en bloques de Jordan


pertenecientes a a1 , . . . , ar . Una transformación lineal T : V → V de un K-
espacio de dimensión finita se dice diagonalizable en bloques de Jordan si
existe una base X en V tal que mX (T ) es una matriz diagonal en bloques de Jordan.
Una matriz cuadrada se dice diagonalizable en bloques de Jordan si es similar
a una matriz diagonal en bloques de Jordan.

Corolario 4.4.2. Sea T : V → V una transformación lineal sobre un K-espacio V


de dimensión finita. Entonces, para cada base X de V se cumple: T es diagonalizable
en bloques de Jordan si, y sólo si, mX (T ) es diagonalizable en bloques de Jordan.

Demostración. Dado que matrices similares representan la misma transformación


lineal se tiene entonces la afirmación de la proposición.

Ya se demostró que toda transformación T de un espacio vectorial finito dimen-


sional es reducible a la forma canónica clásica, o equivalentemente, que toda matriz
cuadrada es similar a una matriz canónica clásica. Se probaron resultados análogos
para la forma canónica racional. Mostraremos en seguida que para cuerpos alge-
braicamente cerrados, toda transformación lineal (= toda matriz cuadrada) sobre
un espacio finito dimensional es diagonalizable en bloques de Jordan.

Definición 4.4.3. Una transformación lineal T es nilpotente si existe s ≥ 1 tal


que T s = 0. El menor natural s con esta propiedad se llama ı́ndice de nilpotencia
de T .

Proposición 4.4.4. Sea T : V → V una transformación nilpotente de un K-espacio


V de dimensión finita n ≥ 1 con ı́ndice de nilpotencia s ≥ 1. Entonces existe una
base Y en V tal que
 
C1 0
mY (T ) = 
 .. ,

.
0 Cm
94 CAPÍTULO 4. FORMAS CANÓNICAS

con
 
0 0 ··· 0 0
1 0 · · · 0 0
Cj :=  .. .. .. .. ..  , de tamaño sj × sj , (4.4.1)
 
. . . . .
0 0 ··· 1 0

s1 + · · · + sm = n, 1 ≤ s1 ≤ s2 ≤ · · · ≤ sm , sm = s, qT (x) = xs , m = número de
factores invariantes de T y además m = dim(ker(T )).

Demostración. Sean q1 (x), . . . , qm (x) los factores invariantes de T . Según (4.3.3),


qT (x) = qm (x); sea s := ı́ndice de nilpotencia de T , entonces qm (x) = xs , de donde
qj (x) = xsj con 1 ≤ s1 ≤ s2 ≤ · · · ≤ sm = s. Nótese que la matriz compañera
de qj (x) es efectivamente (4.4.1). Según (4.3.3), n = gr(pT (x)) = s1 + · · · + sm .
Aplicamos entonces (4.3.2).
Veamos la prueba de la última afirmación de la proposición, es decir,

m = dim(ker(T )).
Según (4.3.1), VT tiene la descomposición en suma de K[x]-subespacios cı́clicos

VT = hw1 i ⊕ · · · ⊕ hwm i, con hwj i ∼


= K[x]/hxsj i.
La idea es probar que {T s1 −1 (w1 ), . . . , T sm −1 (wm )} es una base de ker(T ). Si w ∈
ker(T ), entonces w = u1 + · · · + um , donde uj es un elemento de hwj i, 1 ≤ j ≤ m.
Entonces,

w = g1 (T )(w1 ) + · · · + gm (T )(wm ),
donde el grado de gj (x) se puede tomar inferior a sj . Se tiene que T (w) = 0, pero
como la suma es directa, se concluye que gj (T )T (wj ) = 0. Esto implica que xsj
divide a gj (x)x, pero por la escogencia del grado de gj (x) se tiene que gj (x)x =
bj xsj , bj ∈ K. Por lo tanto, gj (x) = bj xsj −1 , y en consecuencia,

w = b1 T s1 −1 (w1 ) + · · · + bt T st −1 (wm ).
La independencia lineal se obtiene de la suma directa y de que hxsj i = AnnK[x] (wj ).

Teorema 4.4.5. Sea T : V → V una transformación lineal de un K-espacio de


dimensión finita n ≥ 1. Supóngase que pT (x) se descompone completamente en K[x]
en producto de factores lineales (esto ocurre por ejemplo si K es algebraicamente
cerrado). Entonces, T es diagonalizable en bloques de Jordan de manera única, salvo
el orden de disposición de los bloques.
4.4. FORMA CANÓNICA DE JORDAN 95

Demostración. Sea
pT (x) := (x − a1 )n1 · · · (x − ar )nr ,
con a1 , . . . , ar elementos diferentes de K, 1 ≤ nj ≤ n, 1 ≤ j ≤ r. Según (4.3.3),
pT (x) y qT (x) tienen los mismos factores irreducibles (aunque no necesariamente con
la misma multiplicidad). Entonces
qT (x) = (x − a1 )k1 · · · (x − ar )kr , 1 ≤ kj ≤ n j .
Sean Vj y Tj como se definieron en (4.1.8) y en el lema 4.1.11. Para cada 1 ≤ j ≤ r
consideremos la transformación lineal
Tj0 := Tj − aj iVj : Vj → Vj .
Por el lema 4.1.11, el polinomio mı́nimo de Tj es (x − aj )kj , luego Tj0 es nilpotente
de ı́ndice kj . De acuerdo con la proposición 4.4.4, para cada 1 ≤ j ≤ r existe una
base Yj en Vj tal que  
Cj1 0
mYj (Tj0 ) = 
 .. ,

.
0 Cjmj
con cada bloque como en (4.4.1) y de orden sji . Nótese que sjmj = kj , mj = número
de factores invariantes de Tj0 , y tal como vimos en la la proposición 4.4.4,
mj = dim(ker(Tj0 )) = dim(ker(Tj − aj iVj )) = dim(ker(T − aj iV )). (4.4.2)
En efecto, la última igualdad se tiene ya que ker(Tj − aj iVj ) = ker(T − aj iV ) (véase
S Además, 1 ≤ sj1 ≤ sj2 ≤ · · · ≤ sjmj , sj1 + · · · + sjmj = nj .
el lema 4.1.11, parte (ii)).
Según (4.1.7), si Y := Yj entonces
 
mY1 (T1 ) 0
mY (T ) = 
 .. .

.
0 mYr (Tr )

Pero mYj (Tj ) = mYj (Tj0 ) + mYj (aj iVj ) y ası́ mYj (Tj ) es un bloque de Jordan perte-
neciente a aj :
  
aj
 1 . . . bloque elemental de orden sj1
  
 
 

 1 aj 

mYj (Tj ) = 
 . . .

.  


 aj 

bloque elemental de orden sjmj  1
 . . 
.
 
 
1 aj
96 CAPÍTULO 4. FORMAS CANÓNICAS

Nótese que en la forma canónica de Jordan aparecen sólo ceros, unos y las raı́ces del
polinomio caracterı́stico. La unicidad de estas últimas, la unicidad de las compo-
nentes primarias en (4.1.7) y la unicidad de los factores invariantes, determinan la
unicidad de la estructura de los bloques de Jordan, salvo el orden de disposición.
Corolario 4.4.6. Sea K un cuerpo algebraicamente cerrado. Dos matrices cuadra-
das son similares si, y sólo si, tienen la misma forma canónica de Jordan.
Demostración. Sean A, B ∈ Mn (K) similares, A ≈ J1 y B ≈ J2 con J1 y J2
matrices diagonales en bloques de Jordan. Por transitividad J1 ≈ J2 . Puesto que
matrices similares representan la misma transformación lineal, se sigue, por la uni-
cidad expuesta en el teorema 4.4.5 que J1 = J2 (salvo el orden de los bloques).
Recı́procamente, si A ≈ J ≈ B entonces A ≈ B.
Ejemplo 4.4.7. En este ejemplo mostramos una matriz invertible C tal que C −1 AC
es una matriz de Jordan, con
 
4 1 1 1
 −1 2 −1 −1 
A= .
 6 1 −1 1 
−6 −1 4 2

Consideramos a la matriz A como una transformación lineal de R4 en R4 en la


base canónica. Determinemos en primer lugar el polinomio caracterı́stico y el poli-
nomio mı́nimo de A : pA (x) = (x + 2)(x − 3)3 , qA (x) = (x + 2)(x − 3)2 . De
acuerdo con la prueba del teorema 4.4.5, el número de bloques de Jordan es 2,
uno correspondiente al valor −2 y otro correspondiente a 3. Además se tiene que
R4 = V1 ⊕ V2 , con V1 = ker(A + 2E) = h(0, 0, −1, 1)i y V2 = ker[(A − 3E)2 ] =
h(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)i. Según la proposición 4.4.4, el número de bloques
elementales de Jordan correspondiente a −2 viene dado por dim(ker(A + 2E)) y el
número correspondiente a 3 es dim(ker(A−3E)). Pero ker(A+2E) = h(0, 0, −1, 1)i y
ker(A−3E) = h(0, −1, 0, 1) , (1, −2, 1, 0)i, luego dim(ker(A+2E)) = 1 y dim(ker(A−
3E)) = 2. Para el valor 3 se tiene que el tamaño del segundo bloque elemental de
Jordan viene dado por la multiplicidad de 3 en el polinomio mı́nimo, que en este
caso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A:
 
−2 0 0 0
 0 3 0 0 
J =  0 0 3 0 .

0 0 1 3
Para calcular la matriz C debemos encontrar bases X1 en V1 y X2 en V2 de tal
forma que C es la matriz de cambio de la base canónica de R4 a la base X =
X1 ∪ X2 . Consideremos las transformaciones A01 := A + 2E : V1 → V1 y A02 :=
4.5. FORMA CANÓNICA DIAGONAL: VALORES Y VECTORES PROPIOS 97

A − 3E : V2 → V2 . Nótese que A01 es nilpotente de ı́ndice 1 y A02 es nilpotente


de ı́ndice 2. Según la prueba de la proposición 4.4.4, debemos descomponer V1 y
V2 en suma directa de subespacios cı́clicos. Tal como vimos arriba, el número de
sumandos cı́clicos de V1 es 1 = dim(ker(A + 2E)) y coincide con el número de
factores invariantes de A01 ; de igual manera, el número de sumandos cı́clicos de V2 es
2 = dim(ker(A − 3E)) y coincide con el número de factores invariantes de A02 . Pero
V1 = h(0, 0, −1, 1)i, entonces la descomposición cı́clica de V1 es trivial: V1 = hv1 i
con v1 := (0, 0, −1, 1), y en consecuencia, X1 = {(0, 0, −1, 1)}. Para V2 los factores
invariantes de A02 son x y x2 . Necesitamos dos vectores v2 , v3 ∈ V2 de tal forma que
V2 = hv2 i ⊕ hv3 i, donde el polinomio anulador de v2 es x y el polinomio anulador
de v2 sea x2 . La base buscada en V2 es pues X2 = {v2 , v3 , A02 v3 }. Resulta entonces
que x · v2 = 0, es decir, A02 v2 = 0, con lo cual v2 ∈ ker(A02 ) = ker(A − 3E), luego
podemos tomar por ejemplo v2 = (0, −1, 0, 1). Nótese que en calidad de v3 podemos
tomar a (0, 0, 0, 1) de tal forma que A02 (v3 ) = (1, −1, 1, −1). Se tiene entonces que
X2 := {(0, −1, 0, 1) , (0, 0, 0, 1) , (1, −1, 1, −1)} es una base de V2 . La matriz C es
pues
   
0 0 0 1 1 0 −1 0
 0 −1 0 −1  −1  −1 −1 0 0 
C=
 −1
,C =  ,
0 0 1   1 1 1 1 
1 1 1 −1 1 0 0 0
 
−2 0 0 0
 0 3 0 0 
C −1 AC = 
 0
.
0 3 0 
0 0 1 3

4.5. Forma canónica diagonal: valores y vectores


propios
Estudiaremos ahora la forma canónica más sencilla, pero a su vez muy exigente,
para una transformación lineal o matriz: la forma diagonal. Al igual que en la for-
ma canónica de Jordan, la diagonalización requiere que el polinomio mı́nimo tenga
un aspecto especial, razón por la cual no todo operador lineal (matriz) ha de ser
diagonalizable.

Definición 4.5.1. Sea T : V → V una transformación lineal de un espacio V de


dimensión finita n ≥ 1. Se dice que T es diagonalizable si existe una base X en
V tal que mX (T ) es una matriz diagonal. Una matriz A de orden n ≥ 1 se dice que
es diagonalizable si A es similar a una matriz diagonal.
98 CAPÍTULO 4. FORMAS CANÓNICAS

Corolario 4.5.2. Sea T : V → V una transformación lineal de un espacio V de


dimensión finita n ≥ 1 y sea X una base cualquiera de V . Entonces, T es diagona-
lizable si, y sólo si, mX (T ) es diagonalizable.
Demostración. Teniendo en cuenta que matrices que representen la misma transfor-
mación lineal son similares, se tiene el resultado.
Teorema 4.5.3. Sea T : V → V una transformación lineal de un espacio V de
dimensión finita n ≥ 1. T es diagonalizable si, y sólo si, el polinomio mı́nimo de T
es de la forma
qT (x) = (x − a1 ) · · · (x − ar ), aj ∈ K, 1 ≤ j ≤ r. (4.5.1)
Demostración. ⇒): Sea X una base de V tal que la matriz de T es diagonal, digamos,
 
a1 · · · 0
mX (T ) =  ... . . . ...  .
 
0 · · · an
Nótese que mX (T ) es la forma canónica de Jordan de T ; además, el polinomio
caracterı́stico de T es pT (x) = (x − a1 )n1 · · · (x − ar )nr , con a1 , . . . , ar los diferentes
escalares en la diagonal de mX (T ) y nj la multiplicidad de aj , 1 ≤ j ≤ r. Luego el
polinomio mı́nimo de T es de la forma qT (x) = (x−a1 )k1 · · · (x−ar )kr , con kj ≥ 1. Si
para algún j, kj ≥ 2, entonces en la forma de Jordan de T aparecerı́an unos debajo
de la diagonal, por lo tanto kj = 1 para cada j.
⇐): Si qT (x) es como en (4.5.1), entonces la notación y demostración del teorema
4.4.5 indican que cada sjmj = 1, pero esto significa que la matriz de Jordan de T es
diagonal, es decir, T es diagonalizable.
En la sección anterior nos encontramos con el cálculo del núcleo de operadores
de la forma T − a · iV , con T : V → V una transformación lineal y a ∈ K un escalar,
ası́ pues, los elementos de este núcleo son vectores v ∈ V tales que T (v) = a · v.
Tales vectores ocupan un lugar destacado en álgebra lineal clásica y los definiremos a
continuación. A través de los valores y vectores propios podemos también presentar
otros criterios de diagonalización de operadores lineales.
Definición 4.5.4. Sea T : V → V una transformación de un K-espacio V ; un
escalar a ∈ K se dice que es un valor propio de T si existe un vector no nulo
v ∈ V tal que T (v) = a · v. En tal caso se dice que v es un vector propio de T
perteneciente al valor propio a.
Nótese que un vector propio solo puede pertenecer a un solo valor propio.
Ejemplo 4.5.5. Para la transformación lineal T : R2 → R2 definida por T [x, y]T :=
[2x, 3y]T , a = 2 es un valor propio con vector propio [6, 0]T ; a = 3 es también un
valor propio de T con vector propio [0, −2]T .
4.5. FORMA CANÓNICA DIAGONAL: VALORES Y VECTORES PROPIOS 99

Sea a ∈ K, el conjunto

E(a) := {v ∈ V |T (v) = a · v}

es un subespacio de V ; nótese que E(a) 6= 0 si, y sólo si, a es un valor propio de T .

Definición 4.5.6. E(a) se denomina el espacio propio de T correspondiente al


valor propio a.

Las definiciones de vector propio, valor propio y espacio propio aplican para
espacios vectoriales arbitrarios, no necesariamente de dimensión finita.

Ejemplo 4.5.7. Sea D el operador derivación definido sobre el espacio de funciones


reales cuyas derivadas de cualquier orden existen, y sea a ∈ R, entonces E(a) =
{ceax |c ∈ R}.

Ejemplo 4.5.8. Existen transformaciones lineales sin valores propios, es decir,


E(a) = 0, para cada a ∈ K. En efecto, la transformación T : R2 → R2 definida
por

T [x, y]T = [y, −x]T

no tiene valores propios.

Proposición 4.5.9. Sea T : V → V una transformación lineal de un espacio V .


Sean a1 , . . . , ar valores propios diferentes con vectores propios v1 , . . . , vr , respectiva-
mente. Entonces v1 , . . . , vr son l.i. En particular, si V es de dimensión finita n ≥ 1,
entonces T tiene a lo sumo n valores propios diferentes. Si T tiene exactamente n
valores propios diferentes, entonces {v1 , . . . , vn } es una base de V .

Demostración. La prueba de la primera afirmación se realiza por inducción. Las


otras dos afirmaciones son consecuencia directa de la primera.
n = 1: Si a es un valor propio y v 6= 0 es un vector propio asociado al valor a,
entonces {v} es l.i. Supóngase que la afirmación ha sido probada para n − 1 valores
propios diferentes. Sean a1 , . . . , an valores propios diferentes para T con vectores
propios v1 , . . . , vn . Sean b1 , . . . , bn escalares tales que b1 · v1 + · · · + bn · vn = 0.
Aplicando T y multiplicando por an se pueden restar las dos relaciones y obtener
que
(b1 a1 − b1 an ) · v1 + · · · + (bn−1 an−1 − bn−1 an ) · vn−1 = 0
Aplicando inducción resulta entonces que b1 = · · · = bn−1 = 0, de donde bn = 0.
Esto prueba que los vectores v1 , . . . , vn son l.i.
El recı́proco de la proposición anterior no es siempre cierto, por ejemplo, si T = iV
cualquier base de V pertenece a 1 que es el único valor propio de iV .
100 CAPÍTULO 4. FORMAS CANÓNICAS

Ejemplo 4.5.10. Sea K[x] el conjunto de polinomios con coeficientes en el cuerpo


K, y sea T : V → V una transformación lineal. Entonces para cada polinomio p(x) ∈
K[x] se tiene que si a ∈ K es un valor propio de T con vector propio v, entonces
p(a) es un valor propio de p(T ) con vector propio v. En tal caso, E(a) ⊆ ker(p(T ))
si a es raı́z de p(x), y E(a) ⊆ Im(p(T )) si a no es raı́z de p(x).
El polinomio caracterı́stico es un instrumento para determinar los valores propios
de una transformación lineal.
Proposición 4.5.11. Sea T : V → V una transformación lineal de un espacio V
de dimensión finita n ≥ 1 y sea a ∈ K. Entonces, a es un valor propio de T si, y
sólo si, pT (a) = 0.
Demostración. ⇒): Sea v un vector propio de a, entonces, T (v) = a · v, luego
(T − a · iV )(v) = 0, es decir, T − a · iV no es una transformación inyectiva. Esto
implica que si X es una base cualquiera que fijamos en V , entonces mX (T − a · iV )
tiene determinante igual a cero, es decir, det(A−aE) = 0, donde A es la matriz de T
en la base X. Por lo tanto, pA (a) = 0, es decir, a es raı́z del polinomio caracterı́stico
de A, o sea del polinomio caracterı́stico de T .
⇐): Si a es raı́z de pT (x), entonces a es raı́z de pA (x). Por lo tanto, det(A −
aE) = 0, luego mX (T − a · iV ) no es invertible. Esto garantiza que T − a · iV no es
invertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V tal que
(T − a · iV )(v) = 0, es decir, T (v) = a · v. Esto quiere decir que v es vector propio
con valor propia a.
Este resultado es válido para valores a ∈ K, podrı́a ocurrir que las raı́ces del
polinomio caracterı́stico no pertenezcan al cuerpo K, por ejemplo, en el caso en
que K sea el cuerpo de números reales y todas las raı́ces de pT (x) sean complejas,
entonces no tendrı́amos valores propios. Esta situación no se presenta por supuesto
en cuerpos algebraicamente cerrados.
Corolario 4.5.12. Sea K un cuerpo algebraicamente cerrado y sea T : V → V
una transformación lineal de un K-espacio V de dimensión finita n ≥ 1, Entonces,
T tiene n valores propios (no necesariamente diferentes) correspondientes a las n
raı́ces de su polinomio caracterı́stico.
No sobra reformular las nociones de valores y vectores propios para matrices. Sea
A una matriz cuadrada de orden n ≥ 1, un elemento a ∈ K se dice que es un valor
propio de A si existe una matriz columna no nula u = (u1 , . . . , un )T ∈ K n tal que
Au = a · u . La teorı́a de valores y vectores propios para matrices está relacionada
de manera obvia con la correspondiente teorı́a para transformaciones lineales.
Definición 4.5.13. Sea A ∈ Mn (K) una matriz cuadrada de orden n ≥ 1, un
elemento a ∈ K se dice que es un valor propio de A si existe vector no nulo
4.5. FORMA CANÓNICA DIAGONAL: VALORES Y VECTORES PROPIOS 101

u := [u1 , . . . , un ]T ∈ K n tal que Au = a · u. Se dice u es un vector propio de A


correspondiente al valor propio a.
La teorı́a de valores y vectores propios para matrices está relacionada de manera
obvia con la correspondiente teorı́a para transformaciones lineales.
Corolario 4.5.14. Sea T : V → V una transformación lineal de un K-espacio V
de dimensión finita n ≥ 1. Sean X := {v1 , . . . , vn } una base de V , A := mX (T ) y
a ∈ K. Entonces, a es un valor propio de T si, y sólo si, a es un valor propio de A.
Más exactamente, v = u1 · v1 + · · · + un · vn es un vector propio de T perteneciente
al valor propio a si, y sólo si, [u1 , . . . , un ]T es un vector propio de A perteneciente
al valor propio a.
Teorema 4.5.15. Sea T : V → V una transformación lineal de un espacio V de
dimensión finita n ≥ 1. T es diagonalizable si, y sólo si, V tiene una base constituida
por vectores propios.
Demostración. ⇒): Existe una base X := {x1 , . . . , xn } en V tal que mX (T ) es
diagonal, digamos
 
d1 ··· 0
mX (T ) = 
 .. 
. 
0 · · · dn
Esto indica que T (x1 ) = d1 ·x1 , . . . , T (xn ) = dn ·xn . Puesto que los vectores x1 , . . . , xn
son no nulos, entonces estos vectores son propios.
⇐): Sea X = {x1 , . . . , xn } una base de vectores propios. Entonces, existen es-
calares d1 , . . . , dn en K tales que T (x1 ) = d1 · x1 , . . . , T (xn ) = dn xn . Nótese que
entonces la matriz de T es la base X es diagonal, y sus elementos diagonales son
precisamente d1 , . . . , dn .
Sea A ∈ Mn (K) una matriz diagonalizable. Entonces existe una matriz invertible
C tal que C −1 AC = D, donde D es una matriz diagonal. La demostración del
teorema anterior nos da una manera de encontrar la matriz diagonalizante C. En
efecto, sea Y la base canónica de K n , entonces sabemos que A es la matriz de una
transformación T : K n → K n , A = mY (T ). Como A es diagonalizable entonces
T es diagonalizable. Según la demostración del teorema anterior, existe una base
X = {x1 , . . . , xn } en K n de vectores propios de T de tal forma que mX (T ) = D,
donde D es una matriz diagonal. Entonces, D = mX (T ) = C −1 mY (T )C, donde C
es la matriz de cambio de la base Y a la base X. Es decir, la i-ésima columna de C
son los coeficientes de la expansión del i-ésimo vector xi a través de la base canónica
Y , es decir, las coordenadas del vector columna xi . En otras palabras, las columnas
de C son los vectores columna x1 , . . . , xn (nótese que según el corolario 4.5.14, cada
vector columna xi es un vector propio de A).
102 CAPÍTULO 4. FORMAS CANÓNICAS

Corolario 4.5.16. Sea A una matriz cuadrada de orden n ≥ 1. Entonces,


(i) A es diagonalizable si y sólo si, A tiene n vectores propios l.i.

(ii) Si A tiene n valores propios diferentes, entonces A es diagonalizable.


Demostración. Consecuencia inmediata de los resultados precedentes.
Proposición 4.5.17. Sea T : V → V una transformación lineal de un espacio V
de dimensión finita n ≥ 1. Sean a1 , . . . , ar los valores propios diferentes para T ,
1 ≤ r ≤ n, y E(a1 ), . . . , E(ar ) los subespacios propios correspondientes. Entonces,
la suma E(a1 ) + · · · + E(ar ) es directa. En consecuencia,
dim(E(a1 ) ⊕ · · · ⊕ E(ar )) = dim(E(a1 )) + · · · + dim(E(ar )).
Demostración. Sean u1 ∈ E(a1 ), . . . , ur ∈ E(ar ) tales que u1 + · · · + ur = 0,
supóngase que alguno de estos sumandos es no nulo, y entre ellos sean u1 , . . . , us , 1 ≤
s ≤ r los no nulos. Como u1 , . . . , us son vectores propios correspondientes a valores
propios diferentes, entonces son l.i., pero esto contradice la condición u1 +· · ·+us = 0.
Por lo tanto, ui = 0, para cada 1 ≤ i ≤ r.
Podemos probar ahora un criterio de diagonalización en términos del polinomio
caracterı́stico y de los espacios propios.
Teorema 4.5.18. Sea T : V → V una transformación lineal de un espacio V
de dimensión finita n ≥ 1. Sean a1 , . . . , ar los valores propios diferentes para T ,
1 ≤ r ≤ n, y E(a1 ), . . . , E(ar ) los subespacios propios correspondientes. Entonces,
las siguientes condiciones son equivalentes:
(i) T es diagonalizable.

(ii) El polinomio caracterı́stico de T es de la forma

pT (x) = (x − a1 )n1 . . . (x − ar )nr ,

donde ni = dim(E(ai )), 1 ≤ i ≤ r.

(iii) dim(V ) = dim(E(a1 )) + . . . + dim(E(ar )).

(iv) V = E(a1 ) ⊕ . . . ⊕ E(ar ).


Demostración. (i) ⇒ (ii): por el teorema 4.5.15, V tiene una base X = {v1 , . . . , vn }
constituida por vectores propios. Se ordena esta base de tal manera que los primeros
n1 vectores correspondan al valor propio a1 , los siguientes n2 vectores correspondan
al valor a2 y ası́ sucesivamente. Entonces claramente la matriz de T en esta base
toma la forma
4.5. FORMA CANÓNICA DIAGONAL: VALORES Y VECTORES PROPIOS 103

 
a1 E · · · 0
mX (T ) =  ... .. ..  ,

. . 
0 · · · ar E
donde ai E es una matriz diagonal de orden ni ,
 
ai · · · 0
 .. . . ..  ,
ai E =  . . . 
0 · · · ai
1 ≤ i ≤ r. El polinomio caracterı́stico de T es pT (x) = (x − a1 )n1 · · · (x − ar )nr .
Se verá ahora que ni = dim(E(ai )). Puesto que gr(pT (x)) = n, entonces n =
n1 + · · · + nr . Por la forma como se ha organizado la base X, se tiene que V = hXi ⊆
E(a1 ) + · · · + E(ar ), es decir, V = E(a1 ) + · · · + E(ar ), luego por la proposición
4.5.17, n = dim(E(a1 )) + · · · + dim(E(ar )). Se sabe que ni ≤ dim(E(ai )), para cada
1 ≤ i ≤ r, supóngase que existe i tal que ni < dim(E(ai )), entonces
n = n1 + · · · + nr < dim(E(a1 )) + · · · + dim(E(ar )) = n.
Esto indica que ni = dim(E(ai )) para cada 1 ≤ i ≤ r.
(ii) ⇒ (iii): dim(V ) = n = n1 + · · · + nr = dim(E(a1 )) + · · · + dim(E(ar )).
(iii) ⇒ (iv): dim(V ) = dim(E(a1 ))+· · ·+dim(E(ar )) = dim(E(a1 )+· · ·+E(ar )),
de donde , V = E(a1 ) + · · · + (E(ar ), además, por la proposición 4.5.17, la suma es
directa, es decir, V = E(a1 ) ⊕ · · · ⊕ E(ar ).
(iv) ⇒ (i): Al reunir las bases de E(a1 ), . . . , E(ar ) se obtiene una base de V
constituida por vectores propios, lo cual, de acuerdo con el teorema 4.5.15, garantiza
que T es diagonalizable.

Ejemplo 4.5.19. (i) Sea K un cuerpo y sean T : U → U , F : V → V transforma-


ciones lineales de espacios vectoriales no nulos de dimensión finita. Sea a un valor
propio de T con vector propio u y sea b un valor propio de F con vector propio
v. Entonces, ab es un valor propio de T ⊗ F con vector propio u ⊗ v. En efecto,
(T ⊗ F )(u ⊗ v) = T (u) ⊗ F (v) = (a · u) ⊗ (b · v) = ab · (u ⊗ v). Según el corolario
3.1.6, u ⊗ v es no nulo.
En forma matricial, sean A ∈ Mn (K), B ∈ Mm (K) matrices, a un valor propio
de A con vector columna propio u y b un valor propio de B con vector columna
propio v. Entonces, u ⊗ v es un vector propio de A ⊗ B con valor propio ab.
(ii) Sean A ∈ Mn (K), B ∈ Mm (K) matrices diagonalizables, entonces A ⊗ B es
diagonalizable.

Ejemplo 4.5.20. En este ejemplo mostraremos una aplicación del producto tenso-
rial de matrices y de la forma canónica de Jordan. Sean A, B y C matrices complejas
de tamaños n × n, m × m y n × m respectivamente. Supóngase que para cada valor
104 CAPÍTULO 4. FORMAS CANÓNICAS

propio α de A y cada valor propio β de B se cumple que α + β 6= 0. Demostremos


entonces que la ecuación matricial AX + XB = C tiene solución única.
Solución. Consideremos el C-espacio de matrices rectangulares Mn×m (C), defi-
namos la función T por

T : Mn×m (C) → Mn×m (C)


X 7→ AX + XB.

Notemos que T es una transformación lineal. Para resolver el problema mostraremos


que T es biyectiva, con esto, dada C ∈ Mn×m (C) existe una única X ∈ Mn×m (C)
tal que AX + XB = C.
La prueba de la biyectividad de T la haremos a través de su matriz en la base
canónica X := {E11 , . . . , E1m ; . . . ; En1 , . . . , Enm } de Mn×m (C), es decir, probaremos
que mX (T ) es invertible. Notemos entonces que
   
a11 Em · · · a1n Em BT · · · 0
mX (T ) =  .. .. ..   .. .. ..  ,
+ .

. . . . . 
an1 Em · · · ann Em 0 · · · BT

donde Em es la idéntica de orden m y B T es la transpuesta de B. Pero,

 
a11 Em · · · a1n Em
.. .. ..
 = A ⊗ Em ,
 
 . . .
an1 Em · · · ann Em
 
BT ··· 0
 .. .. ..  = E ⊗ B T .
 . . .  n
T
0 B

De esta forma
mX (T ) = A ⊗ Em + En ⊗ B T .
Puesto que C es algebraicamente cerrado, existen matrices invertibles F y G de
tamaños n × n y m × m, respectivamente, tales que F −1 AF = J1 y G−1 B T G = J2
son matrices de Jordan. Notemos que en la diagonal de J1 y J2 están localizados
los valores propios α de A y β de B T , respectivamente (observemos que los valores
propios de B T son los mismos de B). Tenemos

J1 ⊗ Em = F −1 AF ⊗ Em = F −1 ⊗ Em (A ⊗ Em ) (F ⊗ Em ) ,
 

En ⊗ J2 = En ⊗ G−1 B T G = En ⊗ G−1 En ⊗ B T (En ⊗ G) ,


  
4.6. EJERCICIOS 105

donde además

F −1 ⊗ Em = (F ⊗ Em )−1


En ⊗ G−1 = (En ⊗ G)−1 .




De esta forma se tiene que

J1 ⊗ Em = (F ⊗ Em )−1 (A ⊗ Em ) (F ⊗ Em ) ,
En ⊗ J2 = (En ⊗ G)−1 En ⊗ B T (En ⊗ G) .


Resulta entonces que


(F ⊗ Em )−1 mX (T ) (F ⊗ Em ) = (F ⊗ Em )−1 (A ⊗ Em ) (F ⊗ Em )
+ (F ⊗ Em )−1 En ⊗ B T (F ⊗ Em )=
(J1 ⊗ Em ) + (F −1 ⊗ Em ) En ⊗ B T (F ⊗ Em ) =
(J1 ⊗ Em ) + En ⊗ B T .
Ahora, (En ⊗ G)−1 (F ⊗ Em )−1 mX (T ) (F ⊗ Em ) (En ⊗ G) =
−1 −1 T
(En ⊗ G) (J1 ⊗ Em ) (En ⊗ G) + (En ⊗ G) En ⊗ B (En ⊗ G) =
(J1 ⊗ Em ) + (En ⊗ J2 ). En total,

(En ⊗ G)−1 (F ⊗ Em )−1 mX (T ) (F ⊗ Em ) (En ⊗ G) = (J1 ⊗ Em ) + (En ⊗ J2 ) ,

es decir,
(F ⊗ G)−1 mX (T ) (F ⊗ G) = (J1 ⊗ Em ) + (En ⊗ J2 ) .
Notemos que la matriz (J1 ⊗ Em ) + (En ⊗ J2 ) es triangular inferior y en su diagonal
están las sumas de la forma α + β, las cuales por hipótesis son no nulas, es decir,
esta matriz es invertible, o sea que, mX (T ) es también invertible, y la prueba ha
terminado.

4.6. Ejercicios
1. Sea T : V → V una transformación lineal de un espacio K-espacio V de
dimensión finita n ≥ 1. Demuestre que T es invertible si, y sólo si, el término
independiente q0 del polinomio mı́nimo qT (x) es no nulo.

2. Determine la forma canónica de Jordan de la matriz:


 
0 0 1 0
 0
 0 0 −1  .
 1 0 0 0 
0 −1 0 0

3. Calcule la forma de Jordan de la matriz


106 CAPÍTULO 4. FORMAS CANÓNICAS

 
5 −10 10 −5 1

 1 0 0 0 0 


 0 1 0 0 0 
.
 0 0 1 0 0 
0 0 0 1 0

4. Sean T1 , T2 : V → V transformaciones diagonalizables de un espacio V de


dimensión finita n ≥ 1 tales que T1 T2 = T2 T1 . Demuestre que existe una base
X en V tal que mX (T1 ) y mX (T2 ) son diagonales.

5. Sea T : V → V una transformación lineal de un espacio K-espacio V de


dimensión finita n ≥ 1 tal que T tiene n valores propios diferentes. Calcule el
número de subespacios invariantes de T .

6. Sea A = [aij ] una matriz cuadrada de orden n ≥ 1 tal que su número de


entradas nulas es superior a n2 − n. Demuestre que el determinante de A es
igual a cero.

7. Sea A = [aij ] una matriz cuadrada invertible de orden n ≥ 1. Demuestre que

pA−1 (x) = (−x)n (det(A))−1 pA (x−1 ),

donde pA (x) denota el polinomio caracterı́stico de la matriz A.

8. Sea T : V −→ V una transformación lineal de un K-espacio de dimensión


finita n. Suponga que T es diagonalizable y que α1 , . . . αk son los distintos
valores propios de T , 1 ≤ k ≤ n. Demuestre que existen transformaciones
lineales T1 , . . . , Tk de V tales que:

(i) T = α1 T1 + · · · + αk Tk
(ii) IV = T1 + · · · + Tk
(iii) Ti Tj = 0, para i 6= j
(iv) Ti2 = Ti
(v) Ti (V ) = E(αi ), 1 ≤ i ≤ k.

Demuestre también el recı́proco de esta afirmación, es decir, si existen k es-


calares distintos α1 , . . . αk y k transformaciones lineales T1 , . . . , Tk de V , con
k ≤ n, que satisfacen (i)-(iii), entonces T es diagonalizable, α1 , . . . αk son los
valores propios distintos de T y (iv)-(v) también se cumplen.

9. Demuestre que cada matriz cuadrada compleja A es similar a su transpuesta


AT .
4.6. EJERCICIOS 107

10. Sea A una matriz cuadrada compleja de orden n ≥ 1 tal que existe un número
natural m para el cual se tiene que Am = E. Demuestre que A es diagonalizable
(E denota la matriz idéntica de tamaño n).

11. Sean S, T : V → V transformaciones tales que ST = T S. Demuestre que


ker(S) e Im(S) son subespacios T -invariantes.

12. Sea T : V → V una transformación lineal de un espacio V de dimensión finita.


Demuestre que existe un entero k tal que:
(a) Para j ≥ k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y además V = Im(T k ) ⊕
N (T k ).

13. Calcule, usando los resultados del presente capı́tulo, una matriz invertible C
tal que C −1 BC sea una matriz de Jordan, donde
 
7 1 2 2
 1 4 −1 −1 
 .
 −2 1 5 −1 
1 1 2 8

14. Sea T : C2 → C2 una transformación lineal con un solo valor propio λ. De-
muestre que T − λI es nilpotente.

15. Sea T : V → V una transformación lineal invertible en un espacio V complejo


de dimensión finita. Demuestre que existe una transformación S : V → V tal
que S 2 = T (sugerencia: use la forma canónica de Jordan). Se dice que S es la
raı́z cuadrada de T .

16. Encuentre la raı́z cuadrada de la siguiente matriz

 
2 −1 1
 −1 2 −1  .
−1 −1 2

17. Calcule la forma canónica racional de la transformación T : R3 → R3 definida


por T (x, y, z) = (4z, y − x + 2z, 3x − z).

18. Para la matriz real  


−1 −1 0 −8
 1 1 0 4 
A= 
 0 1 0 −5 
0 0 1 4
108 CAPÍTULO 4. FORMAS CANÓNICAS

determine:
(a) ¿A es diagonalizable?. En caso afirmativo, calcule una matriz diagonalizante.
(b) ¿A es diagonalizable en bloques?. En caso afirmativo calcule una matriz
que la convierta en matriz diagonal en bloques.
(c) La forma racional de A y una matriz racionalizante.
(d) ¿A es diagonalizable en bloques de Jordan?. En caso afirmativo calcule
una matriz que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.

19. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que la forma racional de A es la compañera del polinomio mı́nimo
de A (en consecuencia, la forma racional de A tiene un solo bloque racional).

20. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que A no es diagonalizable en bloques.

21. Determine si las siguientes matrices son diagonalizables. En caso afirmativo


calcule una matriz que diagonalice:
 
  1 1 2 3
0 −1 0  0 2 2 4 
A= 0 0 1 , B= .
 0 0 1 −2 
−1 −3 3
0 0 0 2

22. Determine los valores y vectores propios del operador derivación sobre el es-
pacio Rn [x]. ¿Es este operador diagonalizable?

23. Sea A una matriz de orden n ≥ 1 y p(x) un polinomio cualquiera. Demuestre


que si A es diagonalizable, entonces p(A) es diagonalizable.

24. Sea A = [aij ] una matriz de orden n ≥ 1 tal que nj=1 aij = 1 para cada
P
1 ≤ i ≤ n. Demuestre que 1 es un valor propio de A.
Capı́tulo 5

Grupos de matrices

Este capı́tulo está dedicado a estudiar grupos de matrices sobre anillos. Se asume
que el lector conoce la teorı́a clásica de formas bilineales y formas cuadráticas so-
bre cuerpos ya que aquı́ construiremos los llamados grupos clásicos sobre anillos,
generalizando dichas formas para anillos no conmutativos con involución. Además,
estudiaremos dos teoremas de Suslin relativos al grupo elemental sobre anillos con-
mutativos.

5.1. Grupos de matrices sobre cuerpos


En esta sección se enuncian las definiciones y algunas propiedades relativas a grupos
de matrices sobre cuerpos. Aunque algunos de estos grupos y resultados ya habı́an
sido presentados en capı́tulos anteriores los repertiremos para darle completez al
tema (véase también [5]).
Si V es un espacio vectorial sobre un cuerpo K, el conjunto de transformaciones
lineales biyectivas de V es un grupo con la composición de funciones, denominado
grupo lineal general , y se denota por GL(V ) (véase también la definición 1.1.22).
Cuando la dimensión del espacio es finita, dim(V ) = n ≥ 2, V se puede identificar
con K n y el grupo lineal depende únicamente del cuerpo y la dimensión; en este
caso GL(V ) ∼ = GLn (K). Ası́ pues, GLn (K) := Mn (K)∗ es el grupo de elementos
invertibles del anillo Mn (K) y se conoce como el grupo lineal general de orden
n sobre K
Una matriz F es invertible si, y sólo si, det(F ) 6= 0. Por lo tanto, el homomorfismo
de grupos det : GLn (K) → K ∗ es sobreyectivo y K ∗ es isomorfo al grupo cociente de
GLn (K) con núcleo constituido por las matrices de determinante uno. Este subgrupo
se denota SLn (K) y se denomina grupo especial lineal de orden n sobre K. En
general, podemos destacar en GLn (K) los siguientes subgrupos:

(i) SLn (K) es el subconjunto de GLn (K) constituido por las matrices de deter-

109
110 CAPÍTULO 5. GRUPOS DE MATRICES

minante 1, es decir,

SLn (K) := {F ∈ GLn (K) | det(F ) = 1},

y además SLn (K)  GLn (K).

(ii) Sea
   

 d 1 0 

Dn (K) := D(d1 , . . . , dn ) := 
 . ..  ∈ Mn (K) | d1 · · · dn 6= 0 .

 
 0 dn 

Entonces, Dn (K) ≤ GLn (K) y se conoce como el grupo de matrices dia-


gonales de orden n sobre K.

(iii) Sea
  
 f11 · · · f1n
 

. . .
.
Tn (K) :=  .  ∈ Mn (K) | f11 · · · fnn 6= 0, fij = 0 si i > j .
 
.

 0 fnn 

Entonces, Tn (K) ≤ GLn (K) y se denomina el grupo de matrices triangu-


lares superiores de orden n sobre K. Además, Dn (K) ≤ Tn (K).

(iv) Sea

U Tn (K) := {F ∈ Tn (K) | fii = 1, 1 ≤ i ≤ n}.

Entonces, U Tn (K) ≤ Tn (K) ∩ SLn (K) y se denomina el grupo de matrices


unitriangulares superiores de orden n sobre K.

(iv) Para 1 ≤ m ≤ n sea U Tnm (K) el conjunto de matrices unitriangulares F =


[fij ] ∈ U Tn (K) tales que fij = 0 para i < j < i + m, es decir, las primeras
m − 1 diagonales consecutivas por encima de la diagonal principal de F son
nulas. Entonces, U Tnm (K) ≤ U Tn (K), y además

U Tn (K) = U Tn1 (K) ⊇ U Tn2 (K) ⊇ · · · ⊇ U Tnn (K) = U Tnn+1 (K) =


U Tnn+2 (K) = · · · = {E}.

Usando la notación de la sección 1.4 se tienen las siguientes propiedades, donde


En (K) representa el grupo elemental de orden n sobre K definido como el sub-
grupo de GLn (K) generado por todas las matrices propiamente elementales, es decir,
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 111

En (K) := hTij (a)|1 ≤ i, j ≤ n, i 6= j, a ∈ Ki.

Proposición 5.1.1. Sea K un cuerpo. Entonces,

(i) GLn (K) se puede generar por matrices propiamente elementales y matrices
diagonales. En forma más precisa,

GLn (K) = hTij (a), Di (d)|1 ≤ i, j ≤ n, i 6= j, a ∈ K, 0 6= d ∈ Ki,


GLn (K) = SLn (K)Dn (K).

(ii) SLn (K) = En (K).

(iii) Dn (K) = hDi (di )|0 6= di ∈ K, 1 ≤ i ≤ ni.

(iv) Tn (K) = hTij (a), Di (d)|j > i, a ∈ K, 0 6= di ∈ K, 1 ≤ i, j ≤ ni.

(v) U Tn (K) = hTij (a)|j > i, a ∈ K, 1 ≤ i, j ≤ ni.

(vi) U Tnm (K) = hTij (a)|j − i ≥ m, a ∈ K, 1 ≤ i, j ≤ ni.

(vii)

Z(GLn (K)) = {a · E | a ∈ K ∗ },
Z(SLn (K)) = {a · E | a ∈ K, an = 1},
Z(Dn (K)) = Dn (K).

(viii)

Z(GLn (K)), si |K| ≥ 3,
Z(Tn (K)) = CGLn (K) (Tn (K)) =
{E, T1n (1)} ∼
= Z2 , si |K| = 2.

(ix) Si K es finito con |K| := q, entonces


Qn−1 n 1
Qn−1
|GLn (K)| = j=0 (q − q j ), |SLn (K)| = q−1 j=0 (q
n
− q j ).

(x)

[GLn (K), GLn (K)] = SLn (K) si n ≥ 3 ó n = 2 y |K| ≥ 3,


[GL2 (Z2 ), GL2 (Z2 )] ∼
= Z3 .
112 CAPÍTULO 5. GRUPOS DE MATRICES

[SLn (K), SLn (K)] = SLn (K) si n ≥ 3 ó n = 2 y |K| ≥ 4,


[SL2 (Z3 ), SL2 (Z3 )] ∼
= Q8 , [SL2 (Z2 ), SL2 (Z2 )] ∼
= Z3 .

(xi) Para 1 ≤ m ≤ n, U Tnm (K)  Tn (K) y además,

{E} = U Tnn (K)  U Tnn−1 (K) · · ·  U Tn1 (K) = U Tn (K)  Tn (K).

(xii) Si |K| ≥ 3, Dn (K) 5 GLn (K) y Dn (K) 5 Tn (K).

(xiii) Tn (K), U Tn (K) 5 GLn (K); U Tn (K) 5 SLn (K).

(xiv) Para 1 ≤ m ≤ n − 1, U Tnm (K) 5 GLn (K).

(xv)

[Dn (K), Dn (K)] = {E},


[Tn (K), Tn (K)] = U Tn (K) si |K| ≥ 3,
[Tn (Z2 ), Tn (Z2 )] = U Tn2 (Z2 ),
[U Tnr (K), U Tns (K)] = U Tnr+s (K), 1 ≤ r, s ≤ n.

(xvi) Tn (K)/U Tn (K) ∼


= Dn (K) ∼
=K ∗
· · × K}∗ .
| × ·{z
n-veces

(xvii) U T m (K)/U T m+1 (K) ∼


= |K × ·{z
· · × K}, 1 ≤ m ≤ n − 1.
n − m-veces

(xviii) Para n ≥ 3, SLn (K) y GLn (K) no son solubles. Para n = 2 y |K| ≥ 4,
SL2 (K) y GL2 (K) no son solubles.

(xix) SL2 (Z3 ), SL2 (Z2 ), GL2 (Z3 ) y GL2 (Z2 ) son solubles.

(xx) Dn (K), Tn (K) y U Tnm (K) son solubles, 1 ≤ m ≤ n.

Demostración. (i) (a) La prueba acerca del sistema de generadores de GLn (K) se
puede realizar por inducción sobre n.
n = 2: sea
 
a11 a12
A=
a21 a22
una matriz invertible. a11 y a12 no pueden ser simultáneamente nulos debido a que
el rango de A es dos. Considérense pues dos casos. Si a11 6= 0, entonces
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 113

 
1 b12
AD1 (a−1
11 ) = = B,
b21 b22
y
 
1 c12
T21 (−b21 )B = = C.
0 c22
También,
 
1 0
CT12 (−c12 ) = = F.
0 f22
En total, F = T21 (−b21 )AD1 (a−1
11 )T12 (−c12 ), y A se puede despejar como un producto
de matrices elementales y diagonales. Nótese que F = D2 (f22 ) es invertible ya que
es producto de invertibles. Si a12 6= 0 entonces se puede reducir esta situación a la
anterior multiplicando la matriz A a la derecha por la permutación P12 , y entonces A
nuevamente se puede expresar como un producto de propiamente elementales y dia-
gonales. Para completar la prueba del caso n = 2 veremos al final de la demostración
de esta parte (a) que cada permutación Pij se pueden expresar como producto de
propiamente elementales y diagonales.
Supóngase que el teorema ha sido probado para matrices de tamaño n × n y sea
A una matriz de tamaño (n + 1) × (n + 1). No es posible que todos los elementos de
la primera fila de A sean nulos; al igual que en el caso n = 2, multiplicando por una
matriz de permutación, se puede asumir que a11 6= 0. La matriz

B = AD1 (a−1
11 )

es tal que b11 = 1 y se puede multiplicar a derecha e izquierda por matrices propia-
mente elementales adecuadas hasta obtener una matriz invertible C de la forma
 
1 0
C= ,
0 A0

donde A0 es una matriz de orden n. Puesto que C es invertible, entonces el rango


de A0 es n, es decir, A0 es invertible. Por inducción, A0 se puede factorizar en
un producto de matrices propiamente elementales y diagonales de orden n: A0 =
F1 · · · Ft . La matriz C se puede entonces escribir en la forma:
     
1 0 1 0 1 0
C= = ··· .
0 F1 · · · Ft 0 F1 0 Ft

C queda entonces factorizada en un producto de matrices propiamente elementales


y diagonales de orden n + 1, de donde, A se expresa como un producto finito de
matrices propiamente elementales y diagonales de orden n + 1.
114 CAPÍTULO 5. GRUPOS DE MATRICES

Para concluir la demostración veamos que cada permutación Pij se puede facto-
rizar como producto de propiamente elementales y diagonales. Es suficiente consi-
derar el caso i < j ya que Pji = Pij :
Pij = Tij (1)Di (−1)Tji (1)Tij (−1).
(b) Es claro que SLn (K)Dn (K) ≤ GLn (K); para la otra inclusión, sabemos por
(a) que cada elemento de GLn (K) es producto de matrices propiamente elementales,
es decir, matrices de SLn (K), y matrices diagonales, pero como SLn (K)  GL( K),
entonces podemos disponer a la izquierda todas las propiamente elementales y a la
derecha las diagonales: en efecto, en un grupo arbitrario G, si tenemos dos subgrupos
S y D tales que S  G, entonces DS = SD: ds = dsd−1 d = s0 d, con d ∈ D, s, s0 ∈ S.
(ii) Veamos que el sistema de generadores de GLn (K) encontrado en (i) se puede
simplificar y considerar solo matrices diagonales de la forma Dn (c), con c ∈ K ∗ . En
efecto, sea i 6= n y c ∈ K ∗ , entonces
Di (c) = Pin Dn (c)Pin = Tin (1)Di (−1)Tni (1)Tin (−1)Dn (c)Tin (1)Di (−1)Tni (1)Tin (−1)
pero como vimos en la parte (b) de (i), podemos permutar Di (−1) con las matrices
propiamente elementales, y además con Dn (c), de tal forma que Di (−1)Di (−1) = E,
y ası́, en la factorización de Di (c) solo hay propiamente elementales y la matriz Dn (c).
De lo anterior se obtiene que SLn (K) = En (K): en efecto, es claro que En (K) ≤
SLn (K); si F ∈ SLn (K) ≤ GLn (K), entonces F es producto de matrices propia-
mente elementales y una matriz de la forma Dn (c), c ∈ K ∗ , pero como det(F ) = 1,
entonces c = 1 y de esta manera F ∈ En (K).
(iii) Evidente.
(iv) Sea F ∈ Tn (K); con los elementos diagonales de F podemos eliminar, por
medio de matrices propiamente elementales, todos los elementos no diagonales su-
periores de F .
(v) Consecuencia directa de (iv).
(vi) La prueba es como en (iv).
(vii) Sea F ∈ Z(GLn (K)), entonces F conmuta con cualquier matriz propiamente
elemental. Veamos que esto implica que A conmuta con cualquier matriz del anillo
Pnn(K). Puesto que cada matriz G ∈ Mn (K) se puede escribir en la forma G =
M
i,j gij Eij , basta probar que F conmuta con cualquier matriz gij Eij . Si i 6= j,
entonces gij Eij = Tij (gij ) − E; si i = j, entonces gii Eii = Tir (gii )Tri (1) − Tri (1) −
Tir (gii ), con i 6= r. Ası́ pues, F ∈ Z(Mn (K)) y F es invertible, pero el centro del
anillo Mn (K) consta de las matrices diagonales para las cuales todas las entradas
diagonales son iguales (véase [6]). Esto completa la demostración del cálculo del
centro del grupo GLn (K).
Veamos ahora la prueba para SLn (K). Sea F ∈ Z(SLn (K)), entonces F conmuta
con cada matriz propiamente elemental, luego por lo probado anteriomente, F ∈
Z(Mn (K)) ∩ SLn (K), es decir, F es de la forma F = a · E, con an = 1.
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 115

La última identidad se tiene ya que Dn (K) es abeliano.


(viii) (a) En primer lugar notemos que Z(Tn (K)) = CGLn (K) (Tn (K)): en efecto,
para cualquier grupo G y H ≤ G, se tiene que Z(G), Z(H) ≤ CG (H), donde CG (H)
es el centralizador de H en G definido por CG (H) := {g ∈ G|gh = hg, para cada h ∈
H} (véase [5]). Ası́ pues, Z(Tn (K)) ≤ CGLn (K) (Tn (K)). SeaP ahora F ∈ CGLn (K) (Tn (K));
entonces paraP cada j ≥ 2, F Tij (1) P = Tij (1)F , luegoP ( r,s frs Ers )(E + E1j ) =
(E + E1j )( r,s frs Ers ), y resulta F + r fr1 Erj = F + s fjs E1s , es decir,
   
0 · · · 0 f11 0 · · · 0 fj1 · · · fj,j−1 fjj fj,j+1 · · · fjn
.. ..
= .
   
 . .
0 · · · 0 fn1 0 · · · 0 0 ··· 0 0 0 ··· 0
Para j ≥ 2 y cada t 6= j se tiene que fjt = 0 y fjj = f11 . Por lo tanto
 
f11 f12 · · · f1n
 0 f11 · · · 0 
F =  ∈ Tn (K), (5.1.1)
 
..
 . 
0 0 ··· f11

luego F ∈ Z(Tn (K)).


(b) Veamos ahora que para |K| ≥ 3 se tiene que CGLn (K) (Tn (K)) = Z(GLn (K)):
ya vimos que Z(GLn (K)) ≤ CGLn (K) (Tn (K)); sea F ∈ CGLn (K) (Tn (K)), entonces
F es como en (5.1.1); F debe conmutar con cada matriz de Dn (K), luego F ∈
CGLn (K) (Dn (K)), pero veamos que para |K| ≥ 3, CGLn (K) (Dn (K)) = Dn (K). En
efecto, como Dn (K) es abeliano, entonces Dn (K) ≤ CGLn (K) (Dn (K)); sea G ∈
CGLn (K) (Dn (K)), entonces GD(1, . . . , z, . . . , 1) = D(1, . . . , z, . . . , 1)G, con z en la
posición j y z 6= 0, 1. Resulta gij z = gij para cada i 6= j, de donde gij (z − 1) = 0,
es decir, gij = 0 para cada i 6= j. Esto dice que G ∈ Dn (K), y en consecuencia,
F ∈ Dn (K), es decir, F = D(f11 , . . . , f11 ), con f11 6= 0. Según (vii), F ∈ Z(GLn (K)).
(c) Supongamos ahora que |K| = 2. Sea F ∈ F ∈ CGLn (K) (Tn (K)); tal como
vimos en (a),
 
1 f12 · · · f1n
0 1 · · · 0 
F = ,
 
 ... 
0 0 ··· 1
además para cada 2 ≤ k ≤ n − 1 se tiene que F Tk,k+1 (1) = Tk,k+1 (1)F , con lo cual
(E + f12 E12 + · · · + f1k E1k + · · · + f1n E1n )(E + Ek,k+1 ) =
| {z }
S
(E + Ek,k+1 )(E + f12 E12 + · · · + f1k E1k + · · · + f1n E1n ),
| {z }
S
116 CAPÍTULO 5. GRUPOS DE MATRICES

E + Ek,k+1 + S + f1k E1,k+1 = E + S + Ek,k+1 ,


de donde f1k = 0 para 2Q ≤ k ≤ n − 1. Esto dice que F = E ó F = T1n (1).
(ix) (a) |GLn (K)| = n−1 n j
j=0 (q − q ): Sea F ∈ GLn (K), entonces la primera fila de
F es no nula y el número de posibilidades para esta primera fila son q n − 1 = q n − q 0 ;
una vez definida la primera fila, la segunda no puede ser múltiplo de la primera, por
lo tanto, el número de opciones para la segunda fila son q n − q; una vez definidas
la primera y segunda filas, la tercera no puede ser combinación lineal de las dos
primeras, por lo tanto, el número de posiblidades para la tercera fila son q n − q 2 .
Continuando de esta manera encontramos que el número de posiblidades para la
última fila son q n − q n−1Q
. Esto completa la demostración.
1 n−1 n
(b) |SLn (K)| = q−1 j=0 (q − q j ): Tal como vimos al principio de esta sección,
GLn (K)/SLn (K) ∼ |GLn (K)| Qn−1 n
= K ∗ , luego |SLn (K)| = ∗
|K |
= 1 q−1
(q − q j ).
j=0
(x) Comencemos probando las afirmaciones relativas al grupo SLn (K).
(a) Sea n ≥ 3. Para cualquier grupo G se tiene que [G, G] ≤ G; sea Tij (a) un
generador de SLn (K), se tiene la siguiente identidad

Tij (ab) = [Tik (a), Tkj (b)], con i, j, k diferentes y a, b ∈ K. (5.1.2)

Tomando b = 1 obtenemos que SLn (K) ≤ [SLn (K), SLn (K)].


(b) Sea n = 2 y |K| ≥ 4. Como vimos en (a), la inclusión [SL2 (K), SL2 (K)] ≤
SL2 (K) se tiene trivialmente; para la otra inclusión se tiene la identidad general

[Tij (a), D(b1 , . . . , bn )] = Tij (a(b−1


i bj − 1)). (5.1.3)

Existe a0 ∈ K ∗ tal que a20 − 1 6= 0, de lo contrario a20 = 1, de donde a0 = ±1


y entonces K = {0, 1, −1}. En la identidad anterior tomemos entonces b1 := a−1 0 ,
b2 := a0 , con lo cual b−1
1 b 2 − 1 = a 2
0 − 1 := c 6
= 0. Ası́ pues, dado a ∈ K se tiene

[T12 (a), D(a−1 −1 −1


0 , a0 )] = T12 (ac), luego [T12 (ac ), D(a0 , a0 )] = T12 (a),

lo cual demuestra que T12 (a) ∈ [SL2 (K), SL2 (K)]. De manera similar se prueba que
T21 (a) ∈ [SL2 (K), SL2 (K)]. En consecuencia, SL2 (K) ≤ [SL2 (K), SL2 (K)].
(c) Sea n = 2 y |K| = 3. Probemos que en este caso

[SL2 (Z3 ), SL2 (Z3 )] ∼


= Q8 := ha, b|a4 = 1, b2 = a2 , ba = a−1 bi.

Q8 se conoce como el grupo de cuaterniones (véase [5]). Según (ix), |SL2 (Z3 )| =
1
3−1
(32 − 30 )(32 − 31 ) = 24, y como [SL2 (Z3 ), SL2 (Z3 )] ≤ SL2 (Z3 ), entonces
|[SL2 (Z3 ), SL2 (Z3 )]| = 1, 2, 3, 4, 6, 8, 12 ó 24.
Nótese que las siguiente matrices están en SL2 (Z3 ):
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 117

           
0 1 2 2 1 1 1 0 2 1 2 2
A := , B := , C := , D := , F := , G :=
2 0 2 1 0 1 1 1 1 1 1 0

además, A = [C, D], B = [F, G], es decir, A, B ∈ [SL2 (Z3 ), SL2 (Z3 )], y estas matri-
ces cumplen
A4 = E, B 2 = A2 , BA = A−1 B,
por lo tanto, Q8 ∼ = hA, Bi ≤ [SL2 (Z3 ), SL2 (Z3 )], luego [SL2 (Z3 ), SL2 (Z3 )] = 8 ó 24.
Pero existe una matriz propiamente elemental que no pertenece a [SL2 (Z3 ), SL2 (Z3 )]
(véase la sección de ejercicios al final del capı́tulo), por lo tanto [SL2 (Z3 ), SL2 (Z3 )] =
8 y [SL2 (Z3 ), SL2 (Z3 )] ∼= Q8 .
(d) Sea n = 2 y |K| = 2. Veamos que [SL2 (Z2 ), SL2 (Z2 )] ∼ = Z3 : notemos que
|SL2 (Z2 )| = |GL2 (Z2 )| = 2−1 (2 − 2 )(2 − 2 ) = 6, de donde SL2 (Z2 ) = GL2 (Z2 ) ∼
1 2 0 2 1
=
S3 ∼= D3 (los grupos de orden 6 son dos: Z6 y S3 ∼ = D3 , véase [5]; pero GL2 (Z2 ) no es
abeliano: T12 (1)T21 (1) 6= T21 (1)T12 (1)). Se tiene entonces que [SL2 (Z2 ), SL2 (Z2 )] ∼ =
[D3 , D3 ] ∼ [S
= 3 3 , S ] = A ∼
3 = 3
Z (A 3 es el grupo alternante de orden 3).
Pasamos ahora a considerar el grupo GLn (K). Tenemos entonces tres casos.
(e) Sea n ≥ 3. Según (a), SLn (K) = [SLn (K), SLn (K)] ≤ [GLn (K), GLn (K)];
además, como SLn (K)  GLn (K) y GLn (K)/SLn (K) ∼ = K ∗ es abeliano, entonces
[GLn (K), GLn (K)] ≤ SLn (K) (véase [5]). Otra forma de justificar esta última afir-
mación es: det[F, G] = 1 para cualesquiera F, G ∈ GLn (K) (esta afirmación es válida
también para n = 2).
(f) Sea n = 2 y |K| ≥ 3. Tal como acabamos de ver en (e), [GL2 (K), GL2 (K)] ≤
SL2 (K). Para la otra inclusión, sea a0 6= 0, 1; se tienen las siguientes identidades:
T12 (a) = [T12 (ab), D(1, a0 )], b := (a0 − 1)−1 , a ∈ K,
T21 (a) = [T21 (ab), D(a−1 −1
0 , 1)], b := (a0 − 1) , a ∈ K.

(g) [GL2 (Z2 ), GL2 (Z2 )] ∼


= Z3 : este isomorfismo es consecuencia directa de (d) ya
que GL2 (Z2 ) = SL2 (Z2 ).
(xi) Basta probar la primera afirmación, U Tnm (K)Tn (K): sean F ∈ U Tnm K), G ∈
Tn (K), entonces F = T10 · · · Ts0 , con cada T 0 una matriz propiamente elemental de la
forma Tij (a), j − i ≥ m, y G = D(b1 , . . . , bn )T1 · · · Tr , donde cada T es una matriz
propiamente elemental de la forma Tij (a), j > i (esta última afirmación resulta de
la identidad general (5.1.3)). Entonces,
G−1 F G = Tr−1 · · · T1−1 D(b−1 −1 0 0
1 , . . . , bn )T1 · · · Ts D(b1 , . . . , bn )T1 · · · Tr ,

pero se tiene la identidad general

D(b1 , . . . , bn )Tij (a) = Tij (bi ab−1


j )D(b1 , . . . , bn ),

luego
G−1 F G = Tr−1 · · · T2−1 (T1−1 T100 · · · Ts00 T1 )T2 · · · Tr ,
118 CAPÍTULO 5. GRUPOS DE MATRICES

donde cada T 00 es nuevamente una matriz de la forma Tij (a), con j − i ≥ m. Note-
mos que T1−1 T100 · · · Ts00 T1 = (T1−1 T100 T1 )T1−1 T200 T1 · · · (T1−1 Ts00 T1 ). Para concluir la de-
mostración basta probar que cada factor T1−1 Tl00 T1 ∈ U Tnm (K), 1 ≤ l ≤ s, y luego
repetir el procedimiento para T2−1 , T2 ; . . . ; Tr−1 , Tr .
Consideremos pues un producto de la forma P := Tij (a)−1 Trs (b)Tij (a), con j > i,
s − r ≥ m, a, b ∈ K. Expandiendo y simplificando, encontramos que
P = E + bErs + baErs Eij − abEij Ers − a2 bEij Ers Eij .
Se presentan las siguientes posiblilidades: (a) j 6= r, s 6= i, entonces P = E + bErs ∈
U Tnm (K); (b) j 6= r, i = s, entonces P = E + bErs + baErj , pero como j > i y
s − r ≥ m, entonces j > s y s ≥ r + m, luego j > r + m, es decir, j − r > m, de
donde P ∈ U Tnm (K); (c) j = r, i 6= s, entonces P = E + bErs − abEis , pero como
j > i y s−r ≥ m, entonces r > i y s ≥ r +m, de donde s > i+m, es decir, s−i > m
y nuevamente P ∈ U Tnm (K); (d) j = r, i = s, pero esta situación es imposible ya
que j > i, s − r ≥ m, de donde r > i, i − r ≥ m, es decir, r − i > 0 y i − r ≥ m > 0,
contradicción.
(xii) Notemos en primer lugar que si |K| = 2, entonces Dn (K) = {E}GLn (K).
Sea |K| ≥ 3, entonces existen al menos dos elementos no nulos diferentes β1 , β2 ∈
K. Sea α cualquier elemento no nulo de K, entonces α(β1 − β2 ) 6= 0 y se tiene la
siguiente identidad:
 −1        
1 α β1 0 1 α 1 −α β1 β1 α β1 β1 α − β2 α
= = ∈
/ D2 (K).
0 1 0 β2 0 1 0 1 0 β2 0 β2

Esta prueba para el caso n = 2 se extiende al caso general n agregando bloques


nulos y la matriz idéntica En−2 en la identidad anterior. Este mismo razonamiento
también establece que Dn (K) 5 Tn (K).
(xiii) Notemos que T1n (1) ∈ U Tn (K) ≤ Tn (K) y Tn1 (a) ∈ SLn (K) ≤ GLn (K)
pero Tn1 (a)−1 T1n (1)Tn1 (a) ∈
/ Tn (K) si a 6= 0. En efecto,
Tn1 (a)−1 T1n (1)Tn1 (a) = (E − aEn1)(E + E1n )(E + aEn1 ) =
1 + a 0 ··· 0 1
 0
 1 ··· 0 0  
2
E + aE11 + E1n − aEnn − a En1 = 
 . . . .

 
 1 0 
−a2 0 · · · 0 1 − a
(xiv) El mismo ejemplo del numeral anterior.
(xv) (a) La primera identidad es evidente ya que Dn (K) es abeliano.
(b) El producto de dos elementos de Tn (K) tiene como elementos en la diago-
nal principal el producto de los elementos de las diagonales principales de los dos
factores, además, los elementos diagonales de la inversa de una matriz F de Tn (K)
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 119

son los inversos de los elementos diagonales de F , por lo tanto, [Tn (K), Tn (K)] ≤
U Tn (K). Para la otra inclusión notemos que si |K| ≥ 3, entonces existe a0 6= 0, 1 en
K y para cada generador Tij (a) de U Tn (K) se tiene la siguiente identidad general,
la cual generaliza las identidades que vimos en (f) de (x):

Tij (a) = [Tij (ab), D(1, . . . , a0 , . . . , 1)], con b := (a0 − 1)−1 y a0 en la posición j.

(c) Si |K| = 2, entonces Tn (Z2 ) = U Tn (Z2 ), con lo cual [Tn (Z2 ), Tn (Z2 )] =
[U Tn (Z2 ), U Tn (Z2 )] = U Tn2 (Z2 ) (véase la parte (d) a continuación).
(d) Consideremos primero el caso trivial n = 2: U T2 (K) = {T12 (a)|a ∈ K}
y U T22 (K) = {E}, pero como estos dos grupos son abelianos, entonces la afirma-
ción en este caso se cumple trivialmente: [U T2 (K), U T2 (K)] = {E} = U T22 (K);
[U T2 (K), U T22 (K)] = {E} = U T23 (K) = [U T22 (K), U T2 (K]; [U T22 (K), U T22 (K)] =
{E} = U T24 (K).
Sea n ≥ 3. Veamos primero que [U Tnr (K), U Tns (K)] ≤ U Tnr+s (K): basta probar
que si T es un generador de U Tnr (K) y T 0 es un generador de U Tns (K), entonces
[T, T 0 ] ∈ U Tnr+s (K). En efecto, cada generador de [U Tnr (K), U Tns (K)] es de la forma
[F, G] con F ∈ U Tnr (K) y G ∈ U Tns (K); F es producto de generadores e inversos de
generadores de U Tnr (K), lo mismo ocurre para U Tns (K); pero si T es un generador
de U Tnr (K), entonces T −1 es también un generador; lo mismo ocurre para U Tns (K);
ası́ pues, cada generador de [U Tnr (K), U Tns (K)] es de la forma [T1 · · · Tp , T1 · · · Tq0 ]; se
tiene la siguiente identidad en cualquier grupo, [ab, c] = b−1 [a, c]b[b, c]; pero según
(xi), U Tnr+s (K)  U Tnr (K), U Tns (K), por lo tanto, basta probar lo anunciado arriba.
Sean Tik (a) ∈ U Tnr (K), Tje (b) ∈ U Tns (K) y consideremos el conmutador

C := [Tik (a), Tje (b)];

según (5.1.2), si k = j, entonces C = Tie (ab), pero como k − i ≥ r y e − j ≥ s,


entonces e−i ≥ r +s, es decir, C ∈ U Tnr+s (K); si k 6= j, entonces C = E −abEje Eik ,
si e 6= i encontramos que C = E ∈ U Tnr+s (K), pero si e = i, entonces C = Tjk (−ab),
donde k − i ≥ r, i − j ≥ s, luego k − j ≥ r + s, y nuevamente C ∈ U Tnr+s (K). Esto
completa la prueba de la primera inclusión.
Veamos ahora la otra inclusión, U Tnr+s (K) ≤ [U Tnr (K), U Tns (K)]: basta probar
que cada generador Tij (a) de U Tnr+s (K) pertenece a [U Tnr (K), U Tns (K)]; puesto que
j − i ≥ r + s > s, entonces j − s > i > 0; sea k := j − s, entonces k − i = j − i − s ≥
r + s − s = r; j − k = s, con lo cual Tij (a) = [Tik (a), Tkj (1)] ∈ [U Tnr (K), U Tns (K)].
(xvi) Es suficiente considerar el homomorfismo sobreyectivo de grupos
ϕ : Tn (K) → Dn (K) ∼
=K ∗
· · × K}∗ , F := [fij ] 7→ D(f11 , . . . , fnn ),
| × ·{z
n-veces

cuyo núcleo es U Tn (K).


(xvii) Nótese que la función
120 CAPÍTULO 5. GRUPOS DE MATRICES

ϕ : U Tnm (K) → |K × ·{z


· · × K}, F := [fij ] 7→ (f1,m+1 , f2,m+2 . . . , fn−m,n ),
n − m-veces

es un homomorfismo sobreyectivo de grupos cuyo núcleo es U Tnm+1 (K). En efecto,


es claro que ϕ es sobreyectiva con el núcleo indicado. Veamos que ϕ es un ho-
momorfismo de grupos: sean F, G ∈ U Tnm (K) y sea H := F G, entonces ϕ(H) =
(h1,m+1 , h2,m+2 . . . , hn−m,n ), pero para cada 1 ≤ k ≤ n − m, hk,m+k = ni=1 fki gi,m+k .
P
Si 1 ≤ i < k, entonces fki = 0; si i = k, entonces fki gi,m+k = gk,m+k ; si k < i < m+k,
entonces 0 < i − k < m, con lo cual fki = 0; si i = m + k, entonces fki gi,m+k =
fk,m+k gm+k,m+k = fk,m+k ; si m + k < i ≤ n, entonces gi,m+k=0 . De todo lo anterior
se tiene que hk,m+k = fk,m+k + gk,m+k , luego ϕ(F G) = ϕ(F ) + ϕ(G).
(xviii) (a) Según (x), para n ≥ 3, GLn (K) y SLn (K) son no solubles.
(b) Para n = 2 y |K| ≥ 4, también según (x), GLn (K) y SLn (K) son no solubles.
(xix) (a) Según (x), SL2 (Z3 ) es soluble ya que Q8 es soluble: [Q8 , Q8 ] ∼ = Z2 ,
[Z2 , Z2 ] = {0}.
(b) SL2 (Z2 ) = GL2 (Z2 ) es soluble ya que Z3 es abeliano (véase (x)).
(c) GL2 (Z3 ) es soluble ya que según (x), [GL2 (Z3 ), GL2 (Z3 )] = SL2 (Z3 ), y como
vimos en (a), este último es soluble.
(xx) Consecuencia directa de (xi).

Los llamados grupos clásicos surgen al estudiar formas bilineales y sesquilineales


sobre un espacio vectorial. Nos ocuparemos ahora de estos grupos. Se asume que
el lector conoce la teorı́a clásica de formas bilineales y formas cuadráticas sobre
cuerpos, sin embargo, algunas definiciones y resultados básicos serán recordados.
Si V es un espacio vectorial sobre un cuerpo K, una forma bilineal sobre
V es una función f : V × V → K lineal en ambos argumentos, es decir, f (u1 +
u2 , v) = f (u1 , v) + f (u2 , v), f (a · u, v) = af (u, v), f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ),
f (u, a · v) = af (u, v), para cualesquiera u1 , u2 , u, v1 , v2 , v ∈ V , a ∈ K. Una forma
bilineal f permite definir la ortogonalidad: si u, v ∈ V , u es ortogonal a v (u ⊥
v) si, y sólo si, f (u, v) = 0. La forma f es simétrica si f (u, v) = f (v, u) para
cualesquiera vectores u, v ∈ V ; f se dice antisimétrica si f (u, v) = −f (v, u), y f
es alternada si f (u, u) = 0 para cada u ∈ V . Notemos que toda forma alternada
es antisimétrica y si char(K) 6= 2, entonces toda forma antisimétrica es alternada.
Si dim(V ) = n y X = {x1 , . . . , xn } es una base del espacio V , la matriz de la forma
f en la base X es la matriz B := [bij ], donde bij := f (xi , xj ); si u y v se expresan
como u = u1 · x1 + · · · + un · xn y v = v1 · x1 + · · · + vn · xn , entonces

f (u, v) = [u1 · · · un ]B[v1 · · · vn ]T .

Una forma bilineal f es no degenerada si para 0 6= u ∈ V , existe v ∈ V tal


que f (u, v) 6= 0, es decir, ningún vector no nulo es ortogonal a todo el espacio.
Equivalentemente, f es no degenarada si, y sólo si, det(B) 6= 0, con B la matriz de
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 121

f en cualquier base. Una transformación T de V preserva f si para cada u, v ∈ V ,


f (T (u), T (v)) = f (u, v).
Proposición 5.1.2. Si dim(V ) = n y f es no degenerada, el conjunto de las trans-
formaciones lineales que preservan f es un grupo con la composición.
Demostración. Si S, T preservan f , para cada u, v ∈ V se tiene f (ST (u), ST (v)) =
f (T (u), T (v)) = f (u, v) y ST preserva f ; obviamente el producto es asociativo y
la transformación idéntica preserva cualquier forma. Finalmente, si T preserva f y
u ∈ V es tal que T (u) = 0, entonces para cada v ∈ V f (u, v) = f (T (u), T (v)) =
f (0, T (v)) = 0 y en consecuencia u = 0 por ser f no degenerada. Por lo tanto, T es
inyectiva, y como la dimensión de V es finita, T es invertible y f (T −1 (u), T −1 (v)) =
f (T T −1 (u), T T −1 (v)) = f (u, v), es decir, T −1 también preserva f .
La afirmación anterior se puede traducir también en términos de matrices, pues
si F es la matriz de T en la base de X, entonces
[u1 · · · un ]B[v1 · · · vn ]T = f (u, v) = f (T (u), T (v)) = [u1 · · · un ]F T BF [v1 · · · vn ]T ;
consecuentemente T preserva f si, y sólo si, B = F T BF , donde F := mX (T ).
Si f es no degenerada, det(B) 6= 0 de manera que det(F ) = ±1 y ası́, F (y T )
es invertible. De este modo, asociado a cada forma bilineal no degenerada f hay
un subgrupo de GLn (K) a saber, el grupo de matrices F correspondientes a las
transformaciones T que preservan f . Los llamados grupos clásicos sobre K son
algunos de los subgrupos de GLn (K) definidos por medio de estas formas bilineales
no degeneradas. Por cada forma no degenerada f , o lo que es equivalente, por cada
matriz invertible B tendrı́amos uno de tales grupos.
Observación 5.1.3. (i) Notemos sin embargo que si B ∈ Mn (K) es una matriz
cualquiera, no necesariamente invertible, entonces también se pueden definir sub-
grupos de GLn (K) de la siguiente manera:
O(B) := {F ∈ GLn (K)|F T BF = B}.
(ii) De todos los posibles grupos clásicos que se pudieran definir con formas no
degeneradas se destacan aquellos para los cuales la relación de ortogonalidad entre
vectores es simétrica, es decir, u ⊥ v si, y sólo si, v ⊥ u.
Proposición 5.1.4. Sea dim(V ) = n y f una forma bilineal sobre V . La relación
“ser ortogonal a” es simétrica si, y sólo si, f es simétrica o f es alternada.
Demostración. ⇒): Sean u, v, w ∈ V y u e := f (u, v) · w − f (u, w) · v. Entonces
e) = f (u, f (u, v) · w − f (u, w) · v) = f (u, v)f (u, w) − f (u, w)f (u, v) = 0, es
f (u, u
decir, u ⊥ u
e; por hipótesis ue ⊥ u, esto es,
u, u) = f (u, v)f (w, u) − f (u, w)f (v, u),
0 = f (e (5.1.4)
122 CAPÍTULO 5. GRUPOS DE MATRICES

y haciendo w = u resulta

f (u, u)[f (u, v) − f (v, u)] = 0 (5.1.5)

para cada u, v ∈ V . Supóngase ahora que existen x, y ∈ V tales que f (x, y) 6= f (y, x)
y que existe z ∈ V tal que f (z, z) 6= 0. Por (5.1.5),

f (x, x) = f (y, y) = 0 y f (z, x) = f (x, z), f (z, y) = f (y, z),


y por (5.1.4), 0 = f (x, z)[f (y, x) − f (x, y)], 0 = f (y, z)[f (x, y) − f (y, x)], luego

f (x, z) = 0 = f (z, x) y f (y, z) = 0 = f (z, y).


Ahora f (x, y+z) = f (x, y) y f (y+z, x) = f (y, x), luego f (x, y+z) 6= f (y+z, x) y por
(5.1.5) f (y + z, y + z) = 0. Pero f (y + z, y + z) = f (y, y) + f (y, z) + f (z, y) + f (z, z) =
f (z, z) lo que contradice la hipótesis f (z, z) 6= 0. Ası́, f (x, y) = f (y, x) para cada
x, y ∈ V , es decir, f simétrica, o bien f (z, z) = 0 para cada z ∈ V es decir, f
alternada.
⇐): Si f es simétrica y u ⊥ v, entonces f (v, u) = f (u, v) = 0, de manera que
también v ⊥ u. Si f es alternada, también es antisimétrica, por lo tanto, si u ⊥ v,
entonces f (v, u) = −f (u, v) = 0 y v ⊥ u.

De este modo, el estudio de los grupos clásicos se reduce a dos casos: grupos
obtenidos de formas simétricas y grupos obtenidos de formas alternadas.
Sea f una forma bilineal simétrica no degenerada sobre V ; una transformación
T que preserva f se denomina transformación ortogonal , y el grupo clásico
correspondiente se denomina grupo ortogonal denotado O(V, f ). Esta notación
resulta adecuada pues el grupo ortogonal definido de esta manera depende de V (y
por lo tanto de K y de n) y de f , o de manera equivalente, de la matriz B. Según
vimos atrás, el grupo ortogonal se puede caracterizar en lenguaje matricial de la
siguiente manera:

O(V, f ) = {F ∈ GLn (K)|F T BF = B},

donde B es la matriz de f en una base X de V que se fija (recordemos que B es


simétrica e invertible). Como se anotó antes, si F ∈ O(V, f ) entonces det(F ) =
±1; las transformaciones ortogonales de determinante 1 se denominan rotaciones
y constituyen un subgrupo normal de O(V, f ), notado O+ (V, f ), de manera que
O+ (V, f )  SLn (K).
Si en particular B = E, entonces se tiene el grupo ortogonal de orden n sobre
K, denotado On (K), conformado por las matrices ortogonales, es decir,

On (K) := {F ∈ GLn (K)|F T F = E}.


5.1. GRUPOS DE MATRICES SOBRE CUERPOS 123

Observación 5.1.5. El centro de On (K) es {E, −E} y, salvo algunos casos parti-
culares, el cociente del grupo conmutante de On (K) y su centro es un grupo simple;
estos resultados fueron probados por Dickson y Dieudonné, pero la prueba no está en
el contexto del presente cuaderno.

Sea f una forma bilineal alternada no degenerada sobre V . Una transformación lineal
que preserva f se denomina transformación simplicial , el grupo correspondiente
se denomina grupo simplicial y se nota Spn (K). Se puede probar que si char(K) 6=
2, entonces se puede encontrar una base de V tal que la matriz Be de f en dicha base
tenga la siguiente presentación
  
0 1
 −1 0 0 
   
 0 1 
−1 0
 
B := 
e .
 .. 

 . 
 
 0 1 
0
−1 0

Nótese que la dimensión n de V es entonces siempre par. Se tiene pues que

Spn (K) := {F ∈ GLn (K)|F T BF


e = B}.
e

Observación 5.1.6. El grupo simpléctico tiene las siguientes propiedades: Spn (K) ≤
SLn (K), el centro de Spn (K) es {−E, E}, y si K posee más de tres elementos en-
tonces el grupo simplicial es igual a su grupo conmutante. El cociente del grupo
conmutante de Spn (K) con su centro es un grupo simple. Finalmente, si K es un
cuerpo finito con q elementos (q ≥ 3), entonces el orden del grupo simplicial es

|Spn (K)| = (q n − 1)q n−1 (q n−2 − 1)q n−3 · · · q 3 (q 2 − 1)q.

La prueba de estas afirmaciones está fuera del alcance del presente cuaderno.

A partir de formas sesquilineales que se definen en cuerpos que presenten una in-
volución análoga a la conjugación en C aparece otro tipo de grupo clásico de ma-
trices, tal como veremos a continuación. Una forma sesquilineal en un espa-
cio vectorial sobre C es una función f : V × V → C lineal en un argumento
y “semilineal” en el otro; más precisamente: f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ),
f (u, a · v) = af (u, v), f (u1 + u2 , v) = f (u1 , v) + f (u2 , v) y f (a · u, v) = af (u, v)
para todo u, v, u1 , u2 , v1 , v2 ∈ V y a ∈ C. Habitualmente la semilinealidad se es-
tablece para el segundo argumento, pero para definir los grupos clásicos el cambio
al primer argumento resulta conveniente. Se tiene entonces que si dim(V ) = n y
X = {x1 , . . . , xn } es una base del espacio V , la matriz de la forma sesquilineal f en
124 CAPÍTULO 5. GRUPOS DE MATRICES

la base X es la matriz B := [bij ], donde bij := f (xi , xj ); si u y v se expresan como


u = u1 · x1 + · · · + un · xn y v = v1 · x1 + · · · + vn · xn , entonces
f (u, v) = [u1 · · · un ]B[v1 · · · vn ]T .
Notemos que si f es una forma sesquilineal no degenerada, entonces el conjunto
de transformaciones lineales del espacio V que preservan f es un grupo, es decir, la
proposición 5.1.2 también se tiene en este caso. El estudio de los grupos clásicos aso-
ciados a formas no degeneradas sesquilineales complejas generalmente se limita a las
formas hermitianas, es decir, tales que f (u, v) = f (v, u). Observemos que la matriz
B := [bij ] de f satisface B ∗ = B, con B ∗ := (B)T := [bij ]T , denominada la trasju-
gada de B (la trasjugada de una matriz también se conoce en la literatura como
la adjunta, pero ya utilizamos esta denominación de manera difente en el contexto
de la teorı́a de determinates del capı́tulo 2). Las matrices complejas que coinciden
con su trasjugada se denominan hermitianas. El grupo de transformaciones que
preservan f se denomina grupo unitario y se denota por U (V, f ). Al igual que en
el caso ortogonal, este grupos se pueden también describir matricialmente: si F es
la matriz de T ∈ U (V, f ) en la base de X, entonces
[u1 · · · un ]B[v1 · · · vn ]T = f (u, v) = f (T (u), T (v)) = [u1 · · · un ]F ∗ BF [v1 · · · vn ]T ;
consecuentemente T preserva f si, y sólo si, B = F ∗ BF . Ası́ pues,
U (V, f ) = {F ∈ GLn (K)|F ∗ BF = B}.
Adicionalmente, notemos que como f es no degenerada, det(B) 6= 0 de manera que
det(F ) = ±1, ±i.
Si en particular B = E, entonces se tiene el grupo unitario de orden n sobre
C, denotado Un (C), y conformado por las matrices unitarias, es decir,
Un (C) := {F ∈ GLn (C)|F ∗ F = E}.
Observemos que On (R) = Un (R).
Observación 5.1.7. Notemos que si B ∈ Mn (C) es una matriz cualquiera, no
necesariamente invertible, entonces también se pueden definir subgrupos de GLn (C)
de la siguiente manera:
U (B) := {F ∈ GLn (C)|F ∗ BF = B}.

5.2. Grupos de matrices sobre anillos


Sea A un anillo arbitrario, el grupo lineal general de orden n sobre A fue presentado
en la definición 1.3.1 y está constituido por las matrices invertibles del anillo Mn (A),
es decir, recordemos que
5.2. GRUPOS DE MATRICES SOBRE ANILLOS 125

GLn (A) := {F ∈ Mn (A)|A es invertible} = Mn (A)∗ .

Los subgrupos En (A), Dn (A), Tn (A), U Tn (A) y U Tnm (A) se definen en forma análoga
a como vimos antes para cuerpos; en los casos de Dn (A) y Tn (A) se debe asumir
que d1 , . . . , dn , f11 , . . . , fnn ∈ A∗ . El grupo especial lineal sobre anilllos arbitrarios
en general carece de sentido ya que la teorı́a de determinantes para anillos no con-
mutativos no está siempre definida; por supuesto que si R es un anillo conmutativo
entonces SLn (R) está definido y consta de las matrices con determinante 1.
Las propiedades estructurales de GLn (A) y sus subgrupos fueron objeto de in-
tenso estudio en las décadas de los 70 y 80. Mostraremos a continuación solo un par
de estas propiedades.

Proposición 5.2.1.

Z(GLn (A)) = {a · E | a ∈ Z(A)∗ } = Z(A)∗ E.

Demostración. Es evidente que a·E con a ∈ Z(A)∗ es invertible (con inversa a−1 ·E)
y que conmuta con cualquier matriz de Mn (A), luego a · E ∈ Z(GLn (A)). Sea ahora
F ∈ Z(GLn (A)), entonces para r, s, con 1 ≤ r 6= s ≤ n, F (E + Ers ) = (E + Ers )F ,
luego F Ers = Ers F . Ahora bien, F Ers tiene la r-ésima columna de F en la columna
s, y cero en las demás entradas, y Ers F tiene la s-ésima fila de F en la fila r y
cero en las demás entradas. Por lo tanto, F Ers = Ers F implica que si F := [fij ]
entonces frr = fss , fir = 0 para i 6= r y fsj = 0 para j 6= s. Pero F ∈ Z(GLn (A))
conmuta con todas las matrices Ers (r 6= s), luego todas las entradas de la diagonal
son iguales y las demás entradas son cero, es decir, F = a · E para algún a ∈ A. Pero
F ∈ GLn (A), luego necesariamente a es invertible, y como F conmuta con todas las
matrices de GLn (A), a ∈ Z(A).

Proposición 5.2.2. Para cada a, b ∈ A y cualesquiera u, v ∈ A∗ :

(i) Tij (a)Tij (b) = Tij (a + b).

(ii) Para i 6= l y k 6= j, Tij (a)Tkl (b) = Tkl (b)Tij (a).

(iii) [Tik (a), Tkj (b)] = Tij (ab). Además, si i 6= l y k 6= j, [Tij (a), Tkl (b)] = E.

(iv) Di (u)Dj (v) = Dj (v)Di (u) si i 6= j, y Di (u)Di (v) = Di (uv).

(v) Di (u)Tij (a) = Tij (ua)Di (u), Di (u)Tji (a) = Tji (au−1 )Di (u). Además, para j 6=
i y k 6= i, Di (u)Tjk (a) = Tjk (a)Di (u).

Demostración. (i) Tij (a)Tij (b) = (E + a · Eij )(E + b · Eij ) = E + a · Eij + b · Eij =
E + (a + b) · Eij = Tij (a + b).
(ii) Tij (a)Tkl (b) = (E + a · Eij )(E + b · Ekl ) = E + a · Eij + b · Ekl y Tkl (b)Tij (a) =
(E + b · Ekl )(E + a · Eij ) = E + b · Ekl + a · Eij .
126 CAPÍTULO 5. GRUPOS DE MATRICES

(iii) [Tik (a), Tkj (b)] = (E + a · Eik )(E + b · Ekj )(E − a · Eik )(E − b · Ekj ) =
(E + a · Eik + b · Ekj + ab · Eij )(E − a · Eik − b · Ekj + ab · Eij ) = E − a · Eik − b ·
Ekj + ab · Eij + a · Eik − ab · Eij + b · Ekj + ab · Eij = E + ab · Eij = Tij (ab).
Usando (ii) y (i) se tiene que

[Tij (a), Tkl (b)] = Tij (a)Tkl (b)Tij (−a)Tkl (−b) = Tkl (b)Tij (a)Tij (−a)Tkl (−b) =
Tkl (b)Tkl (−b) = E.

(iv) Di (u)Dj (v) = (E + (u − 1) · Eii )(E + (v − 1) · Ejj ) = E + (u − 1) · Eii + (v − 1) · Ejj


y Dj (v)Di (u) = (E + (v − 1) · Ejj )(E + (u − 1) · Eii ) = E + (v − 1) · Ejj + (u − 1) · Eii .

Di (u)Di (v) = (E + (u − 1) · Eii )(E + (v − 1) · Eii ) =


E + (u − 1 + v − 1 + uv − v − u + 1) · Eii = E + (uv − 1) · Eii = Di (uv).

(v) Di (u)Tij (a) = (E + (u − 1) · Eii )(E + a · Eij ) = E + a · Eij + (u − 1) · Eii +


(u − 1)a · Eij = E + (u − 1) · Eii + ua · Eij y

Tij (ua)Di (u) = (E + ua · Eij )(E + (u − 1) · Eii ) = E + (u − 1) · Eii + ua · Eij .

Di (u)Tji (a) = (E + (u − 1) · Eii )(E + a · Eji ) = E + (u − 1) · Eii + a · Eji y


Tji (au−1 )Di (u) = (E + au−1 · Eji )(E + (u − 1) · Eii ) = E + (u − 1) · Eii + au−1 · Eji +
(a − au−1 ) · Eji = E + (u − 1) · Eii + a · Eji .
Di (u)Tjk (a) = (E + (u − 1) · Eii )(E + a · Ejk ) = E + (u − 1) · Eii + a · Ejk , y

Tjk (a)Di (u) = (E + a · Ejk )(E + (u − 1) · Eii ) = E + (u − 1) · Eii + a · Ejk .

Corolario 5.2.3. Si n ≥ 3,

[En (A), En (A)] = En (A).

Demostración. [En (A), En (A)] ⊆ En (A); recı́procamente, si Tij (a) ∈ En (A), como
n ≥ 3, sea k 6= i, k 6= j entonces Tij (a) = Tij (a1) = [Tik (a), Tkj (1)] ∈ [En (A), En (A)].

Corolario 5.2.4. Si n ≥ 3, En (A) no es soluble.

Demostración. Consecuencia directa del corolario anterior.


5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 127

5.3. El grupo elemental sobre anillos conmuta-


tivos
Sea R un anillo conmutativo, vimos en (2.3.6) que En (R) ≤ SLn (R)  GLn (R).
Surgen entonces dos preguntas de manera natural: ¿En (R)  GLn (R)? y ¿En (R) =
SLn (R)? En esta sección vamos a estudiar estas dos preguntas.
Para n ≥ 3 la primera pregunta planteada anteriormente tiene respuesta positiva
y el resultado fue demostrado por A. A. Suslin, el cual es conocido como el teorema
de normalización de Suslin (véase [13]). La prueba constructiva de este teorema
presentada a continuación ha sido adaptada de [11], véase también [12].
Definición 5.3.1. Sean R un anillo conmutativo y n ≥ 2. Una matriz de Cohn
es una matriz de la forma
E + av(vj ei − vi ej ),
donde i < j, i, j ∈ {1, . . . , n}, a ∈ R y
v := [v1 · · · vn ]T ∈ Rn .
Proposición 5.3.2 (Mennicke). Para n ≥ 3, cualquier matriz de Cohn se puede
factorizar en un producto finito de matrices elementales.
Demostración. Primero consideremos el caso i = 1, j = 2, entonces
 
v1
 ..   
B = E + a  .  v2 , −v1 , 0, . . . , 0
vn
 
1 + av1 v2 −av12 0 ··· 0
 av 2 1 − av1 v2 0 · · · 0 
 2 
=
 av3 v2 −av3 v1 

 .. .. 
 . . En−2 
avn v2 −avn v1
−av12
 
1 + av1 v2 0 ··· 0
 av22 1 − av1 v2 0 · · · 0 
 

 0 0  n
Y
=  . . 
 Tl1 (avl v2 )Tl2 (−avl v1 ).

 . . En−2

 l=3
 . . 
0 0
Entonces, es suficiente mostrar que
 
1 + av1 v2 −av12 0
A :=  av22 1 − av1 v2 0
0 0 1
128 CAPÍTULO 5. GRUPOS DE MATRICES

se puede factorizar como un producto de matrices elementales, para cualesquiera


a, v1 , v2 ∈ R. Para esto aplicamos operaciones elementales sobre filas y columnas:

   
1 + av1 v2 −av12 0 F1 →F1 +v1 F3 1 + av1 v2 −av12 v1
F2 →F2 +v2 F3
A =  av22 1 − av1 v2 0 −− −−−−−→  av22 1 − av1 v2 v2 
0 0 1 0 0 1

   
1 −av12 v1 1 0 v1
C1 →C1 −av2 C3 C2 →C2 +av1 C3
−− −−−−−−→  0 1 − av1 v2 v2  −− −−−−−−→  0 1 v2 
−av2 0 1 −av2 av1 1

   
1 0 v1 1 0 0
F3 →F3 +av2 F1 C3 →C3 −v1 C1
−− −−−−−−→ 0 1 v2 −−−−−−−−→ 0 1 v2 
0 av1 1 + av1 v2 0 av1 1 + av1 v2

   
1 0 0 1 0 0
F3 →F3 −av1 F2 F2 →F2 −v2 F3
−− −−−−−−→ 0 1 v2  −− −−−−−→ 0 1 0
0 0 1 0 0 1

Escribiendo las operaciones elementales anteriores, tenemos

A = T13 (−v1 )T23 (−v2 )T31 (−av2 )T32 (av1 )T13 (v1 )T23 (v2 )T31 (av2 )T32 (−av1 ).

En general, para i < j arbitrarios

 
v1
 ..   
B = E + a  .  0, . . . , vj , 0, . . . , −vi , 0, . . . , 0
vn
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 129

donde vj ocurre en la i-ésima posición y −vi en la j-ésima posición. Entonces,


 
1 ... av1 vj . . . −av1 vi . . . 0
 .. .. ..
. . . 0


1 + avi vj −avi2
 
 
B=
 .
. .
.

 . . 


 avj2 1 − avi vj 


 .
.. .
..


avn vj −avn vi 1
 
1 ... 0 ... 0 ... 0
 .. .. ..
. . . 0


1 + avi vj −avi2
 
 

= .
. .
.
 Y
Tli (avl vj )Tlj (−avl vi )
 . . 

2

 avj 1 − avi vj  1≤l≤n
 l6=i,j

 .
.. .
..


0 0 1
= Tit (−vi )Tjt (−vj )Tti (−avj )Ttj (avi )Tit (vi )Tjt (vj )Tti (avj )Ttj (−avi )
Y
× Tli (avl vj )Tlj (−avl vi ),
1≤l≤n
l6=i,j

donde t es cualquier ı́ndice que cumpla t ∈ {1, . . . , n} − {i, j}.

Definición 5.3.3. Sean R un anillo conmutativo y n ≥ 1; v = [v1 , · · · , vn ]T ∈ Rn


es un vector columna unimodular si sus componentes generan a R, es decir,
existen u1 , . . . , un tales que v1 u1 + · · · + vn un = 1. Un vector fila unimodular se
define de manera similar.

Lema 5.3.4. Sean R un anillo conmutativo y A ∈ GLn (R), con n ≥ 3. Supóngase


que A se puede escribir en la forma A = E+vw, con v un vector columna unimodular
y w un vector fila sobre R tales que wv = 0. Entonces, A ∈ En (R).

Demostración. Sea v := [v1 · · · vn ]T unimodular, existen g1 , . . . , gn ∈ R tales que


v1 g1 + · · · + vn gn = 1; esto combinado con wv = w1 v1 + · · · + wn vn = 0 proporciona
una nueva expresión para w,
X
w= aij (vj ei − vi ej ),
i<j
130 CAPÍTULO 5. GRUPOS DE MATRICES

donde aij := wi gj − wj gi . Luego,


X
A := E + vw = E + v( aij (vj ei − vi ej ))
i<j
X
=E+ vaij (vj ei − vi ej )
i<j
Y
= (E + vaij (vj ei − vi ej )).
i<j

Cada factor del lado derecho de la última ecuación en una matriz de Cohn, luego se
pueden escribir como un producto de matrices elementales, con lo cual A también
es un producto de matrices elementales.
Lema 5.3.5. Sean R un anillo conmutativo y n ≥ 3. BTij (a)B −1 ∈ En (R), para
cada a ∈ R y B ∈ GLn (R).
Demostración. Para una matriz A, denotemos por A(i) su fila i y por A(j) su columna
j, entonces

BTij (a)B −1 = E + B (i) a(B −1 )(j) .

Sea v := B (i) y w := a(B −1 )(j) , entonces (B −1 )(i) v = 1, luego v es unimodular,


además wv = 0 ya que i 6= j. Por lo tanto, BTij (a)B −1 = E + vw satisface la
condición del lema 5.3.4, ası́ que se puede escribir como un producto de matrices
elementales.
Teorema 5.3.6 (Teorema de normalización de Suslin). Sea R un anillo con-
mutativo. Para n ≥ 3, En (R)  GLn (R). En particular, En (R)  SLn (R).
Demostración. Sea A ∈ GLn (R) y F ∈ En (R). Entonces el lemma 5.3.5 da un
procedimiento para encontrar matrices propiamente elementales T1 , . . . , Tt tales que
AF A−1 = T1 · · · Tt .
Estudiaremos ahora la segunda pregunta planteada al inicio de la presente sec-
ción. Desafortunadamente existen anillos conmutativos en los que En (R) 6= SLn (R).
En [11] se prueba que si K un cuerpo, la matriz
 
1 + xy x2
A := ∈ SL2 (K[x, y])
−y 2 1 − xy

no se puede factorizar como un producto de matrices elementales (véase también


[12]). No obstante, existen diversos anillos conmutativos en los que la igualdad se
tiene, por ejemplo en el anillo de funciones reales continuas; en los dominios eucli-
dianos (por ejemplo Z y los polinomios K[x] sobre un cuerpo K); en los anillos con
rango estable uno (anillos locales y semilocales).
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 131

A continuación se presenta detalladamente la demostración de la igualdad en los


dos últimos casos mencionados. Cabe anotar que dichas demostraciones son cons-
tructivas. Iniciamos con la siguiente proposición de carácter general.
Proposición 5.3.7. Sea A un anillo arbitrario y n ≥ 2. Si toda matriz de GLn (A)
se puede expresar como producto de matrices elementales y diagonales, entonces
GLn (A) = En (A)GLn−1 (A). Si además A = R es conmutativo, entonces En (R) =
SLn (R).
Observación 5.3.8. Aquı́ se considera
 GL n−1 (A) como un subgrupo de GLn (A)
1 0
mediante la inclusión natural M 7→ .
0 M
Demostración. (i) Claramente En (A)GLn−1 (A) ⊆ GLn (A). Sea pues M ∈ GLn (A);
por hipótesis M se puede expresar como producto de matrices elementales Tij (a),
i 6= j, a ∈ A, y diagonales Di (u), u ∈ A∗ . En virtud de 5.2.2 (v), las matrices
diagonales se pueden “conmutar” hacia la derecha obteniendo M = T 1 D, donde T1 es
d1 0
un producto de elementales y D de diagonales. Pero entonces D = 
 . .. =

0 dn
∗ ∗
diag(d1 , . . . , dn ), donde cada di ∈ A , 1 ≤ i ≤ n. Sea u ∈ A y consideremos las
siguientes operaciones sobre filas y columnas:
 −1  T21 (1)  u−1 0  T12 (−1)  0 −u  T21 (1)  0 −u 
0 u −−−→ u−1 u −−−−→ u−1 u −−−→ u−1 0
u 0

T12 (u)  1 −u
1 0T12 (u)  
−−−→ u−1 0
−−−→
u−1 1 .
u−1 0 T21 (−1)T12 (1)T21 (−1)T12 (−u)T21 (u−1 )T12 (−u)
 
Ası́, 0 u = y, por lo tanto,
diag(d−1
1 , d1 , 1, . . . , 1) = T2

es producto de elementales. Pero diag(d−1 1 , d1 , 1, . . . , 1)D = diag(1, d1 d2 , d3 . . . , dn ),


luego D = T2−1 diag(1, d1 d2 , d3 , . . . , dn ); en consecuencia,
M = T1 D = T1 T2−1 diag(1, d1 d2 , d3 , . . . , dn ) = T3 diag(1, d1 d2 , . . . , dn )
con T3 = T1 T2−1 ∈ En (A) y diag(1, d1 d2 , d3 , . . . , dn ) ∈ GLn−1 (A) (con inversa
diag(1, d−1 −1 −1 −1
2 d1 , d3 , . . . , dn )). Tenemos entonces que GLn (A) ⊆ En (A)GLn−1 (A).
(ii) Sea ahora R un anillo conmutativo; tenemos que GLn (R) = En (R)GLn−1 (R)
(explı́citamente, notemos que diag(1, (d1 d2 )−1 , d1 d2 , 1, . . . , 1) es producto de elemen-
tales hasta obtener M = T 0 diag(1, 1, . . . , 1, d1 d2 · · · dn )). Sea N ∈ SLn (R), entonces
N ∈ GLn (R) = En (R)GLn−1 (R), es decir, N = T diag(1, 1, . . . , 1, u) = T Dn (u) con
u ∈ R∗ y T ∈ En (R). De este modo det(N ) = u, y como N ∈ SLn (R), necesari-
amente u = 1, Dn (u) = E y N = T es producto de elementales. Por lo tanto,
En (R) = SLn (R).
132 CAPÍTULO 5. GRUPOS DE MATRICES

Lema 5.3.9. Sea R un dominio


 euclidiano con función euclidiana δ y sea n ≥
n
2. Si α := a1 a2 · · · an ∈ R , entonces existe T ∈ En (R) tal que αT =
a 0 · · · 0 para cierto a ∈ R.
Demostración. Si α = 0, basta tomar a = 0 y T = E. Supóngase α 6= 0; entonces
{δ(ak ) | ak 6= 0} es un subconjunto no vacı́o de N. Sea m(α) := mı́n{δ(ak ) | ak 6= 0}
y sea i el menor de los ı́ndices tales que m(α) = δ(ai ). Si j 6= i es tal que aj 6= 0, exis-
ten qj , rj ∈ R tales que aj = ai qj +rj ,donde
 rj = 0 ó δ(rj ) < δ(ai ). Ası́, αT
 ij (−qj ) =
a1 · · · ai · · · aj − ai qj · · · an = a1 · · · ai · · · rj · · · an . Repitien-
do esta operación para cada j 6= i con aj 6= 0 se obtiene α0 := αT1 = a01 · · · a0n
donde a0i = ai , y para j 6= i, a0j = aj si aj = 0 y a0j = rj si aj 6= 0. Si a0j = 0 para
0
 0 
cada j 6= i, hemos terminado: en efecto, si i = 1, αT 1 = α = a 1 0 · · · 0 ; si
i 6= 1 tenemos α0 Ti1 (1)T1i (−1) = a0i 0 · · · 0 = αT1 Ti1 (1)T1i (−1). Ahora, si para


algún j 6= i se tiene a0j 6= 0, entonces m(α0 ) ≤ δ(a0j ) = δ(rj ) < δ(ai ), de donde resulta
m(α0 ) < m(α). En consecuencia, si el proceso se repite con α0 , en un número finito
de pasos obtenemos que todos los residuos son nulos, y por lo tanto el resultado
buscado.
Proposición 5.3.10. Si R es un dominio euclidiano y n ≥ 2, toda matriz de
GLn (R) se puede expresar como producto de matrices elementales y diagonales.
Demostración. (i) Sea M ∈ GLn (R), n ≥ 2. Por el lema 5.3.9, existe T ∈ En (R) tal
que  
m 0 ··· 0
 m2 
M T =  .. ,
 
 . M
f 
mn
f ∈ Mn−1 (R). Pero M es invertible, luego det(M ) ∈ R∗ y como det(M ) =
donde M
det(M T ) = m det(Mf), se tiene que m, det(M f) ∈ R∗ y por tanto, M
f ∈ GLn−1 (R).
Ası́,  
1 0 ··· 0
 m2 
−1
M T D1 (m ) =  ..
 

 . Mf 
mn
y,  
1 0 ··· 0
0 
−1
Tn1 (−mn ) · · · T21 (−m2 )M T D1 (m ) =  .. .
 
. M
f 
0
(ii) Probaremos ahora la afirmación por inducción sobre n.
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 133

 
−1 1 0
(a) Si n = 2, por (i) se tiene T21 (−m2 )M T D1 (m ) = = D2 (m),
e dado que
0 me
m
e = det(M f) ∈ R∗ , y entonces M = T21 (m2 )D2 (m)D
e 1 (m)T −1 es un producto
de matrices elementales y diagonales.
(b) Supóngase que la afirmación es válida para n = k − 1, k ≥ 3, y sea M ∈
GLk (R). Nuevamente por (i),
 
1 0 −1
M = T21 (m2 ) · · · Tk−1,1 (mk−1 ) f D1 (m)T ,
0 M

con Mf ∈ GLk−1 (R). Por hipótesis de inducción, M


f se puede expresar como
producto de matrices elementales y diagonales de orden k − 1; pero dichas
matrices pueden considerarse como elementales y diagonales de orden k y de
ello se sigue la afirmación.

Corolario 5.3.11. Si R es un dominio euclidiano y n ≥ 2, entonces En (R) =


SLn (R).
Demostración. Consecuencia directa de las proposiciones 5.3.10 y 5.3.7.
Definición 5.3.12. Sea A un anillo. Se dice que A tiene rango estable uno si
para cada a, b ∈ A tales que ha, bi = A existe c ∈ A tal que a + cb ∈ A∗ .
Proposición 5.3.13. Si A es un anillo con rango estable uno, toda matriz de
GLn (A), n ≥ 2, se puede expresar como producto de matrices elementales y dia-
gonales.
Demostración. (i) Sea M := [mij ] ∈ GLn (A), n ≥ 2. Como M −1 M = E, existen
r1 , . . . , rn ∈ A tales que r1 m11 + · · · + rn mn1 = 1; ası́, para cada a ∈ A tenemos a =
(ar1 )m11 +a(r2 m21 +· · ·+rn mn1 ), es decir, A = hm11 , r2 m21 +· · ·+rn mn1 i. Dado que
A tiene rango estable uno, existe c ∈ A tal que u := m11 +c(r2 m21 +· · ·+rn mn1 ) ∈ A∗ .
Ahora,
 
u m012 · · · m01n
 m21 m22 · · · m2n 
M1 := T12 (cr2 )T13 (cr3 ) · · · T1n (crn )M =  .. ..  ;
 
.. ..
 . . . . 
mn1 mn2 · · · mnn
pero u ∈ A∗ , luego
 
u m012 · · · m01n
 0 m0 · · · m0 
−1 −1 −1 22 2n 
M2 := Tn1 (−mn1 u ) · · · T31 (−m31 u )T21 (−m21 u )M1 =  .. ..  ,

.. ..
. . . . 
0 mn2 · · · m0nn
0
134 CAPÍTULO 5. GRUPOS DE MATRICES

y,

M3 : = M2 T12 (−m012 u−1 )T13 (−m013 u−1 ) · · · T1n (−m01n u−1 )M


 
u 0 ··· 0
 0 m0 · · · m0  1 0 
22 2n 
=  .. ..  = f D1 (u),

.. ..
. . . .  0 M
0 m0n2 · · · m0nn
 
f ∈ Mn−1 (A). De este modo obtenemos M = T1 1 0
donde M f D1 (u)T2 con
0 M

T1 := T1n (−crn ) · · · T12 (−cr2 )T21 (m21 u−1 ) · · · Tn1 (mn1 u−1 ) ∈ En (A)

y,
T2 := T1n (m01n u−1 ) · · · T12 (m012 u−1 ) ∈ En (A).
 
1 0
Como M, T1 , D1 (u) y T2 son elementos de GLn (A), necesariamente f es in-
0 M
vertible y por lo tanto Mf ∈ GLn−1 (A).
(ii) Demostraremos ahora la afirmación haciendo inducción sobre n.
 0
(a) Si n = 2, por (i) se tiene M = T1 10 m
e D1 (u)T2 = T1 D2 (m)D
e 1 (u)T2 , dado que

me ∈A .

(b) Supóngase el resultado


 válido
 para n = k − 1, k ≥ 3, y sea M ∈ GLk (A).
1 0
Por (i), M = T1 f D1 (u)T2 , donde M ∈ GLk−1 (A); por hipótesis de
f
0 M
f es producto de matrices elementales y diagonales de orden k −
inducción, M
1 que pueden considerarse de orden k; en consecuencia, M es producto de
matrices elementales y diagonales.

Corolario 5.3.14 (Teorema de estabilidad de Suslin). Si R es un anillo con-


mutativo con rango estable uno y n ≥ 2, entonces En (R) = SLn (R).

Demostración. Consecuencia directa de las proposiciones 5.3.13 y 5.3.7.

5.4. Grupos clásicos sobre anillos


A continuación se definen los anillos con involución, insumo importante para intro-
ducir los grupos clásicos sobre anillos.
5.4. GRUPOS CLÁSICOS SOBRE ANILLOS 135

Definición 5.4.1. Sea A un anillo. Una involución en A es una función ∗ : A → A


que satisface

(i) (a + b)∗ = a∗ + b∗

(ii) (ab)∗ = b∗ a∗

(iii) (a∗ )∗ = a

para cada a, b ∈ A.

Los ejemplos más conocidos de involuciones son la trasposición en Mn (A) y la


conjugación en C.

Proposición 5.4.2. La función identidad es una involución en A si, y sólo si, A


es un anillo conmutativo.

Demostración. La identidad siempre satisface (i) y (iii), y satisface (ii) si, y sólo si,
A es conmutativo.

Proposición 5.4.3. Sea ∗ una involución en el anillo A.

(i) 0∗ = 0 y 1∗ = 1.

(ii) Para cada a ∈ A, (−a)∗ = −a∗ ; y si a ∈ A∗ , (a−1 )∗ = (a∗ )−1 .

(iii) Si a∗ = a, entonces (−a)∗ = −a; y si a ∈ A∗ , (a−1 )∗ = a−1 .

(iv) Si a ∈ Z(A), también a∗ ∈ Z(A).

Demostración. (i) 0∗ = (0 + 0)∗ = 0∗ + 0∗ , luego 0∗ = 0. Por otro lado, 1∗ 1 =


1∗ (1∗ )∗ = (1∗ 1)∗ = (1∗ )∗ = 1 de donde 1∗ = 1.
(ii) (−a)∗ + a∗ = (−a + a)∗ = 0∗ = 0, luego (−a)∗ = −a∗ . Análogamente,
(a−1 )∗ a∗ = (aa−1 )∗ = 1∗ = 1 y a∗ (a−1 )∗ = (a−1 a)∗ = 1∗ = 1, de manera que a∗ ∈ A∗
con inverso (a−1 )∗ .
(iii) Según (ii), (−a)∗ = −a∗ y (a−1 )∗ = (a∗ )−1 .
(iv) Sea b ∈ A; entonces a∗ b = a∗ (b∗ )∗ = (b∗ a)∗ = (ab∗ )∗ = (b∗ )∗ a∗ = ba∗ , luego

a ∈ Z(A).

Definición 5.4.4. Sean A un anillo y ∗ una involución en A. Dada una matriz


F := [fij ] ∈ Mm×n (A), la matriz trasjugada de F respecto a ∗ es F ∗ := [fji∗ ] ∈
Mn×m (A).

Es decir, F ∗ se obtiene de F trasponiendo la matriz de imágenes por ∗. Nótese


que si ∗ es la identidad (A conmutativo), se tiene F ∗ = F T .
136 CAPÍTULO 5. GRUPOS DE MATRICES

Proposición 5.4.5. Sea ∗ una involución en el anillo A. Si F := [fij ] ∈ Ml×m (A),


G := [gij ] ∈ Mn×p (A) y a ∈ A, entonces

(i) (F + G)∗ = F ∗ + G∗ siempre que l = n y m = p.

(ii) (GF )∗ = G∗ F ∗ siempre que m = n.

(iii) (F ∗ )∗ = F .

(iv) (a · F )∗ = F ∗ · a∗ .

(v) (F −1 )∗ = (F ∗ )−1 siempre que l = m y F sea invertible.

Demostración. (i) Evidente. Pn ∗


(ii) Sea FP G := [bij ], entonces bij = k=1 fik gkj , y la entrada (i, j) de (F G) es
∗ n ∗
P n ∗ ∗ ∗ ∗
(bji ) = ( k=1 fjk gki ) = k=1 gki fjk . Por otro lado, si G = [cij ] yP F = dij (de
∗ ∗ ∗ ∗ n
manera
Pn que c ij = gji y d ij = f ji ), entonces la entrada (i, j) de G F es k=1 cik dkj =
∗ ∗ ∗ ∗ ∗
k=1 gki fjk y ası́ (F G) = G F .
(iii) Evidente.
(iv) La entrada (i, j) de (a · F )∗ es (afji )∗ = fji∗ a∗ que es la entrada (i, j) de
F ∗ · a∗ .
(v) F ∗ (F −1 )∗ = (F −1 F )∗ = E ∗ = E. Análogamente, (F −1 )∗ F ∗ = (F F −1 )∗ =
E ∗ = E, de modo que F ∗ es invertible con inversa (F ∗ )−1 = (F −1 )∗ .

Definición 5.4.6. Sea A un anillo con unidad, ∗ una involución en A y ε ∈ Z(A)


tal que εε∗ = 1.

(i) F ∈ Mn (A) es alternada si existe F1 ∈ Mn (A) tal que F = F1 − ε · F1∗

(ii) F ∈ Mn (A) es hermitiana si F = ε · F ∗ .

(iii) F ∈ Mn (A) es antihermitiana si F = −ε · F ∗ .

La alternancia depende de ε y de la involución; nótese que por lo menos ε = 1 y


ε = −1 satisfacen εε∗ = 1. Por otra parte, si ∗ es la identidad (A conmutativo), las
matrices hermitianas se denominan simétricas y las antihermitianas, antisimétricas.

Proposición 5.4.7. Si F es alternada, entonces F es antihermitiana.

Demostración. Como F alternada, sea F = F1 − ε · F1∗ ; entonces −ε · F ∗ = −ε · (F1 −


ε · F1∗ )∗ = −ε · (F1∗ − F1 · ε∗ ) = −ε · (F1∗ − ε∗ · F1 ) = −ε · F1∗ + εε∗ · F1 = F1 − ε · F1∗ = F .
Ası́, F = −εF ∗ y F es antihermitiana.

Proposición 5.4.8. Sea A un anillo tal que 2A = A.

(i) F ∈ Mn (A) es alternada si, y sólo si, es antihermitiana.


5.4. GRUPOS CLÁSICOS SOBRE ANILLOS 137

(ii) Si F ∈ Mn (A) es hermitiana y antihermitiana, entonces F = 0.


Demostración. 2A = A significa que 1 + 1 ∈ A∗ , es decir, que si a ∈ A es tal que
a + a = 0 entonces a = 0.
(i) Si F es alternada, es antihermitiana por la proposición anterior. Supóngase
que F es antihermitiana, entonces (1 + 1) · F = F + F = F − ε · F ∗ . Si 2 = 1 + 1,
2∗ = (1 + 1)∗ = 1∗ + 1∗ = 1 + 1 = 2; por hipótesis 2 ∈ A∗ , luego (2−1 )∗ = 2−1
y ası́ F = 2−1 · [(1 + 1) · F ] = 2−1 · (F − ε · F ∗ ) = (2−1 · F ) − ε · (2−1 · F ∗ ) =
(2−1 · F ) − ε · (F · 2−1 )∗ = (2−1 · F ) − ε · (2−1 · F )∗ ya que 2−1 ∈ Z(A). Como
F = (2−1 · F ) − ε(2−1 · F )∗ , entonces F es alternada.
(ii) Dado que F es antihermitiana, ε · F ∗ = −F ; pero también es hermitiana,
luego ε·F ∗ = F , de donde F = −F , F +F = 0, y de 2A = A se sigue que F = 0.
Proposición 5.4.9. Si ∗ es la identidad (A conmutativo) y ε = 1, F es alternada
si, y sólo si, XF X T = 0 para cada matriz fila X ∈ M1×n (A).
Demostración. ⇒): Sea F alternada con F = F1 − F1T ; entonces, XF X T = X(F1 −
F1T )X T = XF1 X T − XF1T X T = XF1 X T − (XF1 X T )T , pero XF1 X T ∈ M1 (A) es
igual a su traspuesta luego XF X T = 0.
⇐): Sea F := [fij ] ∈ Mn (A) tal que XF X T = 0 para cada X ∈ M1×n (A). Sea Xi
la matriz fila con 1 en la entrada i-ésima y 0 en las demás; entonces Xi F XiT = fii = 0
para 1 ≤ i ≤ n. Para i 6= j, sea Xij la matriz fila con 1 en las entradas i, j y 0
en las restantes; tenemos Xij F XijT = fij + fii + fji + fjj = fij + fji y fji = −fij
(1 ≤ i 6= j ≤ n), de manera que F es antisimétrica. Finalmente, F1 := [bij ] se define
de la siguiente forma: bij := 0 para i ≤ j y bij := fij para i > j; ası́, F = F1 − F1T
ya que F1 es la “mitad” inferior de F , y de esta manera F es alternada.
Proposición 5.4.10. Sean ∗ una involución en A y F ∈ Mn (A), entonces
(i) {M ∈ GLn (A) | M ∗ F M = F } es un subgrupo de GLn (A).

(ii) {M ∈ GLn (A) | ∃rM ∈ Z(A)∗ , M ∗ F M = rM · F } es un subgrupo de GLn (A).


Demostración. (i) Como E ∗ = E ∈ GLn (A) y E ∗ F E = EF E = E, el conjunto no
es vacı́o. Si M, N satisfacen M ∗ F M = F y N ∗ F N = F entonces
(M N )∗ F (M N ) = N ∗ (M ∗ F M )N = N ∗ F N = F ,
(M −1 )∗ F M −1 = (M −1 )∗ (M ∗ F M )M −1 = (M M −1 )∗ F (M M −1 ) = E ∗ F E = F ,
por lo tanto el conjunto resulta ser un subgrupo de GLn (A).
(ii) E pertenece al conjunto, considerando en este caso rE = 1. Si M, N son
tales que M ∗ F M = rM · F y N ∗ F N = rN · F con rM , rN elementos invertibles
del centro de A, entonces (M N )∗ F (M N ) = N ∗ (M ∗ F M )N = N ∗ (rM · F )N =
rM · N ∗ F N = rM (rN · F ) = rM rN · F con rM rN ∈ Z(A)∗ , y (M −1 )∗ F M −1 =
−1 −1 −1 −1
(M −1 )∗ [rM ·M ∗ F M ]M −1 = rM ·(M −1 )∗ M ∗ F M M −1 = rM ·F con rM ∈ Z(A)∗ .
138 CAPÍTULO 5. GRUPOS DE MATRICES

Definición 5.4.11. Sean ∗ una involución en A y F ∈ Mn (A).


(i) El grupo unitario correspondiente a F es

U (F ) := {M ∈ GLn (A) | M ∗ F M = F }.

(ii) El grupo de similitudes correspondiente a F es

GU (F ) := {M ∈ GLn (A) | (∃rM ∈ Z(A)∗ , M ∗ F M = rM · F };

rM se denomina multiplicador de M ∈ GU (F ).
Por consiguiente, U (F ) es el subgrupo de GU (F ) constituido por las matrices de
multiplicador 1.
Proposición 5.4.12. Sea ∗ una involución en A, ε ∈ Z(A) tal que εε∗ = 1 y
Q ∈ Mn (A). Entonces X := {M ∈ GLn (A) | M ∗ QM − Q es alternada } es un
subgrupo de GLn (A).
Demostración. Como la matriz nula es alternada (0 = 0 − ε · 0∗ ) E ∈ X y X 6= ∅.
Si M, N ∈ X, entonces M ∗ QM − Q = M1 − ε · M1∗ y N ∗ QN − Q = N1 − ε · N1∗
para ciertas M1 , N1 ∈ Mn (A). Ahora, (M N )∗ Q(M N ) − Q = N ∗ (M ∗ QM )N − Q =
N ∗ (Q + M1 − ε · M1∗ )N − Q = N ∗ QN − Q + N ∗ (M1 − ε · M1∗ )N = N1 − ε ·
N1∗ + N ∗ M1 N − εN ∗ M1∗ N = (N1 + N ∗ M1 N ) − ε · (N1 + N ∗ M1 N )∗ es alternada, de
modo que M N ∈ X. Por otro lado, QM − (M −1 )∗ Q = (M −1 )∗ M1 − ε · (M −1 )∗ M1∗ ,
luego Q − (M −1 )∗ QM −1 = (M −1 )∗ M1 M −1 − ε · (M −1 )∗ M1∗ M −1 , y en consecuencia
(M −1 )∗ QM −1 −Q = [ε·(M −1 )∗ M1∗ M −1 ]−ε·[ε·(M −1 )∗ M1∗ M −1 ]∗ , luego M −1 ∈ X.
Definición 5.4.13. Sea ∗ una involución en A, ε ∈ Z(A) tal que εε∗ = 1. Si
Q ∈ Mn (A), el grupo ortogonal correspondiente a Q es
O(Q) := {M ∈ GLn (A) | M ∗ QM − Q es alternada }.
En el caso particular de los anillos conmutativos se tienen otros dos grupos
clásicos.
Definición 5.4.14. Sean R un anillo conmutativo y ∗ una involución en R.
(i) Sea F ∈ Mn (R). El grupo unitario especial correspondiente a F es

SU (F ) := U (F ) ∩ SLn (R).

(ii) Sea Q ∈ Mn (R). El grupo ortogonal especial correspondiente a Q es

SO(Q) := O(Q) ∩ SLn (R).


5.5. EJERCICIOS 139

Proposición 5.4.15. En las condiciones de la anterior definición se tiene:

(i) SU (F )  U (F ).

(ii) SO(Q)  O(Q).

Demostración. Sean M ∈ SU (F ) (respectivamente SO(Q)) y N ∈ U (F ) (respecti-


vamente O(Q)); entonces det(N −1 M N ) = det(M ) = 1.

Para terminar veamos que los grupos clásicos introducidos en esta sección corres-
ponden a aquellos que vimos para cuerpos al principio del capı́tulo. Sea K un cuerpo,
para los grupos ortogonales se toma la identidad como involución y Q simétrica,
de manera que para cada matriz M se tiene que M ∗ = M T y si M ∈ O(Q),
entonces (M T QM − Q)T = M T QT M − QT = M T QM − Q, es decir, M T QM − Q
es simétrica, pero por definición de O(Q) esta matriz también es alternada, por lo
tanto antisimétrica. En consecuencia, si 1 + 1 6= 0 en K, se tiene M T QM − Q = 0
(proposición 5.4.8) luego O(Q) = {M ∈ GLn (K)|M T QM = Q} = U (Q), y este
grupo coincide con el grupo ortogonal definido para cuerpos. Si además se toma
Q invertible, det(M ) = ±1 y SU (Q) es el subgrupo de matrices de determinante
“positivo”, de ahı́ que en algunas ocasiones se utilice la notación U + (Q). Si F es
antihermitiana (antisimétrica), entonces el grupo U (F ) es el grupo grupo simplicial.
El grupo de similitudes es entonces

GU (F ) = {M ∈ GLn (K) | ∃rM ∈ K, M ∗ F M = rM · F }.

En el caso particular K = R, tomando la identidad como involución, y dado que E


es simétrica, tenemos que O(E) = U (E) = {M ∈ Mn (R) | M T M = E} = On (R)
que es el grupo ortogonal “tradicional”; el grupo unitario “tradicional” resulta al
tomar K = C, F = E y la conjugación como involución, pues entonces U (E) =
{M ∈ Mn (C)|M ∗ M = E} = Un (C).

5.5. Ejercicios
1. Demuestre que existe al menos una matriz propiamente elemental de SL2 (Z3 )
que no pertenece a [SL2 (Z3 ), SL2 (Z3 )].

2. Calcule el número de formas bilineales simétricas no degeneradas sobre el


espacio vectorial Z22 .

3. Sea dimV = n y sea K un cuerpo tal que char(K) 6= 2. Sea f una forma
bilineal simétrica sobre V . Demuestre que existe una base X en V tal que
mX (f ) es diagonal.
140 CAPÍTULO 5. GRUPOS DE MATRICES

4. Si dimC V = n y f es una forma bilineal simétrica sobre V con rank(f ) = r,


entonces existe una base ordenada X = {v1 , . . . vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 ≤ i ≤ r, f (vi , vi ) = 0 para i > r.

5. Si dimR V = n y f una forma bilineal simétrica sobre V con rank(f ) = r.


Entonces, existe una base ordenada X = {v1 , v2 , ..., vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = ±1 para 1 ≤ i ≤ r, y f (vi , vi ) = 0 para i > r.
(c) El número de vectores de la base X para los cuales en (b) se da el signo
positivo es independiente de dicha base.

6. Sea dimK V = n y f una forma bilineal antisimétrica sobre el cuerpo K,


donde char(K) 6= 2. Demuestre que existe una base ordenada X en V tal que
la matriz de f es suma directa de la matriz nula de orden (n − 2k) y k matrices
2×2 de la forma  
0 1
.
−1 0

7. Formas sobre espacios no necesariamente libres. Sean A un anillo y


V un A-espacio (A-módulo, véase [7]); sea ∗ una involución en A y ε ∈ Z(A)
es tal que εε∗ = 1.

a) Una forma sesquilineal en V es una función F : V × V → A que


satisface:
(i) F (u1 + u2 , v) = F (u1 , v) + F (u2 , v), F (u · a, v) = a∗ F (u, v);
(ii) F (u, v1 + v2 ) = F (u, v1 ) + F (u, v2 ), F (u, v · a) = F (u, v)a,
para cada u, u1 , u2 , v, v1 , v2 ∈ V y cada a ∈ A.
Demuestre que si F y G son formas sesquilineales en V , la función F + G
definida por (F + G)(u, v) = F (u, v) + G(u, v), para todo u, v ∈ V , es
una forma sesquilineal en V .
b) Demuestre que el conjunto de las formas sesquilineales en V es un grupo
abeliano con la adición definida como antes.
c) Si A es conmutativo, el conjunto de las formas sesquilineales en V es una
A-espacio.
d ) Sea Λ es un subgrupo aditivo del anillo A que satisface:
(i) Para cada λ ∈ Λ y a ∈ A, se tiene a∗ λa ∈ Λ.
(ii) Λε := {a − εa∗ | a ∈ A} está contenido en Λ: Λε ⊆ Λ.
5.5. EJERCICIOS 141

(iii) Λε := {a ∈ A | a = −εa∗ } contiene a Λ: Λ ⊆ Λε .


Demuestre que Λε y Λε son subgrupos aditivos de A que a su vez satisfacen
(i), (ii) y (iii).
e) Sea Λ como antes. Demuestre que:
(i) Si Λ = 0 entonces A es conmutativo, ∗ es la identidad y ε = 1.
(ii) Si 2A = A es conmutativo, ∗ es la identidad y ε = 1, entonces
Λ = Λε = 0.
(iii) Si Λ = A entonces A es conmutativo, ∗ es la identidad y ε = −1.
(iv) Si 2A = A entonces Λε = Λε = Λ.
f ) Sea F una forma sesquilineal en V .
(i) F es hermitiana si F (u, v) = εF ∗ (v, u) para cada u, v ∈ V .
(ii) F es antihermitiana si F (u, v) = −εF ∗ (v, u) para cada u, v ∈ V .
(iii) F es Λ-alternada si satisface:
(i) F (v, v) ∈ Λ para cada v ∈ V .
(ii) F es antihermitiana.
Si Λ = Λε , demuestre que una forma sesquilineal es Λ-alternada si, y
sólo si, es antihermitiana. Además, pruebe que esto ocurre en particular
cuando 2A = A, pues en tal caso el único subgrupo Λ es Λε = Λε .
g) F una forma sesquilineal en V . Demuestre que:
(i) Si F se puede expresar como F (u, v) = F1 (u, v) + εF1∗ (v, u), para
cada u, v ∈ V , siendo F1 una forma sesquilineal en V , entonces F es
Λ-alternada.
(ii) Cuando 2A = A, el recı́proco de (i) es cierto.
h) Demuestre que el conjunto FΛ de las formas Λ-alternadas es un subgrupo
normal del grupo de formas sesquilineales.
8. Formas cuadráticas sobre espacios no necesariamente libres. Sean
A un anillo y V un A-espacio (A-módulo, véase [7]); sea ∗ una involución en
A y ε ∈ Z(A) es tal que εε∗ = 1. Dada una forma sesquilineal F en V , la
forma cuadrática correspondiente a F es la clase q := F + FΛ . Es decir, si
Q es una forma sesquilineal, entonces Q ∈ q si, y sólo si, Q − F es una forma
Λ-alternada. Nótese que q depende de A, ∗, ε, Λ y F .
Sea q una forma cuadrática y Q ∈ q.
(i) La distancia según q es la función
| |q : V → A/Λ
v 7→ |v|q := Q(v, v) + Λ.
142 CAPÍTULO 5. GRUPOS DE MATRICES

(ii) El producto escalar según q es la función

(, )q : V × V → A
(u, v) 7→ (u, v)q := Q(u, v) + εQ∗ (v, u).

a) Demuestre que la distancia y el producto escalar no dependen de la forma


Q ∈ q elegida.
b) Sea q una forma cuadrática. Demuestre que:
(i) El producto escalar según q es una forma sesquilineal hermitiana.
(ii) Para cada v ∈ V , (v, v)q = a + εa∗ con a ∈ |v|q arbitrario.
(iii) Para cada u, v ∈ V , |u + v|q = |u|q + |v|q + (u, v)q .
(iv) Para cada b ∈ A, v ∈ V se tiene |v · b|q = b∗ ab + Λ, con a ∈ |v|q
arbitrario.
c) Sea q una forma cuadrática. Demuestre que:
(i) La distancia y el producto escalar determinan unı́vocamente a q.
(ii) Si Λ = Λε , el producto escalar determina unı́vocamente a q.
(iii) Si Λ no contiene ideales biláteros no nulos de A, la distancia deter-
mina unı́vocamente a q.
( Siempre que se pueda tomar Λ = Λε , y cuando 2A = A, esta es la única
opción que se tiene. Por otro lado, la condición en (iii) significa que si I
es un ideal bilátero de A e I ⊆ Λ, entonces I = 0. Un ejemplo se tiene
cuando Λ = 0).

9. Grupos clásicos sobre espacios no necesariamente libres. Sean A un


anillo y V un A-espacio (A-módulo, véase [7]); sea ∗ una involución en A y
ε ∈ Z(A) es tal que εε∗ = 1.
a) Sea F una forma sesquilineal hermitiana o antihermitiana en V . De-
muestre que el conjunto

X := {ρ ∈ AutA (V ) | F (ρ(u), ρ(v)) = F (u, v) para cada u, v ∈ V }

es un subgrupo de AutA (V ).
b) Si F es una forma sesquilineal hermitiana o antihermitiana en V , el grupo
unitario correspondiente a F es

U (F ) := {ρ ∈ AutA (V ) | F (ρ(u), ρ(v)) = F (u, v) para cada u, v ∈ V }.

Si Q es una forma sesquilineal en V y ρ ∈ AutA (V ), demuestre que la


función RQ definida como RQ (u, v) = Q(ρ(u), ρ(v)), para cada u, v ∈ V ,
es una forma sesquilineal en V .
5.5. EJERCICIOS 143

c) Sea q una forma cuadrática.


(i) ρ ∈ AutA (V ) preserva q, si para cada Q ∈ q, la forma sesquilineal
RQ − Q es Λ-alternada.
(ii) ρ ∈ AutA (V ) preserva la distancia | |q si |ρ(v)|q = |v|q para cada
v ∈V.
(iii) ρ ∈ AutA (V ) preserva el producto escalar (, )q si (ρ(u), ρ(v))q =
(u, v)q para cada u, v ∈ V .
Ası́ pues, ρ preserva q si la forma sesquilineal definida por Q(ρ(u), ρ(v))−
Q(u, v) es Λ-alternada. Como la distancia y el producto escalar determi-
nan q y recı́procamente, demuestre que: ρ ∈ AutA (V ) preserva q si, y sólo
si, preserva la distancia | |q y el producto escalar (, )q .
d ) Sea q una forma cuadrática. Demuestre que el conjunto O(q) := {ρ ∈
AutA (V ) | ρ preserva q} es un subgrupo de AutA (V ) y se denomina el
grupo ortogonal correspondiente a q.
e) Sea q una forma cuadrática y F la forma sesquilineal hermitiana F = (, )q .
Demuestre que
(i) O(q) ⊆ U (F ).
(ii) Cuando Λ = Λε , O(q) = U (F ).
f ) Cuando Λ = A, o cuando Λ = 0 y 2A = A, demuestre qu O(q) = U (F ).
Bibliografı́a

[1] Brown, W., Matrices over Commutative Rings, Marcel Dekker, 1993. vi, 19,
38, 39

[2] Cohn, P., Free Rings and their Relations, Academic Press, 1985. 17

[3] Kostrikin, A. I. and Manin, Y. I., Linear Algebra and Geometry, Algebra,
Logic and Applications Series Volume 1, Gordon and Breach Science Publishers,
1997.

[4] Lezama, O., Anillos dimensionales, Bol. de Mat., Vol. XIX, 1985, 194-220.

[5] Lezama, O., Cuadernos de Álgebra, No. 1: Grupos, SAC2 , Departamen-


to de Matemáticas, Universidad Nacional de Colombia, sede de Bogotá,
sites.google.com/a/unal.edu.co/sac2 10, 17, 22, 109, 115, 116, 117

[6] Lezama, O., Cuadernos de Álgebra, No. 2: Anillos, SAC2 , Departamen-


to de Matemáticas, Universidad Nacional de Colombia, sede de Bogotá,
sites.google.com/a/unal.edu.co/sac2 vi, 1, 3, 10, 14, 37, 41, 70, 114

[7] Lezama, O., Cuadernos de Álgebra, No. 3: Módulos, SAC2 , Departamen-


to de Matemáticas, Universidad Nacional de Colombia, sede de Bogotá,
sites.google.com/a/unal.edu.co/sac2 vi, 1, 4, 5, 6, 7, 10, 12, 16, 17, 50,
69, 77, 83, 88, 140, 141, 142

[8] Lezama, O & Villamarı́n G., Anillos, Módulos y Categorı́as, Universidad


Nacional de Colombia, 1994. v, 3, 5

[9] Lang, S., Algebra, Graduate Texts in Mathematics, Springer, 2002. v, 3, 22

[10] MacDonald, B., Linear Algebra over Commutative Rings, Marcel Dekker,
1984. vi

[11] Park, H. and Woodburn, C., An algorithmic proof of Suslin’s stability the-
orem for polynomial rings, J. Algebra, 178, 1995, 277-298. 127, 130

144
BIBLIOGRAFÍA 145

[12] Pinto, M., Una Prueba Algorı́tmica para el Teorema de Estabilidad de Suslin
sobre Dominios de Dedekind, Tesis de Maestrı́a, Universidad Nacional de Colom-
bia, Bogotá, 2009. 127, 130

[13] Suslin. A, On the structure of the special linear group over polynomial rings,
Math. USSR Izv., 11, 1977, 221 − 238. 33, 127

Potrebbero piacerti anche