Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
No. 4
Álgebra lineal
Oswaldo Lezama
Departamento de Matemáticas
Facultad de Ciencias
Universidad Nacional de Colombia
Sede de Bogotá
30 de mayo de 2017
ii
Prólogo v
1. Matrices 1
1.1. Estructuras algebraicas básicas . . . . . . . . . . . . . . . . . . . . . 1
1.2. Matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Inversa de una matriz y cambio de base . . . . . . . . . . . . . . . . . 13
1.4. Matrices y operaciones elementales . . . . . . . . . . . . . . . . . . . 17
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3. Producto tensorial 50
3.1. Producto tensorial de espacios vectoriales . . . . . . . . . . . . . . . . 50
3.2. Producto tensorial de transformaciones y matrices . . . . . . . . . . . 54
3.3. Funciones multilineales y tensores . . . . . . . . . . . . . . . . . . . . 58
3.4. Tensores simétricos, antisimétricos y alternados . . . . . . . . . . . . 63
3.5. Álgebras y producto tensorial . . . . . . . . . . . . . . . . . . . . . . 68
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4. Formas canónicas 77
4.1. Polinomios mı́nimo y caracterı́stico . . . . . . . . . . . . . . . . . . . 77
4.2. Forma canónica clásica . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.3. Forma canónica racional . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.4. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 92
4.5. Forma canónica diagonal: valores y vectores propios . . . . . . . . . . 97
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
iii
iv CONTENIDO
Bibliografı́a 144
Prólogo
v
vi PRÓLOGO
finitas tiene dimensión. El álgebra lineal sobre anillos ha sido tratada también por
otros autores, véanse por ejemplo las monografı́as [1] y [10] en las cuales se estudia
el álgebra lineal sobre anillos conmutativos. Los tres capı́tulos finales del presente
cuaderno corresponden a temas de álgebra lineal avanzada, a saber: el producto
tensorial y exterior de espacios, las formas canónicas de operadores y matrices es-
tudiadas desde la perspectiva de la teorı́a de módulos, y el estudio de los grupos de
matrices, incluidos los grupos clásicos.
Para aprovechar mejor el material del presente cuaderno es conveniente que el
lector haya estudiado previamente un curso elemental de álgebra lineal clásica, es
decir, de álgebra lineal sobre cuerpos, y un curso básico de anillos y módulos (véanse
por ejemplo [6] y [7]). A denotará un anillo no necesariamente conmutativo y con
unidad 1. A∗ es el grupo multiplicativo de los elementos invertibles del anillo A. Si
f es un homomorfismo de anillos, entonces f (1) = 1.
El autor desea expresar su agradecimiento a Claudia Milena Gallego Joya, dis-
cı́pula y amiga, por la digitalización del material del presente cuaderno, y también
a Arnold Oostra por la revisión juiciosa y sus aportes en el último capı́tulo. Fi-
nalmente, el autor desea expresar su agradecimiento a Fabio Alejandro Calderón
Mateus por la lectura cuidadosa y las correcciones finales introducidas al presente
cuaderno.
Oswaldo Lezama
Departamento de Matemáticas
Universidad Nacional de Colombia
Bogotá, Colombia
jolezamas@unal.edu.co
Capı́tulo 1
Matrices
(a ∗ b) ∗ c = a ∗ (b ∗ c)
1
2 CAPÍTULO 1. MATRICES
e∗a=a=a∗e
a ∗ a0 = e = a0 ∗ a
a∗b=b∗a
a · (b + c) = a · b + a · c,
(a + b) · c = a · c + b · c.
1.1. ESTRUCTURAS ALGEBRAICAS BÁSICAS 3
(ii) f (v · a) = f (v) · a
para cualesquiera vectores u, v ∈ V y cualquier escalar a ∈ A. Se dice también que
f es un operador lineal o un A-homomorfismo.
Ejemplo 1.1.17. La función
An → Am
(a1 , . . . , an ) 7→ (b1 a1 + c1 an , b2 a1 + c2 an , . . . , bm a1 + cm an )
(i) A es un anillo.
(
Eiq , j = p
Eij Epq =
0, j 6= p.
Definición 1.2.3. Sean B = [bij ] ∈ Mm×n (A), C = [cij ] ∈ Mn×p (A), se define el
producto
n
X
BC := D = [dij ], dij := bik ckj , 1 ≤ i ≤ m, 1 ≤ j ≤ p.
i=1
BC = [B1 C · · · Bm C]T
EB = B, BE = B,
HomA (V, W ) ∼
= Mm×n (A) (isomorfismo de grupos).
(ii) EndA (V ) ∼
= Mn (A) (isomorfismo de anillos).
luego hkj = m
P
l=1 gkl flj , es decir, H = GF .
Tomando V = W = U y X = Y = Z en (1.2.4) y considerando lo probado en (i)
se obtiene que EndA (V ) y Mn (A) son anillos isomorfos. Notemos que mX,X (iV ) :=
mX (iV ) = E.
(iii) Esto es consecuencia directa de (i) y (ii).
En efecto,
Ppusando la notación de la demostración del toerema 1.2.6 tenemos que
g(yj ) = k=1 gjk · zk , 1 ≤ j ≤ m, mY,Z (g) := [gij ] ∈ Mm×p (A), luego
m p
m X
X X
(gf )(xi ) = fij · g(yj ) = fij gjk · zk .
j=1 j=1 k=1
f
A1×n − → A1×m
(a1 , . . . , an ) 7→ (a1 , . . . , an )F (1.2.7)
(ii) Otra alternativa para los espacios a izquierda es disponer nuevamente los
coeficientes de la expansión por columnas y mantener la notación usual de funciones
a derecha, en tal caso resulta
m p
m X
X X
(gf )(xj ) = g( fij · yi ) = fij gki · zk ;
i=1 i=1 k=1
si cambiamos el anillo A por su anillo opuesto Aop , entonces tendrı́amos mX,Z (gf ) =
mY,Z (g)mX,Y (f ), y en consecuencia el isomorfismo EndA (A V ) ∼ = Mn (Aop ). Otra
variante de esta alternativa es no usar el anillo opuesto, pero entonces la identidad
anterior dice que
mX,Z (gf ) = (mX,Y (f )T mY,Z (g)T )T . (1.2.8)
La matriz F ∈ Mr×s (S) define un homomorfismo
f
Ss −
→ Sr
a 7→ (aT F T )T (1.2.9)
AutA (V ) ∼
= GLn (A) (isomorfismo de grupos).
Demostración. Esto es consecuencia del teorema anterior y los detalles de la prueba
los dejamos al lector.
El grupo GLn (A) y varios de sus subgrupos más destacados serán estudiados
en forma detallada en el último capı́tulo del presente cuaderno. Pasamos ahora a
estudiar los cambios de bases en los espacios libres y a entender su efecto en las
representaciones matriciales de las transformaciones lineales.
Proposición 1.3.3. Sea V un espacio libre con base X = {x1 , . . . , xn } y sea B =
[bij ] ∈ Mn×m (A). Entonces el conjunto
n
X
Y := {yj = xi · bij |1 ≤ j ≤ m} (1.3.1)
i=1
notemos que B no es invertible como matriz entera ya que su inversa como matriz
real es
−1 −2 1
B = 3 ∈ M2 (Z);
2
− 12
Definición 1.3.7. Dos matrices P ∈ Mp×q (A) y Q ∈ Mm×n (A) son semi-equi-
valentes si existen matrices semi-invertibles D ∈ Mp×m (A) y C ∈ Mq×n (A) tales
que
Q = D0 P C.
Q = D0 P C.
luego
Pn
f (xj ) · cjt = nj=1 ( m
Pm Pn
f (x0t ) =
P P
j=1 k=1 yk · pkj ) · cjt = k=1 yk · ( j=1 pkj cjt );
f (x0t ) = pr=1 ( m
P P Pm Pp
k=1 yk · dkr ) · qrt = k=1 yk · ( r=1 dkr qrt ),
{(1, 0), (0, 1)}, {(−1, 0), (0, −1)}, {(1, 0), (0, −1)}, {(−1, 0), (0, 1)}, {(1, 1), (1, 2)}.
En el siguiente capı́tulo veremos que {(a, b), (c, d)} es una base de Z2 si, y sólo si,
ad − bc = ±1. El problema de la unicidad entonces es mejor plantearlo en términos
del tamaño de las bases. En [7] se prueba que todo espacio vectorial libre finitamente
generado (f.g.) posee una base finita, y también que, en un espacio vectorial libre
todas las bases son finitas o bien todas son infinitas. Además, para espacios de bases
infinitas no hay problema con el tamaño de las bases, todas tienen la misma cantidad
de elementos. Sin embargo, existen anillos A para los cuales se tiene la siguiente
propiedad: si V es un A-espacio de bases finitas, no necesariamente todas las bases
de V tienen el mismo número de elementos. Un ejemplo puede ser consultado en [7].
(ii) Sea V un A-espacio libre. Se dice que V es dimensional si todas las bases de
V tienen el mismo número de elementos. Este número se denomina la dimensión
de V y se denota por dimA (V ). Se dice que A es un anillo dimensional si todos
sus A-espacios libres son dimensionales (en inglés IBN , invariant basis number). La
mayorı́a de los anillos estudiados en álgebra son dimensionales (véase [2] y [5]). Por
ejemplo, los anillos de división son dimensionales: en efecto, sean X y X 0 dos bases de
tamaños n y n0 , respectivamente, de un espacio vectorial V sobre un anillo de división
A; si n > n0 , entonces, tal como se prueba en espacios vectoriales sobre cuerpos (sin
usar conmutatividad), n0 + 1 vectores de X son linealmente dependientes, lo cual es
falso ya que X es l.i. Los anillos conmutativos también son dimensionales (esto lo
probaremos más adelante).
(iii) Notemos que un anillo A es dimensional si, y sólo si, las únicas matrices
semi-invertibles sobre A son las matrices cuadradas (en cuyo caso son invertibles).
Esto hace que si A es un anillo dimensional, entonces todos los A-espacios vectoriales
libres izquierdos son dimensionales, es decir, A es dimensional a derecha si, y sólo
si, A es dimensional a izquierda (véase [5]). Además, en anillos dimensionales, semi-
invertible = invertible y semi-equivalente = equivalente.
(iv) En adelante en el presente cuaderno asumiremos que A es un
anillo dimensional .
1
..
. a
Tij (a) := E + Eij · a = ..
, a ∈ A, i 6= j.
.
..
.
1
(ii) Permutaciones:
(iii) Diagonales:
1.5. Ejercicios
1. Determine 10 bases diferentes en Z2 distintas de la base canónica.
8. Sea f : V → W una t.l. para la cual existe una función g : W → V tal que
f g = iW y gf = iV . Demuestre que g es una t.l.
13. Demuestre que las columnas de la matriz B del ejemplo 1.3.6 son l.i.
conformado por todas las matrices en las cuales las primeras r filas son nulas
es un ideal derecho de Mn (A). De igual manera, demuestre que el conjunto
de matrices de Mn (A) conformado por todas las matrices en las cuales las
primeras r columnas son nulas es un ideal izquierdo de Mn (A).
V1 + V2 := {vi + v2 |v1 ∈ V1 , v2 ∈ V2 }
18. Sea V un A-espacio libre con una base de n elementos. Sea f : V → V una
t.l. Muestre con un ejemplo que la sobreyectividad de f y la inyectividad no
son condiciones equivalentes.
A1 × · · · × An := {(a1 , . . . , an )|ai ∈ Ai , 1 ≤ i ≤ n}
1.5. EJERCICIOS 21
bajo las operaciones definidas por componentes tiene estructura de anillo. De-
muestre además los siguientes isomorfismos de anillo y grupo, respectivamente:
Mn (A1 × · · · × An ) ∼
= Mn (A1 ) × · · · × Mn (An ),
GLn (A1 × · · · × An ) ∼
= GLn (A1 ) × · · · × GLn (An ).
Determinantes y sistemas de
ecuaciones lineales
2.1. Determinantes
El enfoque que daremos a la función determinante utiliza el grupo de permutaciones
de un conjunto finito, el cual trataremos a continuación.
Definición 2.1.1. Para cada n ≥ 1 sea Sn el conjunto de todas las funciones biyec-
tivas del conjunto In := {1, 2, . . . , n}. Cada una de tales funciones se denomina
permutación del conjunto In . Bajo la operación de composición de funciones, Sn
es claramente un grupo, y se le denomina grupo simétrico de grado n. Una per-
mutación π ∈ Sn se llama ciclo de longitud m, 1 ≤ m ≤ n, si existen m elementos
diferentes α1 , . . . , αm ∈ In tales que π(αi ) = αi+1 para 1 ≤ i ≤ m − 1, π(αm ) = α1
y π(α) = α para cada α ∈ In \ {α1 , . . . , αm }. Un ciclo de longitud 2 se denomina
trasposición. Dos ciclos π = (α1 · · · αm ) y θ = (β1 · · · βr ) se dicen disyuntos, si
{α1 · · · αm } ∩ {β1 · · · βr } = ∅.
22
2.1. DETERMINANTES 23
det : Mn (R) → R
B 7→ det B.
= a det B.
Proposición 2.1.5. Si dos filas de una matriz son iguales entonces su determinante
es nulo.
Demostración. Sea B = [bij ] ∈ Mn (R) tal que Br = Bs con r 6= s. Sea τ =
(rs) ∈ Sn y An el grupo de permutaciones pares. Sea An τ := {πτ | π ∈ An }.
Nótese que |An τ | = n!2 y que cada permutación de An τ es impar. Resulta entonces
Sn = An ∪∅ An τ , con lo cual podemos desarrollar el determinante de B de la siguiente
manera:
X X
det B = (−1)π b1π(1) · · · bnπ(n) + (−1)πτ b1πτ (1) · · · bnπτ (n)
π∈An π∈An
X
= [(−1)π b1π(1) · · · bnπ(n) + (−1)πτ b1πτ (1) · · · bnπτ (n) ].
π∈An
0 = det D = det[B1 , . . . , Br , . . . , Bs + Br , . . . , Bn ]T +
det[B1 , . . . , Bs , . . . , Bs + Br , . . . , Bn ]T
= det[B1 , . . . , Br , . . . , Bs , . . . , Bn ]T + det[B1 , . . . , Br , . . . , Br , . . . , Bn ]T +
det[B1 , . . . , Bs , . . . , Bs , . . . , Bn ]T + det[B1 , . . . , Bs , . . . , Br , . . . , Bn ]T
= det B + det C.
(i) det E = 1.
En efecto, sea B T = [b0ij ] con b0ij = bij . Nótese que π ∈ Sn es par sı́, y sólo si,
π −1 ∈ Sn lo es; además, cuando π recorre Sn , π −1 también lo hace. Por tanto,
X
det B = (−1)π b1π(1) · · · bnπ(n)
π∈Sn
X
= (−1)π b0π(1)1 · · · b0π(n)n .
π∈Sn
En total,
X
det B = (−1)θ b01θ(1) · · · b0nθ(n)
θ∈Sn
= det B T
D : V × · · · × V → R,
y antisimétrica, si
de donde
D(v1 , . . . , vi , vi+1 , . . . , vn ) = −D(v1 , . . . , vi+1 , vi , . . . , vn ).
Para el recı́proco basta considerar
D(v1 , . . . , vi , vi , . . . , vn ) = −D(v1 , . . . , vi , vi , . . . , vn ),
de donde 2D(v1 , . . . , vi , vi , . . . , vn ) = 0.
Proposición 2.2.3. La función determinante definida en (2.1.1), es una función
multilineal alternada de sus filas (y columnas).
Demostración. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.6.
Teorema 2.2.4. D : Mn (R) → R es una función multilineal y alternada respecto
de las filas, tal que D(E) = 1. Entonces D = det.
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 29
=··· =
X
= b1j1 · · · bnjn D[ej1 , . . . , ejn ],
j1 ,...,jn
D : Mn (R) → R
de la siguiente manera:
(i)
D1 : M1 (R) → R
a 7→ D1 (a) := a.
(ii)
D2 : M2 (R) → R
b11 b12
7→ b11 D1 (b22 ) − b21 D1 (b12 ) = b11 b22 − b21 b12 .
b21 b22
(iv) Sea B = [bij ] ∈ Mn (R). Se denomina menor del elemento bij a la imagen
mediante Dn−1 de la matriz obtenida eliminando la i-ésima fila y la j-ésima
columna de B. Dicho menor lo denotaremos por Mij . Definimos entonces
D : Mn (R) → R
Xn
B 7→ (−1)i+1 bi1 Mi1 . (2.3.1)
i=1
2.3. MENORES Y COFACTORES 31
=aD(B).
Sean por último B = [bij ] ∈ Mn (R) tal que B = [B1 , . . . , Br , Br , . . . , Bn ]T . Entonces
n
X
D(B) = (−1)i+1 bi1 Mi1 + (−1)r+1 br1 Mr1 + (−1)r+2 Mr+1,1
i=1
i6=r,r+1
Las pruebas en ambos casos son análogas, por ello sólo analizaremos (2.3.4). El caso
i = j corresponde a (2.3.3). Sea pues i 6= j y considérese la matriz C = [cij ] obtenida
2.3. MENORES Y COFACTORES 33
donde En (R) es el grupo elemental generado por todas las transvecciones (véase
la definición 1.4.3). Se puede probar que para n ≥ 3, En (R) SLn (R). Además,
existen clases importantes de anillos conmutativos para los cuales el grupo especial
y el elemental coinciden. Sobre esto volveremos en el último capı́tulo (véase también
[13]). Por ahora veamos las siguientes propiedades para cuerpos.
Proposición 2.3.6. Sea K un cuerpo. Entonces,
(i) GLn (K) = hTij (a), Dn (b), 1 ≤ i, j ≤ n, i 6= j, a ∈ K, b ∈ K ∗ i.
Demostración.
(i) Inducción sobre n. Para n = 1 no hay algo por demostrar. Sea
a b
n=2y ∈ GLn (K); no es posible que a = 0 = c; sea c 6= 0, entonces
c d
1 b0
1−a
1 c a b
= , b0 = b + (1−a)d
c
,
0 1 c d c d
1 0 1 b0 1 b0
= , d0 = −b0 c + d,
−c 1 c d 0 d0
1 b0 1 −b0
1 0
= ,
0 d0 0 1 0 d0
de donde,
a−1
1 0 1 0 1 b0
a b 1 c
= ;
c d 0 1 c 1 0 d0 0 1
nótese que d0 6= 0, pues de lo contrario d = b0 c = bc+d−ab
c
c y ası́ bc − ad = 0, esto
d d
último implica que b = c a, y como d = c c tenemos que las columnas dela matriz son
d11 · · · d1n
l.d. contradiciendo nuestra hipótesis inicial. Sea D = ∈ GLn (K);
dn1 · · · dnn
existe 1 ≤ j ≤ n tal que dj1 6= 0; entonces
1 d012 · · · d01n
1 − d11 d021 d022 · · · d02n
T1j ( )D = ,
dj1
0 0 0
dn1 dn2 · · · dnn
mediante operaciones
elementales del tipo Tij reducimos esta última matriz a una
1 0
de la forma donde D0 ∈ GLn−1 (K); mediante inducción y despejando como
0 D0
hicimos en el caso n = 2 completamos la prueba (nótese que en la factorización de
D sólo aparece una matriz diagonal). Por otra parte, si c = 0 pero a 6= 0, realizamos
la siguiente operación elemental previamente:
1 0 a b a b
= , con a 6= 0.
1 1 0 d a b+d
Demostración. (i) Vimos en el ejemplo 1.3.6 que aunque X sea l.i. con |X| = n,
no necesariamente X resulta ser una base de V . Veremos ahora que si V = hXi y
|X| = n, entonces X es una base de V . En efecto, sean Y = {y1 , . . . , yn } un base
de V , y r1 , . . . , rn ∈ R tales que x1 · r1 + · · · + xn · rn = 0, entonces [X][r]T = 0;
sin embargo, [X] = [Y ]B y [Y ] = [X]C para ciertas matrices B, C ∈ Mn (R).
De esta forma, [Y ]B[r]T = 0 de donde B[r]T = 0; además, [Y ] = [Y ]BC y en
consecuencia BC = E, con lo que det(B) det(C) = 1, es decir, det(B) ∈ R∗ y por
tanto B ∈ GLn (R); ası́, CB = E y CB[r]T = 0, de donde se concluye que [r]T = 0.
(ii) Como r es minimal necesariamente r ≤ n. Supongamos que r < n; como en (i),
sea Y = {y1 , . . . , yn } una base de V , entonces [X] = [Y ]B para alguna B ∈ Mn×r (R)
y [Y ] = [X]C para cierta matriz C ∈ Mr×n (R); ası́ [Y ] = [Y ]BC, y por tanto,
BC = E. Sean B0 := [B | 0] ∈ Mn (R) y C0 := [ C0 ] ∈ Mn (R), entonces B0 C0 = E
y, en consecuencia, det(B0 ) det(C0 ) = 1; pero det(C0 ) = 0 lo que es claramente una
contradicción, y ası́ necesariamente r = n. De (i) se sigue que X es una base.
a11 x1 + · · · + a1n xn = b1
.. .. .. .. (2.4.1)
. . . .
am1 x1 + · · · + amn xn = bm
36 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES
AX = B. (2.4.2)
Adj(A)AX = Adj(A)B,
Pn
k+1
k=1 (−1) M k1 b k
det(A)[x1 , . . . , xn ]T = ..
.
Pn .
k+n
k=1 (−1) Mkn bk
Entonces,
n
X
det(A)xj = (−1)k+j Mkj bk ,
k=1
es decir,
a11 · · · a1,j−1 b1 a1,j+1 · · · a1n
det(A)xj = det ... .. .. .. .. .. .. (2.4.3)
. . . . . .
an1 · · · an,j−1 bn an,j+1 · · · ann
En otras palabras, los ideales de R son los subespacios del R-espacio canónico
1
R (véase [6] ). Podemos entonces hablar del ideal generado por un conjunto (finito
o infinito) X de elementos de R. Sea A = [aij ] ∈ Mn×n (R). Para cada 1 ≤ k ≤
mı́n{m, n}, sea Ik (A) el ideal generado por los determinantes de todas las submatri-
ces de orden k × k de A. Se define además Ik (A) := R para k ≤ 0 e Ik (A) := 0 para
k > mı́n{m, n}. Ik (A) se denomina el k-ésimo ideal determinante de la matriz
A.
Nótese que se tiene la cadena
Proposición 2.4.3. Si el sistema (2.4.2) tiene solución, entonces los ideales de-
terminantes de A coiniciden con los ideales determinantes de la matriz ampliada
(A | B).
Demostración. Podemos asumir que m ≤ n: en efecto, si m > n, agregando in-
determinadas xn+1 , . . . , xm con coeficientes nulos y columnas a la matriz A, ob-
tenemos un nuevo sistema A0 X 0 = Bcon A0 = (A | 0); nótese que X es solu-
X
xn+1
ción de AX = B si, y sólo si, X 0 = .. es solución de A0 X 0 = B. Además,
.
xm
0 0
Ik (A) = Ik (A ) e Ik (A | B) = Ik (A | B), para todo k ∈ Z. Por lo tanto, dado
k ∈ Z, Ik (A0 ) = Ik (A0 | B) si, y sólo si, Ik (A) = Ik (A | B). Supondremos entonces
que m ≤ n; para k ≤ 0 ó k > mı́n{m, n} = m se tiene que Ik (A) = Ik (A | B).
Sea entonces 1 ≤ k ≤ mı́n{m, n} = m; es claro que Ik (A) ⊆ Ik (A | B). Sea s el
determinante de una submatriz de (A | B) de tamaño k × k; si toda la submatriz
está incluida en A se sigue de inmediato que s ∈ Ik (A). Supongamos entonces que
la submatriz incluye la columna B:
ai1 j1 · · · ai1 jk−1 bi1
ai j · · · ai j bi2
21 2 k−1
s = det .. .. .
.. ..
. . . .
aik j1 · · · aik jk−1 bik
38 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES
Demostración. (i) Veamos primero que Ik (A) = Ik (AT ), para todo k ∈ Z. Para
k ≤ 0 tenemos que Ik (A) = R e Ik (AT ) = R; para k > mı́n{m, n} tenemos que
Ik (A) = 0 = Ik (AT ). Supongamos ahora que 1 ≤ k ≤ mı́n{m, n} y sea s un
i 1 · · · ik
.. .. .. de A tal que s =
generador de Ik (A), entonces existe una submatriz A . . .
j1 · · · j k
i1 · · · ik i1 · · · ik
.. .
.. .
.. = det A ...
T .. .. ; de esto último se sigue que s ∈ I (AT ).
det A .
. . k
j1 · · · jk j1 · · · jk
De manera análoga se muestra la otra contenencia, de modo que Ik (A) = Ik (AT );
ası́ rank(A) coincide con el mayor entero positivo k tal que Ik (A) 6= 0, que es
precisamente el mayor entero positivo k para el que Ik (AT ) 6= 0, es decir, es igual al
rank(AT ). De la misma manera tenemos que M rank(A) = M rank(AT ).
(ii) Comenzamos probando la siguiente propiedad general (véase [1], pág. 43, lema
4.5): si B ∈ Mm×p (R) y C ∈ Mp×n (R) entonces
B1 F
BF = ... ,
Bm F
40 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES
entonces AX = B es soluble.
Entonces,
det(A0 ) · · · 0 b1 b1
. .. . 0 0 .
.. = A Adj(A ) .. ,
0 · · · det(A0 ) bm bm
y por tanto,
r1 · · · 0 b1 (−1)1+1 M11 ··· (−1)m+1 Mm1 b1
... .. 0 .. .. .. ..
. =A
. . . .
0 · · · r1 bm (−1)1+m M1m · · · (−1)m+m Mmm bm
(−1)1+1 b1 M11 + · · · + (−1)m+1 bm Mm1
=A0
..
.
(−1)1+m b1 M1m + · · · + (−1)m+m bm Mmm
x11
=A0 ... ,
x1m
42 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES
∗
Pm
con x1j ∈ Im (A | B), luego r1 bi = j=1 aij x1j para 1 ≤ i ≤ m. Tomando x1m+1 =
1
· · · = xn = 0 obtenemos
n
X
r1 b i aij x1j , 1 ≤ i ≤ m.
j=1
∗
donde xtj ∈ Im (A | B). Por hipótesis existen q1 , . . . , qk ∈ J tales que
k
X
s= qt r t .
t=1
Entonces
k
X k X
X n
sbi = qt r t b i = qt aij xtj
t=1 t=1 j=1
n
X Xk
= aij ( qt xtj ).
j=1 t=1
Pk t ∗
Pero t=1 qt xj ∈ JIm (A | B) ⊆ hsi. Por lo tanto,
n
X
sbi = aij sxej , xej ∈ R, 1 ≤ i ≤ m,
j=1
Definición 2.4.8. Sea A ∈ Mm×n (R); se dice que A es unimodular si Imı́n{m,n} (A)
= R.
Corolario 2.4.9. Sea A ∈ Mm×n (R).
(i) Sea m ≤ n. Entonces, A es unimodular si, y sólo si, A tiene inversa a derecha.
(ii) Sea n ≤ m. Entonces, A es unimodular si, y sólo si, A tiene inversa a izquier-
da.
Demostración. (i)⇒): Como m ≤ n entonces mı́n{m, n} = m,
ası́ Im (A) = R y
1 0
0 0
por el corolario 2.4.9 tenemos que AX = .. , . . . , AX = .. son solubles, luego
. .
0 1
c11 c1m
.. ..
existen C = . , . . . , C = . ∈ Rn tales que A[C 1 · · · C m ] = E, es decir,
1 m
cn1 cnm
1 m
si C = [C · · · C ], entonces C es una inversa derecha de A.
⇐): Si AC = E para alguna C ∈ Mn×m (R), entonces Im (AC) = Im (E) = R ⊆
Im (A) ∩ Im (C), y por tanto, Im (A) = R, es decir, A es unimodular dado que
mı́n{m, n} = m.
(ii) Sea n ≤ m; como A ∈ Mm×n (R) entonces AT ∈ Mn×m (R); ası́, AT tiene in-
versa a derecha si, y sólo si, In (AT ) = R, es decir, si existe D ∈ Mm×n (R) tal que
AT D = E. Esto último se tiene si, y sólo si In (A) = R dado que In (A) = In (AT ).
Por lo tanto, DT A = E si, y sólo si, A es unimodular.
Observación 2.4.10. (i) Sea A ∈ Mm×n (R) con m ≤ n. Entonces A no puede tener
inversa a izquierda: si existe C ∈ Mn×m (R) tal que CA = E, entonces [C | 0][ A0 ] = E
y tomando determinantes obtenemos que 0 = 1.
(ii) Sea A ∈ Mm×n (R) con n ≤ m. Entonces A no puede tener inversa a derecha:
si existe C ∈ Mm×n (R) tal que CA = E, entonces [A | 0][ C0 ] = E y tomando
determinantes obtenemos que 0 = 1.
Estudiaremos ahora los sistemas homogéneos AX = 0 con A ∈ Mm×n (R). Nótese
en primer lugar que tales sistemas son solubles y que el conjunto de soluciones
conforman un subespacio de Mn×1 (R) ∼= Rn .
44 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES
0
Nótese que X
e=6 0 dado que xg
t+1 = y det(A ) 6= 0; se tiene entonces que
Pt+1
j=1 a1j xej
AX
e = ..
.
.
Pt+1
j=1 amj x
ej
Pero para 1 ≤ i ≤ m,
t+1
X Xt+1
aij xej =( aij hj )y
j=1 j=1
Xt+1
=( aij (−1)j+(t+1) dj )y
j=1
Xt+1
=( aij A00t+1,j )y.
j=1
Corolario 2.4.12. Sea A ∈ Mn (R). AX = 0 tiene solución no trivial si, y sólo si,
det(A) es un divisor de cero en R.
Demostración. det(A) es un divisor de cero en R si, y sólo si, AnnR (In (A)) 6= 0 si,
y sólo si, M rank(A) < n.
(viii) Dos matrices son equivalentes si, y sólo si, tienen el mismo rango.
Proposición 2.4.17. Para cada A ∈ Mm×n (K) se cumple
0 ≤ M rank(A) = rank(A) = Rank(A).
Demostración. Si k = rank(A), Ik (A) 6= 0, Ik+1 = 0, luego AnnK (Ik (A)) = 0 y
AnnK (Ik+1 (A)) = K, con lo cual M rank(A) = k. Sea ahora Rank(A) = r, entonces
A es equivalente a la matriz
E 0
B= , E = Idéntica de orden r × r.
0 0
Por la proposición 2.4.5, rank(A) = rank(B) = r; en consecuencia, r = k.
48 CAPÍTULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES
En relación con los sistemas de ecuaciones lineales sobre cuerpos se tienen los si-
guientes resultados.
(a) Sea AX = 0 un sistema homogéneo de orden m × n. Si Rank(A) = r entonces
la dimensión del espacio solución es n − r, y recı́procamente.
(b) Todo sistema lineal AX = B de orden m × n, con A 6= 0, es equivalente a uno
con matriz escalonada y de la forma
a01j1 xj1 + a01j2 xj2 + a01j3 xj3 + · · · + a01n xn = b01
a02j2 xj2 + a02j3 xj3 + · · · + a02n xn = b02
······
a0rjr xjr + · · · + a0rn xn = b0r (2.4.6)
0= b0r+1
..
.
0 = b0m ,
donde a01j1 , . . . , a0rjr 6= 0, 1 ≤ j1 < j2 < · · · < jr . AX = B es soluble si, y sólo
si, en el sistema escalonado anterior no se presentan ecuaciones de la forma
b0t = 0, t ≥ r, con b0t un elemento no nulo de K. En tal caso, dando valores ar-
bitrarios de K a las indeterminadas libres xjr +1 , . . . , xn obtenemos valores
determinados para las indeterminadas principales xj1 , . . . , xjr .
(c) Sea AX = B un sistema lineal de orden m × n. En el corolario 2.4.7 se
demostró que si m ≤ n con Im (A) = K, entonces el sistema AX = B es
soluble. Pero la condición Im (A) = K es equivalente a que M rank(A) = m =
Rank(A). De este modo, si Rank(A) = m, el sistema AX = B es soluble.
(d) Respecto a los ideales determinantes de A y de la matriz ampliada [A | B] se
tiene que la coincidencia de estos últimos implica la solubilidad del sistema
AX = B: en efecto, si los ideales determinantes de A y [A | B] coinciden,
entonces sus rangos son iguales. De esta forma la envolvente lineal de las
columnas de [A | B] coincide con la envolvente lineal de las columnas de A, es
decir, B es una combinación lineal de las columnas de A
b1 a11 a1n
.. .. .
. = . x1 + · · · + .. xn ,
bm am1 amn
2.5. Ejercicios
1. Sea A0 la colección de elementos de A que son divisores de cero. Si K es un
cuerpo demuestre que
Producto tensorial
50
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 51
r1 · (u1 , v1 ) + · · · + rt · (ut , vt ) ,
donde r1 , . . . , rt ∈ R.
Sea S el subespacio de R(U ×V ) generado por todos los elementos de la siguiente
forma
(i) (u + u0 ) ⊗ v = u ⊗ v + u0 ⊗ v
(ii) u ⊗ (v + v 0 ) = u ⊗ v + u ⊗ v 0
(iii) r · (u ⊗ v) = r · u ⊗ v
(iv) r · (u ⊗ v) = u ⊗ r · v.
t:U ×V →U ⊗V
(u, v) 7→ u ⊗ v
para cualesquiera u, u0 ∈ U, v, v 0 ∈ V y r ∈ R.
F (u ⊗ v) := f (u, v) .
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 53
−1 1
2B 3B 0B
m (T ⊗ F ) = A ⊗ B = ,
3B 0B 4B
2 0 3 0 0 0
2 2 3 3 0 0
0 2 0 3 0 0
−2 2 −3 3 0 0
m (T ⊗ F ) =
.
3 0 0 0 4 0
3 3 0 0 4 4
0 3 0 0 0 4
−3 3 0 0 −4 4
56 CAPÍTULO 3. PRODUCTO TENSORIAL
J : U ⊗ V → (U ⊗ V ) /W
z 7→ z.
(U ⊗ V ) /W
donde h (T (u) , F (v)) := J (u ⊗ v). Veamos que h está bien definida. Sean T (u1 ) =
T (u) y F (v1 ) = F (v), entonces u1 − u := u2 ∈ ker (T ) y v1 − v := v2 ∈ ker (F ),
luego
u1 ⊗ v1 = (u + u2 ) ⊗ (v + v2 )
= u ⊗ v + u ⊗ v 2 + u 2 ⊗ v + u2 ⊗ v 2
= u ⊗ v + (u ⊗ v2 + u2 ⊗ v + u2 ⊗ v2 ) ,
u1 ⊗ v1 − u ⊗ v ∈ W,
En forma matricial,
A2 A1 ⊗ B2 B1 = (A2 ⊗ B2 ) (A1 ⊗ B1 ) .
iU ⊗ iV = iU ⊗V .
En forma matricial,
En ⊗ Em = Enm .
(v) Sean T : U → U 0 y F : V → V 0 transformaciones lineales biyectivas, entonces
(T ⊗ F )−1 = T −1 ⊗ F −1 .
Matricialmente,
(A ⊗ B)−1 = A−1 ⊗ B −1 .
(vi) Sean T y F1 , F2 transformaciones lineales compatibles para las operaciones
indicadas, entonces
T ⊗ (F1 + F2 ) = T ⊗ F1 + T ⊗ F2 .
En forma matricial,
A ⊗ (B1 + B2 ) = A ⊗ B1 + A ⊗ B2 .
(a · A) ⊗ B = A ⊗ (a · B) = a · (A ⊗ B).
tr (A ⊗ B) = tr (A) tr (B) ,
det (A ⊗ B) = det (A)m det (B)n .
A ∼ A0 , B ∼ B 0 ⇒ A ⊗ B ∼ A 0 ⊗ B 0 ; A ≈ A 0 , B ≈ B 0 ⇒ A ⊗ B ≈ A 0 ⊗ B 0 .
58 CAPÍTULO 3. PRODUCTO TENSORIAL
t : V1 × · · · × Vn → V1 ⊗ · · · ⊗ Vn
(x1 , . . . , xn ) 7→ x1 ⊗ · · · ⊗ xn
F (x1 ⊗ · · · ⊗ xn ) := f (x1 , . . . , xn ) .
El teorema 3.1.5 tiene también lugar en este caso general, es decir, el producto
tensorial de espacios libres de dimensión finita es libre y la dimensión es el producto
de las dimensiones. De manera más precisa, si Xi es una base de Vi de tamaño ki ,
entonces
(V1 ⊗ · · · ⊗ Vn )∗ ∼
= V1∗ ⊗ · · · ⊗ Vn∗ . (3.3.1)
f : V1 × · · · × Vn → R
f (v1 , . . . , vn ) := f1 (v1 ) · · · fn (vn ) .
F : V1 ⊗ · · · ⊗ Vn → R
F (v1 ⊗ · · · ⊗ vn ) := f (v1 , . . . , vn ) = f1 (v1 ) · · · fn (vn ) .
Sea Xi := {xi1 , . . . , xiki } un base de Vi y sea Xi∗ = {x∗i1 , . . . , x∗iki } la base dual.
Entonces,
= 1 si (j1 , . . . , jn ) = (r1 , . . . , rn )
= 0, en otro caso.
k
X
f= f (yi1 , . . . , yin ) · (yi∗1 ⊗ · · · ⊗ yi∗n ). (3.3.4)
i1 ,...,in
k
X k
X
f= cj1 i1 · · · cjn in f (xj1 , . . . , xjn ) · (yi∗1 ⊗ · · · ⊗ yi∗n ).
j1 ,...,jn i1 ,...,in
k
X
f (yi1 , . . . , yin ) = cj1 i1 · · · cjn in f (xj1 , . . . , xjn ), (3.3.5)
j1 ,...,jn
1
P
Sf (v1 , . . . , vn ) := n! π∈Sn f (vπ(1) , . . . , vπ(n) ),
1 π
P
Alf (v1 , . . . , vn ) := n! π∈Sn (−1) f (vπ(1) , . . . , vπ(n) ).
1 X
= f (vθ(1) , . . . , vθ(n) )
n! θ∈S
n
= Sf (v1 , . . . , vn ).
−1
Ası́ pues, Sf ∈ Sn (V ). De manera similar, π = θτ −1 y (−1)π = (−1)θ (−1)τ , pero
−1
(−1)τ = (−1)τ , luego
1 X
Alf (τ (v1 ), . . . , τ (vn )) := (−1)π f (vπτ (1) , . . . , vπτ (n) )
n! π∈S
n
1 X
= (−1)τ (−1)θ f (vθ(1) , . . . , vθ(n) )
n! θ∈S
n
τ
= (−1) Alf (v1 , . . . , vn ).
T2 (V ) = S2 (V ) ⊕ AL2 (V ).
(i) Si f, g ∈ T1 (V ), entonces f ∧ g = f ⊗ g − g ⊗ f .
(ii) f ∧ 0 = 0.
(vii) f ∧ f = 0 si n es impar.
1
Demostración. (i) (f ∧ g)(u, v) = 1!1! [f (u)g(v) − f (v)g(u)] = f (u)g(v) − g(u)f (v) =
(f ⊗ g)(u, v) − (g ⊗ f )(u, v).
(ii) Evidente ya que f ⊗ 0 = 0.
(iii) También evidente ya que f ⊗ (g + h) = f ⊗ g + f ⊗ h.
(iv) Esta propiedad asociativa se interpreta de la siguiente manera:
(n + m + p)!
(f ∧ g) ∧ h = Al(f ⊗g)⊗h
n!m!p!
(n + m + p)!
f ∧ (g ∧ h) = Alf ⊗(g⊗h)
n!m!p!
3.4. TENSORES SIMÉTRICOS, ANTISIMÉTRICOS Y ALTERNADOS 67
pero
1 X π
Al(f ⊗g)⊗h = (−1) ((f ⊗ g) ⊗ h)(v1 , . . . , vn+m+p )
(n + m + p)! π∈S
n+m+p
1 X π
= (−1) (f (v1 , . . . , vn )g(vn+1 , . . . , vn+m ))h(vn+m+1 , . . . , vn+m+p )
(n + m + p)! π∈S
n+m+p
1 X π
= (−1) f (v1 , . . . , vn )(g(vn+1 , . . . , vn+m )h(vn+m+1 , . . . , vn+m+p ))
(n + m + p)! π∈S
n+m+p
1 X π
= (−1) (f ⊗ (g ⊗ h))(v1 , . . . , vn+m+p )
(n + m + p)! π∈S
n+m+p
=Alf ⊗(g⊗h) .
(a · f ) ⊗ g = f ⊗ (a · g) = a · (f ⊗ g).
entonces
1 X
(g ∧ f )(vθ(1) , . . . , vθ(m+n) ) = (−1)π g(vπθ(1) , . . . , vπθ(m) )f (vπθ(m+1) , . . . , vπθ(m+n) )
m!n!
π∈Sn+m
ası́ pues, como fb es bilineal, entonces el producto queda bien definido por
canónica dePla suma directa externa (véase [7]), entonces z se puede escribir en la
forma z = i∈Cz µi (zi ), donde Cz := {i|zi 6= 0} es el soporte de z (finito). T (V ) es
pues un R-espacio. Si identificamos a T i (V ) con su imagen a través de la inyección
canónica µi , es decir, si consideramos a T i (V ) como subespacio del R-espacio T (V ),
entonces T (V ) es suma directa interna de los subespacios T i (V ):
X
T (V ) = ⊕ T i (V ) = R ⊕ V ⊕ (V ⊗ V ) ⊕ · · ·
i≥0
T i (V ) ⊗ T j (V ) ∼
= T i+j (V ). (3.5.3)
El producto anterior está bien definido si se tiene en cuenta (3.5.3) y que la repre-
sentación de cada elemento de T (V ) a través de la suma directa interna es única.
Como estamos considerando que T i (V ) ⊆ T (V ), entonces el isomorfismo (3.5.3) se
puede interpretar como
T i (V )T j (V ) ⊆ T i+j (V ).
µ : V → T (V )
v 7→ v
F se define por
J := hv 2 |v ∈ V i;
además, definimos
J0 := 0 =: J1 , Ji := J ∩ T i (V ) para i ≥ 2.
3.5. ÁLGEBRAS Y PRODUCTO TENSORIAL 71
donde
Λ(V )
pp
pp
6
µi pp
pp F
pp
pp
M
i
Λ (V ) - Λi (V )
νi
i≥0
ν : V → Λ(V )
v ∧ v = v 2 + J2 = 0. (3.5.12)
ν - Λ(V )
V
p
p pp
f
p pp
pp
F
?
B
F se define por
Λ(V ) ⊗ T ∼
= Λ(V ⊗ T ) (isomorfismo de T -álgebras).
Λ(V ) ∼
= Λ(V1 ) ⊗ Λ(V2 ) (isomorfismo de R-álgebras),
(v1 ⊗1+1⊗v2 )2 = (v1 ⊗1)(v1 ⊗1)+(v1 ⊗1)(1⊗v2 )+(1⊗v2 )(v1 ⊗1)+(1⊗v2 )(1⊗v2 ) =
(−1)0×1 (v12 ⊗ 1) + (−1)0×0 (v1 ⊗ v2 ) + (−1)1×1 (v1 ⊗ v2 ) + (−1)1×0 (1 ⊗ v22 ) = 0.
3.6. EJERCICIOS 75
Λ(f )F (v1 ⊗ v2 ) = Λ(f )(Λ(ι1 )(v1 )Λ(ι2 )(v2 )) = Λ(f )(v1 v2 ) = Λ(f )(v1 )Λ(f )(v2 ) =
(v1 ⊗ 1)(1 ⊗ v2 ) = (−1)0×0 (v1 ⊗ v2 ) = v1 ⊗ v2 ;
además,
Λ(f )F (r ⊗ v2 ) = Λ(f )(Λ(ι1 )(r)Λ(ι2 )(v2 )) = Λ(f )(r · 1Λ(V ) )Λ(f )(v2 ) =
(r·Λ(f )(1Λ(V ) ))(1⊗v2 ) = (r·(1⊗1))(1⊗v2 ) = (r⊗1)(1⊗v2 ) = (−1)0×0 (r⊗v2 ) = r⊗v2 .
De manera similar se prueba que Λ(f )F (v1 ⊗r) = v1 ⊗r. Todo lo anterior demuestra
que Λ(f ) es un isomorfismo de R-álgebras.
(viii) Si V es libre con base X := {x1 , . . . , xn }, entonces para 1 ≤ i ≤ n, Λi (V )
es libre con base {xj1 ∧ · · · ∧ xji |1 ≤ j1 < · · · < ji ≤ n}. Además, dim Λi (V ) = ni
y dim Λ(V ) = 2n .
(ix) Si V es un espacio proyectivo finitamente generado, es decir, V es sumando
directo de un espacio libre de dimensión finita, entonces Λ(V ) y Λi (V ) son espacios
proyectivos finitamente generados, para cada i ≥ 0.
3.6. Ejercicios
1. Demuestre la proposición 3.3.3.
Mn (R) ⊗ Mm (R) ∼
= Mnm×nm (R),
R[x] ⊗ R[y] ∼
= R[x, y].
f : R2 × R2 → R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 − c2 d1
es un tensor?
17. Sean f, g ∈ AL2 (R2 ) dos tensores antisimétricos. Entonces, ¿f ⊗ g es anti-
simétrico?
18. Demuestre las propiedades (v)-(ix) de la sección 3.5.
Capı́tulo 4
Formas canónicas
f : K[x] → EndK (V )
(4.1.1)
a(x) = a0 + a1 x + · · · + an xn 7→ a0 · iV + a1 · T + · · · + an · T n =: a(T )
77
78 CAPÍTULO 4. FORMAS CANÓNICAS
l : K → K[x]
k 7→ k
con 0 6= qT (x) ∈ K[x]. Sin pérdida de generalidad podemos tomar qT (x) mónico.
Resulta entonces que qT (x) · v = 0 para cada v ∈ VT , con lo cual VT es de torsión.
Nótese finalmente que
AnnK[x] (VT ) = hqT (x)i. (4.1.3)
(ii) qT (x) es el polinomio mónico de menor grado tal que satisface (4.1.4) y es
único para T .
Demostración. (i) Sea q(x) ∈ K[x] como en (4.1.4). Entonces q(x) ∈ AnnK[x] (VT ) =
hqT (x)i, con lo que qT (x) | q(x).
(ii) Sea p(x) mónico de K[x] que satisface (4.1.4). Por (i), gr(qT (x)) ≤ gr(p(x)).
Ahora, si p(x) es de grado mı́nimo entre los que cumplen (4.1.4), tenemos que
gr(qT (x)) = gr(p(x)), por (i) y como qT (x) y p(x) son mónicos, necesariamente
qT (x) = p(x).
Definición 4.1.6. (i) Sea A = [aij ] ∈ Mt (K) una matriz cuadrada; se denomina
polinomio caracterı́stico de A al determinante de la matriz caracterı́stica
x − a11 −a12 · · · −a1t
−a21 x − a22 · · · −a2t
xE − A := .. (4.1.5)
.. .. ..
. . . .
−at1 −at2 · · · x − att
(i) Existe una base X en V tal que la matriz de T en la base X es diagonal por
bloques.
m(A) = m0 E + m1 A + · · · + ml Al =
m0 E + m1 A1 + · · · + ml Al1 · · · 0
.. .. ..
. . .
l
0 · · · m 0 E + m 1 A r + · · · + m l Ar
m(A1 ) · · · 0 qA1 (A1 )m1 (A1 ) · · · 0
= .. .. .. .. .. ..
= = 0.
. . . . . .
0 · · · m(Ar ) 0 · · · qAr (Ar )mr (Ar )
Esto garantiza que qA (x) | m(x).
Para demostrar la segunda parte basta mostrar que qA (x) es múltiplo de cada
qAi (x). Sea qA (x) = q0 + q1 x + · · · + qt xt , entonces qA (A) = 0 luego q0 E + q1 A + · · · +
q t At = 0 y
q 1 A1 · · · 0 qt At1 · · · 0
q0 I + ... ... .. + · · · + .. ... ..
. . .
0 · · · q 1 Ar 0 · · · qt Atr
qA (A1 ) · · · 0
= .. .. ..
= 0,
. . .
0 · · · qA (Ar )
luego qA (Ai ) = 0 para cada i, y esto indica que qA (x) es múltiplo de cada qAi (x).
Proposición 4.1.8. Sea VT un K[x]-espacio cı́clico con generador v0 . Sean qT (x) =
q0 + q1 x + · · · + qn−1 xn−1 + xn el polinomio mı́nimo de T y pT (x) su polinomio
caracterı́stico. Entonces,
(i) X := {v0 , T (v0 ), . . . , T n−1 (v0 )} es una K-base de V .
0 0 · · · 0 −q0
1 0 · · · 0 −q1
0 1 · · · 0 −q2
(ii) mX (T ) = ,
.. .. .. .. ..
. . . . .
0 0 · · · 1 −qn−1
denominada la matriz compañera del polinomio qT (x).
(iii) pT (x) = qT (x).
Demostración. (i) Dado que VT es cı́clico, tenemos
VT ∼
= K[x]/AnnK[x] (V ) (K[x]-isomorfismo).
De acuerdo con (4.1.3), AnnK[x] (VT ) = hqT (x)i (nótese que qT (x) 6= 0 pues de lo
contrario V no serı́a de dimensión finita sobre K). La inclusión natural K ,→ K[x]
82 CAPÍTULO 4. FORMAS CANÓNICAS
entonces
(a0 + a1 x + · · · + an−1 xn−1 ) · v0 = 0,
y ası́
a0 + a1 x + · · · + an−1 xn−1 ∈ AnnK[x] (V ) = hqT (x)i.
Por lo tanto, a0 + a1 · x + · · · + an−1 · xn−1 = 0, de donde a0 = a1 = · · · = an−1 = 0.
(ii) La afirmación de esta parte se sigue de (i) y del hecho que
(iii) Dado que al mutiplicar una matriz por una propiamente elemental su determi-
nante no varı́a, se tiene
x 0 ··· 0 q0 0 x2 ··· 0 q0 + q1 x
−1 x · · · 0 q1 −1 x ··· 0 q1
pT (x) = det 0 −1 · · · 0 q2 = det 0 −1 ··· 0 q2
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
0 0 ··· −1 x + qn−1 0 0 ··· −1 x + qn−1
0 0 ··· 0 q0 + q1 x + q2 x 2
−1 0 · · · 0 q1 + q2 x
= det 0 −1 · · · 0 q2 = ··· =
.. .. .. .. ..
. . . . .
0 0 ··· −1 x + qn−1
0 0 ··· 0 q0 + q1 x + · · · + qn−1 xn−1 + xn
−1 0 · · ·
0 q1 + q2 x + · · · + xn−1
0 −1 · · · 0 q2 + q3 x + · · · + nn−2
= det ..
.. .. .. ..
. . . . .
2
0 0 ··· 0 qn−2 + qn−1 x + x
0 0 ··· −1 x + qn−1
=qT (x).
4.1. POLINOMIOS MÍNIMO Y CARACTERÍSTICO 83
para 1 ≤ j ≤ r.
De los resultados obtenidos podemos deducir uno de los teoremas básicos y más
importantes del álgebra lineal.
qT (x) | pT (x).
Demostración. Por la parte (v) del lema 4.1.11, para cada 1 ≤ j ≤ r se tiene
que qTj (x) | pTj (x), pero de la proposición 4.1.7 y la descomposición (4.1.7) resulta
qT1 (x) · · · qTr (x) = q1k1 (x) · · · qrkr (x) = qT (x) | pT (x).
mX1 (T1 ) · · · 0
mX (T ) = .. ... ..
. (4.2.1)
. .
0 · · · mXr (Tr )
Pero de acuerdo con (4.1.9), podemos elegir la base Xj de Vj de tal manera que la
matriz de Tj en dicha base es diagonal en bloques:
Aj1 · · · 0
mXj (Tj ) = ... .. .. . (4.2.2)
. .
0 · · · Ajlj
Por la proposición 4.1.8, el bloque Aji es la matriz compañera del polinomio qj (x)sji
de (4.1.9). Queremos ahora descomponer cada bloque de (4.2.2) de tal manera que
aparezca la matriz compañera de qj (x).
del polinomio mı́nimo qT (x). Para calcular la matriz canónica clásica de T es nece-
sario conocer el sistema de divisores elementales de T , es decir, de VT . Si A es una
matriz cuadrada, entonces A determina una única transformación lineal T , y se de-
finen los divisores elementales de A como el sistema de divisores elementales de
T.
Corolario 4.2.2. (i) Sea T : V → V una transformación lineal de un K-espacio
V de dimensión finita. Entonces, existe una base X en V tal que la matriz de
T en la base X es una matriz canónica clásica.
(ii) Toda matriz A ∈ Mn (K) es similar a una única matriz canónica clásica.
(iii) Dos matrices cuadradas son similares si, y sólo si, tienen el mismo sistema de
divisores elementales.
Demostración. Las dos primeras afirmaciones fueron probadas en el desarrollo de
la presente sección. La tercera se tiene ya que matrices similares representan la
misma transformación lineal y, si dos matrices tienen el mismo sistema de divisores
elementales, entonces son similares a la misma matriz canónica clásica, y por lo
tanto son similares.
Ejemplo 4.2.3. Ilustramos a continuación el cálculo de las componentes primarias
del VT , donde T es una transformación lineal definida por medio de una matriz.
También calcularemos la base X que permite obtener la forma diagonal en bloques
dada en (4.2.1). Consideremos la transformación lineal T : R4 → R4 definida por la
matriz
1 −1 0 1
0 3 1 0
A= .
2 1 2 −1
−3 −2 0 4
Mediante cálculo manual o usando algún paquete de cómputo (por ejemplo el SWP,
Scientific WorkPlace) encontramos que
pA (x) = qA (x) = 36 − 60x + 37x2 − 10x3 + x4 = (x − 2)2 (x − 3)2 ;
debemos entonces calcular las componentes primarias de V := R4 inducidas por A,
V1 = ker((A − 2E)2 ), V2 = ker((A − 3E)2 ). Tenemos
−2 −2 −1 1 1 0 −1 −1
2 2 1 −1 , (A − 3E)2 = 2 1 −1 −1
(A − 2E)2 =
1 1 1 0 −3 −1 2 2
−3 −3 −2 1 3 1 −2 −2
y calculamos las bases de sus núcleos:
88 CAPÍTULO 4. FORMAS CANÓNICAS
1 −1
1 1
0 1 −1 −1
ker(A − 2E)2 = , , ker(A − 3E)2 = , .
−1 0
1 0
1 0 0 1
Ejemplo 4.2.4. Para la matriz A del ejemplo anterior podemos calcular su forma
canónica clásica: tenemos pA (x) = qA (x) = q1 (x)2 q2 (x)2 , con q1 (x) = x − 2 y q2 (x) =
x − 3, luego la forma buscada es
2 0 0 0
1 2 0 0
.
0 0 3 0
0 0 1 3
VT ∼
= K[x]/hq1 (x)i ⊕ · · · ⊕ K[x]/hqm (x)i, (4.3.1)
4.3. FORMA CANÓNICA RACIONAL 89
donde qi (x) | qj (x) para i ≤ j (cada qi (x) se puede tomar mónico). Existe entonces
una base X en V tal que
C1 · · · 0
R := mX (T ) = ... . . . .. , (4.3.2)
.
0 · · · Cm
luego
0 0 ··· 0 q(x) q(x) 0
−1 0 ··· 0 0 1
(xE − A) ∼ .. .. ∼ .
.. .. .. . .
. . . . . .
0 0 ··· −1 0 0 1
4.3. FORMA CANÓNICA RACIONAL 91
Por otra parte, si q1 (x), . . . , qm (x) son los factores invariantes de A, entonces
q1 (x) 0
...
qm (x)
(xE − A) ∼ .
1
. ..
0 1
En efecto, dado que toda matriz es racionalizable, existe una matriz invertible C tal
que
A1 0
C −1 AC =
... ,
0 Am
xE − A1 0
C −1 (xE − A)C =
... ,
0 xE − Am
qi (x) 0
1
pero por lo que acabamos de ver, (xE − Ai ) ∼ , de modo que
. . .
0 1
q1 (x) 0
..
.
qm (x)
(xE − A) ∼ .
1
. ..
0 1
92 CAPÍTULO 4. FORMAS CANÓNICAS
con
0 0 ··· 0 0
1 0 · · · 0 0
Cj := .. .. .. .. .. , de tamaño sj × sj , (4.4.1)
. . . . .
0 0 ··· 1 0
s1 + · · · + sm = n, 1 ≤ s1 ≤ s2 ≤ · · · ≤ sm , sm = s, qT (x) = xs , m = número de
factores invariantes de T y además m = dim(ker(T )).
m = dim(ker(T )).
Según (4.3.1), VT tiene la descomposición en suma de K[x]-subespacios cı́clicos
w = g1 (T )(w1 ) + · · · + gm (T )(wm ),
donde el grado de gj (x) se puede tomar inferior a sj . Se tiene que T (w) = 0, pero
como la suma es directa, se concluye que gj (T )T (wj ) = 0. Esto implica que xsj
divide a gj (x)x, pero por la escogencia del grado de gj (x) se tiene que gj (x)x =
bj xsj , bj ∈ K. Por lo tanto, gj (x) = bj xsj −1 , y en consecuencia,
w = b1 T s1 −1 (w1 ) + · · · + bt T st −1 (wm ).
La independencia lineal se obtiene de la suma directa y de que hxsj i = AnnK[x] (wj ).
Demostración. Sea
pT (x) := (x − a1 )n1 · · · (x − ar )nr ,
con a1 , . . . , ar elementos diferentes de K, 1 ≤ nj ≤ n, 1 ≤ j ≤ r. Según (4.3.3),
pT (x) y qT (x) tienen los mismos factores irreducibles (aunque no necesariamente con
la misma multiplicidad). Entonces
qT (x) = (x − a1 )k1 · · · (x − ar )kr , 1 ≤ kj ≤ n j .
Sean Vj y Tj como se definieron en (4.1.8) y en el lema 4.1.11. Para cada 1 ≤ j ≤ r
consideremos la transformación lineal
Tj0 := Tj − aj iVj : Vj → Vj .
Por el lema 4.1.11, el polinomio mı́nimo de Tj es (x − aj )kj , luego Tj0 es nilpotente
de ı́ndice kj . De acuerdo con la proposición 4.4.4, para cada 1 ≤ j ≤ r existe una
base Yj en Vj tal que
Cj1 0
mYj (Tj0 ) =
.. ,
.
0 Cjmj
con cada bloque como en (4.4.1) y de orden sji . Nótese que sjmj = kj , mj = número
de factores invariantes de Tj0 , y tal como vimos en la la proposición 4.4.4,
mj = dim(ker(Tj0 )) = dim(ker(Tj − aj iVj )) = dim(ker(T − aj iV )). (4.4.2)
En efecto, la última igualdad se tiene ya que ker(Tj − aj iVj ) = ker(T − aj iV ) (véase
S Además, 1 ≤ sj1 ≤ sj2 ≤ · · · ≤ sjmj , sj1 + · · · + sjmj = nj .
el lema 4.1.11, parte (ii)).
Según (4.1.7), si Y := Yj entonces
mY1 (T1 ) 0
mY (T ) =
.. .
.
0 mYr (Tr )
Pero mYj (Tj ) = mYj (Tj0 ) + mYj (aj iVj ) y ası́ mYj (Tj ) es un bloque de Jordan perte-
neciente a aj :
aj
1 . . . bloque elemental de orden sj1
1 aj
mYj (Tj ) =
. . .
.
aj
bloque elemental de orden sjmj 1
. .
.
1 aj
96 CAPÍTULO 4. FORMAS CANÓNICAS
Nótese que en la forma canónica de Jordan aparecen sólo ceros, unos y las raı́ces del
polinomio caracterı́stico. La unicidad de estas últimas, la unicidad de las compo-
nentes primarias en (4.1.7) y la unicidad de los factores invariantes, determinan la
unicidad de la estructura de los bloques de Jordan, salvo el orden de disposición.
Corolario 4.4.6. Sea K un cuerpo algebraicamente cerrado. Dos matrices cuadra-
das son similares si, y sólo si, tienen la misma forma canónica de Jordan.
Demostración. Sean A, B ∈ Mn (K) similares, A ≈ J1 y B ≈ J2 con J1 y J2
matrices diagonales en bloques de Jordan. Por transitividad J1 ≈ J2 . Puesto que
matrices similares representan la misma transformación lineal, se sigue, por la uni-
cidad expuesta en el teorema 4.4.5 que J1 = J2 (salvo el orden de los bloques).
Recı́procamente, si A ≈ J ≈ B entonces A ≈ B.
Ejemplo 4.4.7. En este ejemplo mostramos una matriz invertible C tal que C −1 AC
es una matriz de Jordan, con
4 1 1 1
−1 2 −1 −1
A= .
6 1 −1 1
−6 −1 4 2
0 0 1 3
Para calcular la matriz C debemos encontrar bases X1 en V1 y X2 en V2 de tal
forma que C es la matriz de cambio de la base canónica de R4 a la base X =
X1 ∪ X2 . Consideremos las transformaciones A01 := A + 2E : V1 → V1 y A02 :=
4.5. FORMA CANÓNICA DIAGONAL: VALORES Y VECTORES PROPIOS 97
Sea a ∈ K, el conjunto
E(a) := {v ∈ V |T (v) = a · v}
Las definiciones de vector propio, valor propio y espacio propio aplican para
espacios vectoriales arbitrarios, no necesariamente de dimensión finita.
a1 E · · · 0
mX (T ) = ... .. .. ,
. .
0 · · · ar E
donde ai E es una matriz diagonal de orden ni ,
ai · · · 0
.. . . .. ,
ai E = . . .
0 · · · ai
1 ≤ i ≤ r. El polinomio caracterı́stico de T es pT (x) = (x − a1 )n1 · · · (x − ar )nr .
Se verá ahora que ni = dim(E(ai )). Puesto que gr(pT (x)) = n, entonces n =
n1 + · · · + nr . Por la forma como se ha organizado la base X, se tiene que V = hXi ⊆
E(a1 ) + · · · + E(ar ), es decir, V = E(a1 ) + · · · + E(ar ), luego por la proposición
4.5.17, n = dim(E(a1 )) + · · · + dim(E(ar )). Se sabe que ni ≤ dim(E(ai )), para cada
1 ≤ i ≤ r, supóngase que existe i tal que ni < dim(E(ai )), entonces
n = n1 + · · · + nr < dim(E(a1 )) + · · · + dim(E(ar )) = n.
Esto indica que ni = dim(E(ai )) para cada 1 ≤ i ≤ r.
(ii) ⇒ (iii): dim(V ) = n = n1 + · · · + nr = dim(E(a1 )) + · · · + dim(E(ar )).
(iii) ⇒ (iv): dim(V ) = dim(E(a1 ))+· · ·+dim(E(ar )) = dim(E(a1 )+· · ·+E(ar )),
de donde , V = E(a1 ) + · · · + (E(ar ), además, por la proposición 4.5.17, la suma es
directa, es decir, V = E(a1 ) ⊕ · · · ⊕ E(ar ).
(iv) ⇒ (i): Al reunir las bases de E(a1 ), . . . , E(ar ) se obtiene una base de V
constituida por vectores propios, lo cual, de acuerdo con el teorema 4.5.15, garantiza
que T es diagonalizable.
Ejemplo 4.5.20. En este ejemplo mostraremos una aplicación del producto tenso-
rial de matrices y de la forma canónica de Jordan. Sean A, B y C matrices complejas
de tamaños n × n, m × m y n × m respectivamente. Supóngase que para cada valor
104 CAPÍTULO 4. FORMAS CANÓNICAS
a11 Em · · · a1n Em
.. .. ..
= A ⊗ Em ,
. . .
an1 Em · · · ann Em
BT ··· 0
.. .. .. = E ⊗ B T .
. . . n
T
0 B
De esta forma
mX (T ) = A ⊗ Em + En ⊗ B T .
Puesto que C es algebraicamente cerrado, existen matrices invertibles F y G de
tamaños n × n y m × m, respectivamente, tales que F −1 AF = J1 y G−1 B T G = J2
son matrices de Jordan. Notemos que en la diagonal de J1 y J2 están localizados
los valores propios α de A y β de B T , respectivamente (observemos que los valores
propios de B T son los mismos de B). Tenemos
J1 ⊗ Em = F −1 AF ⊗ Em = F −1 ⊗ Em (A ⊗ Em ) (F ⊗ Em ) ,
donde además
F −1 ⊗ Em = (F ⊗ Em )−1
J1 ⊗ Em = (F ⊗ Em )−1 (A ⊗ Em ) (F ⊗ Em ) ,
En ⊗ J2 = (En ⊗ G)−1 En ⊗ B T (En ⊗ G) .
es decir,
(F ⊗ G)−1 mX (T ) (F ⊗ G) = (J1 ⊗ Em ) + (En ⊗ J2 ) .
Notemos que la matriz (J1 ⊗ Em ) + (En ⊗ J2 ) es triangular inferior y en su diagonal
están las sumas de la forma α + β, las cuales por hipótesis son no nulas, es decir,
esta matriz es invertible, o sea que, mX (T ) es también invertible, y la prueba ha
terminado.
4.6. Ejercicios
1. Sea T : V → V una transformación lineal de un espacio K-espacio V de
dimensión finita n ≥ 1. Demuestre que T es invertible si, y sólo si, el término
independiente q0 del polinomio mı́nimo qT (x) es no nulo.
5 −10 10 −5 1
1 0 0 0 0
0 1 0 0 0
.
0 0 1 0 0
0 0 0 1 0
(i) T = α1 T1 + · · · + αk Tk
(ii) IV = T1 + · · · + Tk
(iii) Ti Tj = 0, para i 6= j
(iv) Ti2 = Ti
(v) Ti (V ) = E(αi ), 1 ≤ i ≤ k.
10. Sea A una matriz cuadrada compleja de orden n ≥ 1 tal que existe un número
natural m para el cual se tiene que Am = E. Demuestre que A es diagonalizable
(E denota la matriz idéntica de tamaño n).
13. Calcule, usando los resultados del presente capı́tulo, una matriz invertible C
tal que C −1 BC sea una matriz de Jordan, donde
7 1 2 2
1 4 −1 −1
.
−2 1 5 −1
1 1 2 8
14. Sea T : C2 → C2 una transformación lineal con un solo valor propio λ. De-
muestre que T − λI es nilpotente.
2 −1 1
−1 2 −1 .
−1 −1 2
determine:
(a) ¿A es diagonalizable?. En caso afirmativo, calcule una matriz diagonalizante.
(b) ¿A es diagonalizable en bloques?. En caso afirmativo calcule una matriz
que la convierta en matriz diagonal en bloques.
(c) La forma racional de A y una matriz racionalizante.
(d) ¿A es diagonalizable en bloques de Jordan?. En caso afirmativo calcule
una matriz que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
19. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que la forma racional de A es la compañera del polinomio mı́nimo
de A (en consecuencia, la forma racional de A tiene un solo bloque racional).
20. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que A no es diagonalizable en bloques.
22. Determine los valores y vectores propios del operador derivación sobre el es-
pacio Rn [x]. ¿Es este operador diagonalizable?
24. Sea A = [aij ] una matriz de orden n ≥ 1 tal que nj=1 aij = 1 para cada
P
1 ≤ i ≤ n. Demuestre que 1 es un valor propio de A.
Capı́tulo 5
Grupos de matrices
Este capı́tulo está dedicado a estudiar grupos de matrices sobre anillos. Se asume
que el lector conoce la teorı́a clásica de formas bilineales y formas cuadráticas so-
bre cuerpos ya que aquı́ construiremos los llamados grupos clásicos sobre anillos,
generalizando dichas formas para anillos no conmutativos con involución. Además,
estudiaremos dos teoremas de Suslin relativos al grupo elemental sobre anillos con-
mutativos.
(i) SLn (K) es el subconjunto de GLn (K) constituido por las matrices de deter-
109
110 CAPÍTULO 5. GRUPOS DE MATRICES
minante 1, es decir,
(ii) Sea
d 1 0
Dn (K) := D(d1 , . . . , dn ) :=
. .. ∈ Mn (K) | d1 · · · dn 6= 0 .
0 dn
(iii) Sea
f11 · · · f1n
. . .
.
Tn (K) := . ∈ Mn (K) | f11 · · · fnn 6= 0, fij = 0 si i > j .
.
0 fnn
(iv) Sea
(i) GLn (K) se puede generar por matrices propiamente elementales y matrices
diagonales. En forma más precisa,
(vii)
Z(GLn (K)) = {a · E | a ∈ K ∗ },
Z(SLn (K)) = {a · E | a ∈ K, an = 1},
Z(Dn (K)) = Dn (K).
(viii)
Z(GLn (K)), si |K| ≥ 3,
Z(Tn (K)) = CGLn (K) (Tn (K)) =
{E, T1n (1)} ∼
= Z2 , si |K| = 2.
(x)
(xv)
(xviii) Para n ≥ 3, SLn (K) y GLn (K) no son solubles. Para n = 2 y |K| ≥ 4,
SL2 (K) y GL2 (K) no son solubles.
(xix) SL2 (Z3 ), SL2 (Z2 ), GL2 (Z3 ) y GL2 (Z2 ) son solubles.
Demostración. (i) (a) La prueba acerca del sistema de generadores de GLn (K) se
puede realizar por inducción sobre n.
n = 2: sea
a11 a12
A=
a21 a22
una matriz invertible. a11 y a12 no pueden ser simultáneamente nulos debido a que
el rango de A es dos. Considérense pues dos casos. Si a11 6= 0, entonces
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 113
1 b12
AD1 (a−1
11 ) = = B,
b21 b22
y
1 c12
T21 (−b21 )B = = C.
0 c22
También,
1 0
CT12 (−c12 ) = = F.
0 f22
En total, F = T21 (−b21 )AD1 (a−1
11 )T12 (−c12 ), y A se puede despejar como un producto
de matrices elementales y diagonales. Nótese que F = D2 (f22 ) es invertible ya que
es producto de invertibles. Si a12 6= 0 entonces se puede reducir esta situación a la
anterior multiplicando la matriz A a la derecha por la permutación P12 , y entonces A
nuevamente se puede expresar como un producto de propiamente elementales y dia-
gonales. Para completar la prueba del caso n = 2 veremos al final de la demostración
de esta parte (a) que cada permutación Pij se pueden expresar como producto de
propiamente elementales y diagonales.
Supóngase que el teorema ha sido probado para matrices de tamaño n × n y sea
A una matriz de tamaño (n + 1) × (n + 1). No es posible que todos los elementos de
la primera fila de A sean nulos; al igual que en el caso n = 2, multiplicando por una
matriz de permutación, se puede asumir que a11 6= 0. La matriz
B = AD1 (a−1
11 )
es tal que b11 = 1 y se puede multiplicar a derecha e izquierda por matrices propia-
mente elementales adecuadas hasta obtener una matriz invertible C de la forma
1 0
C= ,
0 A0
Para concluir la demostración veamos que cada permutación Pij se puede facto-
rizar como producto de propiamente elementales y diagonales. Es suficiente consi-
derar el caso i < j ya que Pji = Pij :
Pij = Tij (1)Di (−1)Tji (1)Tij (−1).
(b) Es claro que SLn (K)Dn (K) ≤ GLn (K); para la otra inclusión, sabemos por
(a) que cada elemento de GLn (K) es producto de matrices propiamente elementales,
es decir, matrices de SLn (K), y matrices diagonales, pero como SLn (K) GL( K),
entonces podemos disponer a la izquierda todas las propiamente elementales y a la
derecha las diagonales: en efecto, en un grupo arbitrario G, si tenemos dos subgrupos
S y D tales que S G, entonces DS = SD: ds = dsd−1 d = s0 d, con d ∈ D, s, s0 ∈ S.
(ii) Veamos que el sistema de generadores de GLn (K) encontrado en (i) se puede
simplificar y considerar solo matrices diagonales de la forma Dn (c), con c ∈ K ∗ . En
efecto, sea i 6= n y c ∈ K ∗ , entonces
Di (c) = Pin Dn (c)Pin = Tin (1)Di (−1)Tni (1)Tin (−1)Dn (c)Tin (1)Di (−1)Tni (1)Tin (−1)
pero como vimos en la parte (b) de (i), podemos permutar Di (−1) con las matrices
propiamente elementales, y además con Dn (c), de tal forma que Di (−1)Di (−1) = E,
y ası́, en la factorización de Di (c) solo hay propiamente elementales y la matriz Dn (c).
De lo anterior se obtiene que SLn (K) = En (K): en efecto, es claro que En (K) ≤
SLn (K); si F ∈ SLn (K) ≤ GLn (K), entonces F es producto de matrices propia-
mente elementales y una matriz de la forma Dn (c), c ∈ K ∗ , pero como det(F ) = 1,
entonces c = 1 y de esta manera F ∈ En (K).
(iii) Evidente.
(iv) Sea F ∈ Tn (K); con los elementos diagonales de F podemos eliminar, por
medio de matrices propiamente elementales, todos los elementos no diagonales su-
periores de F .
(v) Consecuencia directa de (iv).
(vi) La prueba es como en (iv).
(vii) Sea F ∈ Z(GLn (K)), entonces F conmuta con cualquier matriz propiamente
elemental. Veamos que esto implica que A conmuta con cualquier matriz del anillo
Pnn(K). Puesto que cada matriz G ∈ Mn (K) se puede escribir en la forma G =
M
i,j gij Eij , basta probar que F conmuta con cualquier matriz gij Eij . Si i 6= j,
entonces gij Eij = Tij (gij ) − E; si i = j, entonces gii Eii = Tir (gii )Tri (1) − Tri (1) −
Tir (gii ), con i 6= r. Ası́ pues, F ∈ Z(Mn (K)) y F es invertible, pero el centro del
anillo Mn (K) consta de las matrices diagonales para las cuales todas las entradas
diagonales son iguales (véase [6]). Esto completa la demostración del cálculo del
centro del grupo GLn (K).
Veamos ahora la prueba para SLn (K). Sea F ∈ Z(SLn (K)), entonces F conmuta
con cada matriz propiamente elemental, luego por lo probado anteriomente, F ∈
Z(Mn (K)) ∩ SLn (K), es decir, F es de la forma F = a · E, con an = 1.
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 115
lo cual demuestra que T12 (a) ∈ [SL2 (K), SL2 (K)]. De manera similar se prueba que
T21 (a) ∈ [SL2 (K), SL2 (K)]. En consecuencia, SL2 (K) ≤ [SL2 (K), SL2 (K)].
(c) Sea n = 2 y |K| = 3. Probemos que en este caso
Q8 se conoce como el grupo de cuaterniones (véase [5]). Según (ix), |SL2 (Z3 )| =
1
3−1
(32 − 30 )(32 − 31 ) = 24, y como [SL2 (Z3 ), SL2 (Z3 )] ≤ SL2 (Z3 ), entonces
|[SL2 (Z3 ), SL2 (Z3 )]| = 1, 2, 3, 4, 6, 8, 12 ó 24.
Nótese que las siguiente matrices están en SL2 (Z3 ):
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 117
0 1 2 2 1 1 1 0 2 1 2 2
A := , B := , C := , D := , F := , G :=
2 0 2 1 0 1 1 1 1 1 1 0
además, A = [C, D], B = [F, G], es decir, A, B ∈ [SL2 (Z3 ), SL2 (Z3 )], y estas matri-
ces cumplen
A4 = E, B 2 = A2 , BA = A−1 B,
por lo tanto, Q8 ∼ = hA, Bi ≤ [SL2 (Z3 ), SL2 (Z3 )], luego [SL2 (Z3 ), SL2 (Z3 )] = 8 ó 24.
Pero existe una matriz propiamente elemental que no pertenece a [SL2 (Z3 ), SL2 (Z3 )]
(véase la sección de ejercicios al final del capı́tulo), por lo tanto [SL2 (Z3 ), SL2 (Z3 )] =
8 y [SL2 (Z3 ), SL2 (Z3 )] ∼= Q8 .
(d) Sea n = 2 y |K| = 2. Veamos que [SL2 (Z2 ), SL2 (Z2 )] ∼ = Z3 : notemos que
|SL2 (Z2 )| = |GL2 (Z2 )| = 2−1 (2 − 2 )(2 − 2 ) = 6, de donde SL2 (Z2 ) = GL2 (Z2 ) ∼
1 2 0 2 1
=
S3 ∼= D3 (los grupos de orden 6 son dos: Z6 y S3 ∼ = D3 , véase [5]; pero GL2 (Z2 ) no es
abeliano: T12 (1)T21 (1) 6= T21 (1)T12 (1)). Se tiene entonces que [SL2 (Z2 ), SL2 (Z2 )] ∼ =
[D3 , D3 ] ∼ [S
= 3 3 , S ] = A ∼
3 = 3
Z (A 3 es el grupo alternante de orden 3).
Pasamos ahora a considerar el grupo GLn (K). Tenemos entonces tres casos.
(e) Sea n ≥ 3. Según (a), SLn (K) = [SLn (K), SLn (K)] ≤ [GLn (K), GLn (K)];
además, como SLn (K) GLn (K) y GLn (K)/SLn (K) ∼ = K ∗ es abeliano, entonces
[GLn (K), GLn (K)] ≤ SLn (K) (véase [5]). Otra forma de justificar esta última afir-
mación es: det[F, G] = 1 para cualesquiera F, G ∈ GLn (K) (esta afirmación es válida
también para n = 2).
(f) Sea n = 2 y |K| ≥ 3. Tal como acabamos de ver en (e), [GL2 (K), GL2 (K)] ≤
SL2 (K). Para la otra inclusión, sea a0 6= 0, 1; se tienen las siguientes identidades:
T12 (a) = [T12 (ab), D(1, a0 )], b := (a0 − 1)−1 , a ∈ K,
T21 (a) = [T21 (ab), D(a−1 −1
0 , 1)], b := (a0 − 1) , a ∈ K.
luego
G−1 F G = Tr−1 · · · T2−1 (T1−1 T100 · · · Ts00 T1 )T2 · · · Tr ,
118 CAPÍTULO 5. GRUPOS DE MATRICES
donde cada T 00 es nuevamente una matriz de la forma Tij (a), con j − i ≥ m. Note-
mos que T1−1 T100 · · · Ts00 T1 = (T1−1 T100 T1 )T1−1 T200 T1 · · · (T1−1 Ts00 T1 ). Para concluir la de-
mostración basta probar que cada factor T1−1 Tl00 T1 ∈ U Tnm (K), 1 ≤ l ≤ s, y luego
repetir el procedimiento para T2−1 , T2 ; . . . ; Tr−1 , Tr .
Consideremos pues un producto de la forma P := Tij (a)−1 Trs (b)Tij (a), con j > i,
s − r ≥ m, a, b ∈ K. Expandiendo y simplificando, encontramos que
P = E + bErs + baErs Eij − abEij Ers − a2 bEij Ers Eij .
Se presentan las siguientes posiblilidades: (a) j 6= r, s 6= i, entonces P = E + bErs ∈
U Tnm (K); (b) j 6= r, i = s, entonces P = E + bErs + baErj , pero como j > i y
s − r ≥ m, entonces j > s y s ≥ r + m, luego j > r + m, es decir, j − r > m, de
donde P ∈ U Tnm (K); (c) j = r, i 6= s, entonces P = E + bErs − abEis , pero como
j > i y s−r ≥ m, entonces r > i y s ≥ r +m, de donde s > i+m, es decir, s−i > m
y nuevamente P ∈ U Tnm (K); (d) j = r, i = s, pero esta situación es imposible ya
que j > i, s − r ≥ m, de donde r > i, i − r ≥ m, es decir, r − i > 0 y i − r ≥ m > 0,
contradicción.
(xii) Notemos en primer lugar que si |K| = 2, entonces Dn (K) = {E}GLn (K).
Sea |K| ≥ 3, entonces existen al menos dos elementos no nulos diferentes β1 , β2 ∈
K. Sea α cualquier elemento no nulo de K, entonces α(β1 − β2 ) 6= 0 y se tiene la
siguiente identidad:
−1
1 α β1 0 1 α 1 −α β1 β1 α β1 β1 α − β2 α
= = ∈
/ D2 (K).
0 1 0 β2 0 1 0 1 0 β2 0 β2
son los inversos de los elementos diagonales de F , por lo tanto, [Tn (K), Tn (K)] ≤
U Tn (K). Para la otra inclusión notemos que si |K| ≥ 3, entonces existe a0 6= 0, 1 en
K y para cada generador Tij (a) de U Tn (K) se tiene la siguiente identidad general,
la cual generaliza las identidades que vimos en (f) de (x):
Tij (a) = [Tij (ab), D(1, . . . , a0 , . . . , 1)], con b := (a0 − 1)−1 y a0 en la posición j.
(c) Si |K| = 2, entonces Tn (Z2 ) = U Tn (Z2 ), con lo cual [Tn (Z2 ), Tn (Z2 )] =
[U Tn (Z2 ), U Tn (Z2 )] = U Tn2 (Z2 ) (véase la parte (d) a continuación).
(d) Consideremos primero el caso trivial n = 2: U T2 (K) = {T12 (a)|a ∈ K}
y U T22 (K) = {E}, pero como estos dos grupos son abelianos, entonces la afirma-
ción en este caso se cumple trivialmente: [U T2 (K), U T2 (K)] = {E} = U T22 (K);
[U T2 (K), U T22 (K)] = {E} = U T23 (K) = [U T22 (K), U T2 (K]; [U T22 (K), U T22 (K)] =
{E} = U T24 (K).
Sea n ≥ 3. Veamos primero que [U Tnr (K), U Tns (K)] ≤ U Tnr+s (K): basta probar
que si T es un generador de U Tnr (K) y T 0 es un generador de U Tns (K), entonces
[T, T 0 ] ∈ U Tnr+s (K). En efecto, cada generador de [U Tnr (K), U Tns (K)] es de la forma
[F, G] con F ∈ U Tnr (K) y G ∈ U Tns (K); F es producto de generadores e inversos de
generadores de U Tnr (K), lo mismo ocurre para U Tns (K); pero si T es un generador
de U Tnr (K), entonces T −1 es también un generador; lo mismo ocurre para U Tns (K);
ası́ pues, cada generador de [U Tnr (K), U Tns (K)] es de la forma [T1 · · · Tp , T1 · · · Tq0 ]; se
tiene la siguiente identidad en cualquier grupo, [ab, c] = b−1 [a, c]b[b, c]; pero según
(xi), U Tnr+s (K) U Tnr (K), U Tns (K), por lo tanto, basta probar lo anunciado arriba.
Sean Tik (a) ∈ U Tnr (K), Tje (b) ∈ U Tns (K) y consideremos el conmutador
y haciendo w = u resulta
para cada u, v ∈ V . Supóngase ahora que existen x, y ∈ V tales que f (x, y) 6= f (y, x)
y que existe z ∈ V tal que f (z, z) 6= 0. Por (5.1.5),
De este modo, el estudio de los grupos clásicos se reduce a dos casos: grupos
obtenidos de formas simétricas y grupos obtenidos de formas alternadas.
Sea f una forma bilineal simétrica no degenerada sobre V ; una transformación
T que preserva f se denomina transformación ortogonal , y el grupo clásico
correspondiente se denomina grupo ortogonal denotado O(V, f ). Esta notación
resulta adecuada pues el grupo ortogonal definido de esta manera depende de V (y
por lo tanto de K y de n) y de f , o de manera equivalente, de la matriz B. Según
vimos atrás, el grupo ortogonal se puede caracterizar en lenguaje matricial de la
siguiente manera:
Observación 5.1.5. El centro de On (K) es {E, −E} y, salvo algunos casos parti-
culares, el cociente del grupo conmutante de On (K) y su centro es un grupo simple;
estos resultados fueron probados por Dickson y Dieudonné, pero la prueba no está en
el contexto del presente cuaderno.
Sea f una forma bilineal alternada no degenerada sobre V . Una transformación lineal
que preserva f se denomina transformación simplicial , el grupo correspondiente
se denomina grupo simplicial y se nota Spn (K). Se puede probar que si char(K) 6=
2, entonces se puede encontrar una base de V tal que la matriz Be de f en dicha base
tenga la siguiente presentación
0 1
−1 0 0
0 1
−1 0
B :=
e .
..
.
0 1
0
−1 0
Observación 5.1.6. El grupo simpléctico tiene las siguientes propiedades: Spn (K) ≤
SLn (K), el centro de Spn (K) es {−E, E}, y si K posee más de tres elementos en-
tonces el grupo simplicial es igual a su grupo conmutante. El cociente del grupo
conmutante de Spn (K) con su centro es un grupo simple. Finalmente, si K es un
cuerpo finito con q elementos (q ≥ 3), entonces el orden del grupo simplicial es
La prueba de estas afirmaciones está fuera del alcance del presente cuaderno.
A partir de formas sesquilineales que se definen en cuerpos que presenten una in-
volución análoga a la conjugación en C aparece otro tipo de grupo clásico de ma-
trices, tal como veremos a continuación. Una forma sesquilineal en un espa-
cio vectorial sobre C es una función f : V × V → C lineal en un argumento
y “semilineal” en el otro; más precisamente: f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ),
f (u, a · v) = af (u, v), f (u1 + u2 , v) = f (u1 , v) + f (u2 , v) y f (a · u, v) = af (u, v)
para todo u, v, u1 , u2 , v1 , v2 ∈ V y a ∈ C. Habitualmente la semilinealidad se es-
tablece para el segundo argumento, pero para definir los grupos clásicos el cambio
al primer argumento resulta conveniente. Se tiene entonces que si dim(V ) = n y
X = {x1 , . . . , xn } es una base del espacio V , la matriz de la forma sesquilineal f en
124 CAPÍTULO 5. GRUPOS DE MATRICES
Los subgrupos En (A), Dn (A), Tn (A), U Tn (A) y U Tnm (A) se definen en forma análoga
a como vimos antes para cuerpos; en los casos de Dn (A) y Tn (A) se debe asumir
que d1 , . . . , dn , f11 , . . . , fnn ∈ A∗ . El grupo especial lineal sobre anilllos arbitrarios
en general carece de sentido ya que la teorı́a de determinantes para anillos no con-
mutativos no está siempre definida; por supuesto que si R es un anillo conmutativo
entonces SLn (R) está definido y consta de las matrices con determinante 1.
Las propiedades estructurales de GLn (A) y sus subgrupos fueron objeto de in-
tenso estudio en las décadas de los 70 y 80. Mostraremos a continuación solo un par
de estas propiedades.
Proposición 5.2.1.
Demostración. Es evidente que a·E con a ∈ Z(A)∗ es invertible (con inversa a−1 ·E)
y que conmuta con cualquier matriz de Mn (A), luego a · E ∈ Z(GLn (A)). Sea ahora
F ∈ Z(GLn (A)), entonces para r, s, con 1 ≤ r 6= s ≤ n, F (E + Ers ) = (E + Ers )F ,
luego F Ers = Ers F . Ahora bien, F Ers tiene la r-ésima columna de F en la columna
s, y cero en las demás entradas, y Ers F tiene la s-ésima fila de F en la fila r y
cero en las demás entradas. Por lo tanto, F Ers = Ers F implica que si F := [fij ]
entonces frr = fss , fir = 0 para i 6= r y fsj = 0 para j 6= s. Pero F ∈ Z(GLn (A))
conmuta con todas las matrices Ers (r 6= s), luego todas las entradas de la diagonal
son iguales y las demás entradas son cero, es decir, F = a · E para algún a ∈ A. Pero
F ∈ GLn (A), luego necesariamente a es invertible, y como F conmuta con todas las
matrices de GLn (A), a ∈ Z(A).
(iii) [Tik (a), Tkj (b)] = Tij (ab). Además, si i 6= l y k 6= j, [Tij (a), Tkl (b)] = E.
(v) Di (u)Tij (a) = Tij (ua)Di (u), Di (u)Tji (a) = Tji (au−1 )Di (u). Además, para j 6=
i y k 6= i, Di (u)Tjk (a) = Tjk (a)Di (u).
Demostración. (i) Tij (a)Tij (b) = (E + a · Eij )(E + b · Eij ) = E + a · Eij + b · Eij =
E + (a + b) · Eij = Tij (a + b).
(ii) Tij (a)Tkl (b) = (E + a · Eij )(E + b · Ekl ) = E + a · Eij + b · Ekl y Tkl (b)Tij (a) =
(E + b · Ekl )(E + a · Eij ) = E + b · Ekl + a · Eij .
126 CAPÍTULO 5. GRUPOS DE MATRICES
(iii) [Tik (a), Tkj (b)] = (E + a · Eik )(E + b · Ekj )(E − a · Eik )(E − b · Ekj ) =
(E + a · Eik + b · Ekj + ab · Eij )(E − a · Eik − b · Ekj + ab · Eij ) = E − a · Eik − b ·
Ekj + ab · Eij + a · Eik − ab · Eij + b · Ekj + ab · Eij = E + ab · Eij = Tij (ab).
Usando (ii) y (i) se tiene que
[Tij (a), Tkl (b)] = Tij (a)Tkl (b)Tij (−a)Tkl (−b) = Tkl (b)Tij (a)Tij (−a)Tkl (−b) =
Tkl (b)Tkl (−b) = E.
Corolario 5.2.3. Si n ≥ 3,
Demostración. [En (A), En (A)] ⊆ En (A); recı́procamente, si Tij (a) ∈ En (A), como
n ≥ 3, sea k 6= i, k 6= j entonces Tij (a) = Tij (a1) = [Tik (a), Tkj (1)] ∈ [En (A), En (A)].
1 + av1 v2 −av12 0 F1 →F1 +v1 F3 1 + av1 v2 −av12 v1
F2 →F2 +v2 F3
A = av22 1 − av1 v2 0 −− −−−−−→ av22 1 − av1 v2 v2
0 0 1 0 0 1
1 −av12 v1 1 0 v1
C1 →C1 −av2 C3 C2 →C2 +av1 C3
−− −−−−−−→ 0 1 − av1 v2 v2 −− −−−−−−→ 0 1 v2
−av2 0 1 −av2 av1 1
1 0 v1 1 0 0
F3 →F3 +av2 F1 C3 →C3 −v1 C1
−− −−−−−−→ 0 1 v2 −−−−−−−−→ 0 1 v2
0 av1 1 + av1 v2 0 av1 1 + av1 v2
1 0 0 1 0 0
F3 →F3 −av1 F2 F2 →F2 −v2 F3
−− −−−−−−→ 0 1 v2 −− −−−−−→ 0 1 0
0 0 1 0 0 1
A = T13 (−v1 )T23 (−v2 )T31 (−av2 )T32 (av1 )T13 (v1 )T23 (v2 )T31 (av2 )T32 (−av1 ).
v1
..
B = E + a . 0, . . . , vj , 0, . . . , −vi , 0, . . . , 0
vn
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 129
Cada factor del lado derecho de la última ecuación en una matriz de Cohn, luego se
pueden escribir como un producto de matrices elementales, con lo cual A también
es un producto de matrices elementales.
Lema 5.3.5. Sean R un anillo conmutativo y n ≥ 3. BTij (a)B −1 ∈ En (R), para
cada a ∈ R y B ∈ GLn (R).
Demostración. Para una matriz A, denotemos por A(i) su fila i y por A(j) su columna
j, entonces
T12 (u) 1 −u
1 0T12 (u)
−−−→ u−1 0
−−−→
u−1 1 .
u−1 0 T21 (−1)T12 (1)T21 (−1)T12 (−u)T21 (u−1 )T12 (−u)
Ası́, 0 u = y, por lo tanto,
diag(d−1
1 , d1 , 1, . . . , 1) = T2
algún j 6= i se tiene a0j 6= 0, entonces m(α0 ) ≤ δ(a0j ) = δ(rj ) < δ(ai ), de donde resulta
m(α0 ) < m(α). En consecuencia, si el proceso se repite con α0 , en un número finito
de pasos obtenemos que todos los residuos son nulos, y por lo tanto el resultado
buscado.
Proposición 5.3.10. Si R es un dominio euclidiano y n ≥ 2, toda matriz de
GLn (R) se puede expresar como producto de matrices elementales y diagonales.
Demostración. (i) Sea M ∈ GLn (R), n ≥ 2. Por el lema 5.3.9, existe T ∈ En (R) tal
que
m 0 ··· 0
m2
M T = .. ,
. M
f
mn
f ∈ Mn−1 (R). Pero M es invertible, luego det(M ) ∈ R∗ y como det(M ) =
donde M
det(M T ) = m det(Mf), se tiene que m, det(M f) ∈ R∗ y por tanto, M
f ∈ GLn−1 (R).
Ası́,
1 0 ··· 0
m2
−1
M T D1 (m ) = ..
. Mf
mn
y,
1 0 ··· 0
0
−1
Tn1 (−mn ) · · · T21 (−m2 )M T D1 (m ) = .. .
. M
f
0
(ii) Probaremos ahora la afirmación por inducción sobre n.
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 133
−1 1 0
(a) Si n = 2, por (i) se tiene T21 (−m2 )M T D1 (m ) = = D2 (m),
e dado que
0 me
m
e = det(M f) ∈ R∗ , y entonces M = T21 (m2 )D2 (m)D
e 1 (m)T −1 es un producto
de matrices elementales y diagonales.
(b) Supóngase que la afirmación es válida para n = k − 1, k ≥ 3, y sea M ∈
GLk (R). Nuevamente por (i),
1 0 −1
M = T21 (m2 ) · · · Tk−1,1 (mk−1 ) f D1 (m)T ,
0 M
y,
T1 := T1n (−crn ) · · · T12 (−cr2 )T21 (m21 u−1 ) · · · Tn1 (mn1 u−1 ) ∈ En (A)
y,
T2 := T1n (m01n u−1 ) · · · T12 (m012 u−1 ) ∈ En (A).
1 0
Como M, T1 , D1 (u) y T2 son elementos de GLn (A), necesariamente f es in-
0 M
vertible y por lo tanto Mf ∈ GLn−1 (A).
(ii) Demostraremos ahora la afirmación haciendo inducción sobre n.
0
(a) Si n = 2, por (i) se tiene M = T1 10 m
e D1 (u)T2 = T1 D2 (m)D
e 1 (u)T2 , dado que
∗
me ∈A .
(i) (a + b)∗ = a∗ + b∗
(ii) (ab)∗ = b∗ a∗
(iii) (a∗ )∗ = a
para cada a, b ∈ A.
Demostración. La identidad siempre satisface (i) y (iii), y satisface (ii) si, y sólo si,
A es conmutativo.
(i) 0∗ = 0 y 1∗ = 1.
(iii) (F ∗ )∗ = F .
(iv) (a · F )∗ = F ∗ · a∗ .
U (F ) := {M ∈ GLn (A) | M ∗ F M = F }.
rM se denomina multiplicador de M ∈ GU (F ).
Por consiguiente, U (F ) es el subgrupo de GU (F ) constituido por las matrices de
multiplicador 1.
Proposición 5.4.12. Sea ∗ una involución en A, ε ∈ Z(A) tal que εε∗ = 1 y
Q ∈ Mn (A). Entonces X := {M ∈ GLn (A) | M ∗ QM − Q es alternada } es un
subgrupo de GLn (A).
Demostración. Como la matriz nula es alternada (0 = 0 − ε · 0∗ ) E ∈ X y X 6= ∅.
Si M, N ∈ X, entonces M ∗ QM − Q = M1 − ε · M1∗ y N ∗ QN − Q = N1 − ε · N1∗
para ciertas M1 , N1 ∈ Mn (A). Ahora, (M N )∗ Q(M N ) − Q = N ∗ (M ∗ QM )N − Q =
N ∗ (Q + M1 − ε · M1∗ )N − Q = N ∗ QN − Q + N ∗ (M1 − ε · M1∗ )N = N1 − ε ·
N1∗ + N ∗ M1 N − εN ∗ M1∗ N = (N1 + N ∗ M1 N ) − ε · (N1 + N ∗ M1 N )∗ es alternada, de
modo que M N ∈ X. Por otro lado, QM − (M −1 )∗ Q = (M −1 )∗ M1 − ε · (M −1 )∗ M1∗ ,
luego Q − (M −1 )∗ QM −1 = (M −1 )∗ M1 M −1 − ε · (M −1 )∗ M1∗ M −1 , y en consecuencia
(M −1 )∗ QM −1 −Q = [ε·(M −1 )∗ M1∗ M −1 ]−ε·[ε·(M −1 )∗ M1∗ M −1 ]∗ , luego M −1 ∈ X.
Definición 5.4.13. Sea ∗ una involución en A, ε ∈ Z(A) tal que εε∗ = 1. Si
Q ∈ Mn (A), el grupo ortogonal correspondiente a Q es
O(Q) := {M ∈ GLn (A) | M ∗ QM − Q es alternada }.
En el caso particular de los anillos conmutativos se tienen otros dos grupos
clásicos.
Definición 5.4.14. Sean R un anillo conmutativo y ∗ una involución en R.
(i) Sea F ∈ Mn (R). El grupo unitario especial correspondiente a F es
SU (F ) := U (F ) ∩ SLn (R).
(i) SU (F ) U (F ).
Para terminar veamos que los grupos clásicos introducidos en esta sección corres-
ponden a aquellos que vimos para cuerpos al principio del capı́tulo. Sea K un cuerpo,
para los grupos ortogonales se toma la identidad como involución y Q simétrica,
de manera que para cada matriz M se tiene que M ∗ = M T y si M ∈ O(Q),
entonces (M T QM − Q)T = M T QT M − QT = M T QM − Q, es decir, M T QM − Q
es simétrica, pero por definición de O(Q) esta matriz también es alternada, por lo
tanto antisimétrica. En consecuencia, si 1 + 1 6= 0 en K, se tiene M T QM − Q = 0
(proposición 5.4.8) luego O(Q) = {M ∈ GLn (K)|M T QM = Q} = U (Q), y este
grupo coincide con el grupo ortogonal definido para cuerpos. Si además se toma
Q invertible, det(M ) = ±1 y SU (Q) es el subgrupo de matrices de determinante
“positivo”, de ahı́ que en algunas ocasiones se utilice la notación U + (Q). Si F es
antihermitiana (antisimétrica), entonces el grupo U (F ) es el grupo grupo simplicial.
El grupo de similitudes es entonces
5.5. Ejercicios
1. Demuestre que existe al menos una matriz propiamente elemental de SL2 (Z3 )
que no pertenece a [SL2 (Z3 ), SL2 (Z3 )].
3. Sea dimV = n y sea K un cuerpo tal que char(K) 6= 2. Sea f una forma
bilineal simétrica sobre V . Demuestre que existe una base X en V tal que
mX (f ) es diagonal.
140 CAPÍTULO 5. GRUPOS DE MATRICES
(, )q : V × V → A
(u, v) 7→ (u, v)q := Q(u, v) + εQ∗ (v, u).
es un subgrupo de AutA (V ).
b) Si F es una forma sesquilineal hermitiana o antihermitiana en V , el grupo
unitario correspondiente a F es
[1] Brown, W., Matrices over Commutative Rings, Marcel Dekker, 1993. vi, 19,
38, 39
[2] Cohn, P., Free Rings and their Relations, Academic Press, 1985. 17
[3] Kostrikin, A. I. and Manin, Y. I., Linear Algebra and Geometry, Algebra,
Logic and Applications Series Volume 1, Gordon and Breach Science Publishers,
1997.
[4] Lezama, O., Anillos dimensionales, Bol. de Mat., Vol. XIX, 1985, 194-220.
[10] MacDonald, B., Linear Algebra over Commutative Rings, Marcel Dekker,
1984. vi
[11] Park, H. and Woodburn, C., An algorithmic proof of Suslin’s stability the-
orem for polynomial rings, J. Algebra, 178, 1995, 277-298. 127, 130
144
BIBLIOGRAFÍA 145
[12] Pinto, M., Una Prueba Algorı́tmica para el Teorema de Estabilidad de Suslin
sobre Dominios de Dedekind, Tesis de Maestrı́a, Universidad Nacional de Colom-
bia, Bogotá, 2009. 127, 130
[13] Suslin. A, On the structure of the special linear group over polynomial rings,
Math. USSR Izv., 11, 1977, 221 − 238. 33, 127