Sei sulla pagina 1di 271

Algebra Lineal

Jorge Luis Arocha


versi on compilada el
7 de agosto de 2012
Jorge Luis Arocha Perez
Instituto de Matem aticas
Universidad Nacional Aut onoma de Mexico
Mexico D.F. 04510
BibTeX:
@textbook{ArochaLA
AUTHOR = {Arocha, Jorge L.}
TITLE = {\Algebra Lineal}
YEAR = {2011}
NOTE = {Available at combinatoria.matem.unam.mx}
}
Mathematics Subject Classication 2000: 0001, 1201, 1501
c 2011 Jorge Luis Arocha Perez
Permitida la reproducci on para uso individual y no comercial.
Todos los dem as derechos estan reservados.
Introducci on
Este libro lo escrib como texto b asico para el curso de

Algebra Lineal para estu-


diantes de Licenciatura que he impartido por muchos a nos en la Facultad de Ciencias
de la Universidad Nacional Autonoma de Mexico.
Se presupone que los estudiantes hayan cursado ya las materias de

Algebra su-
perior y Geometra Analtica o sea tengan ciertos conocimientos sobre matrices,
vectores, polinomios, n umeros complejos, etc.
El objetivo es desarrollar el algebra lineal sobre campos arbitrarios pero se hace
enfasis en los reales, los complejos y los residuos modulo un n umero primo. Despues de
una introducci on corta a la teora de campos se estudian los espacios vectoriales, las
transformaciones lineales, los determinantes y nalmente los teoremas de descomposi-
cion de operadores.
Por ahora, este libro no contiene practicamente nada de transformaciones bilinea-
les, productos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes
est a escribir una segunda parte o aumentar este libro con captulos sobre estos temas.
El material que comprende este libro es demasiado para un semestre y usualmen-
te yo imparto en un semestre de los captulos IIV aquellas secciones que no est an
marcadas como avanzadas. Un segundo semestre podra comenzar con las secciones de
polinomios sobre campos, continuar con la descomposici on de operadores lineales y ter-
minar con aquellos temas que ya se nale, faltan aqu. Otras secciones las escrib porque
me parecieron un buen material de lectura complementaria para los alumnos curiosos.
Este libro es inusualmente colorido y visualmente agresivo. La raz on de esto es que
cuando estaba en el papel de alumno yo prefera estudiar por las libretas de notas de
mis compa neras de clase. Se me haca muy f acil memorizar la imagen completa de una
pagina llena de rayas, ores, corazones etc. y dentro de todo esto, las matem aticas. La
idea es que cada pagina luzca visualmente diferente. He tratado dentro de lo posible,
lograr esto.
Los caracteres de matematicas est an en un color diferente. El texto y las secciones
avanzadas est an marcados con un birrete. Uso unos lentes para marcar aquello que
el lector no debe dejar pasar. Errores comunas que cometen los que no est an familia-
rizados con el material est an marcados con calaveras. Los teoremas est an resaltados
visualmente, etc.
Se incluyen m as de un centenar de ejercicios. Los ejercicios m as notables consisten
en material adicional que un estudiante de matematicas o fsica debe conocer tarde o
temprano. Las soluciones de los ejercicios no rutinarios se dan al nal del libro.
He compilado un glosario de terminos que es a la vez un ndice del libro y un
diccionario de los conceptos introducidos y/o usados.
Finalmente, incluyo una gua de estudio. De esta gua yo escojo las preguntas para
los examenes. Esto representa una ventaja enorme para los estudiantes ya que una
de las dicultades m as importantes de ser estudiante es comprender que es lo que se
espera de ellos.
Jorge L. Arocha
Mexico D.F. Diciembre de 2010
IV
Captulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos in-
versos (5). Distributividad (5). El algebra abstracta(5).
1.2 N umeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Naturales (6). Enteros (7). Grupos (7). Anillos (7). Racionales (8). Reales (9).
Complejos (10).
1.3 Morsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Morsmos de grupos (10). Morsmos de anillos (12). Isomorsmos (12). Com-
posici on de morsmos (14).
1.4 Campos de restos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
El anillo de los enteros modulo n (15). Dominios de integridad (16). El campo
de los enteros modulo p (16).
1.5 Campos primos. Caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Campos primos (18). Caracterstica (19).
1.6 Aritmetica de campos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
M ultiplos y exponentes enteros (20). Asociatividad general (20). Distributividad
general (21). F ormula multinomial (21). La expansi on de
ij
(22).
*1.7 Anillos con divisi on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Quaterniones (24). Caso nito (25).
Captulo 2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1 El plano cartesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Denici on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
El espacio de n-adas K
n
(29). El espacio de polinomios K[x] (30). El espacio
de sucesiones K
N
(30). El espacio de series K[[x]] (31). El espacio de funciones
K
N
(31). El espacio de N-adas K
N
(31). El espacio de N-adas con soporte
nito K
{N}
(32). Subcampos (32). El espacio de N-adas de vectores E
N
(32).
El espacio de NM-matrices K
NM
(33). El espacio de tensores (34).
2.3 Subespacios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Uni on e intersecci on de subespacios (35). Combinaciones lineales (35). Cerra-
dura lineal (37).
2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Conjuntos generadores (38). Conjuntos linealmente independientes (39). Bases
(40). Dimensi on (42). Bases canonicas (44).
2.5 Clasicaci on de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Isomorsmos lineales (45). Coordinatizaci on (47). Clasicaci on (47). Campos
de Galois (48). Como pensar en espacios vectoriales (48).
2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
VI Contenido
Subespacios de R
n
(49). Suma de conjuntos y subespacios (50). La igualdad
modular (51). Suma directa (52). Isomorsmo can onico entre la suma y la suma
directa. (53). Subespacios complementarios (54). Espacios vectoriales versus
conjuntos (55).
2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Subespacios anes (56). El espacio cociente (57). El isomorsmo con los com-
plementarios (58).
*2.8 El espacio afn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
La regla del paralelogramo (60). Cerradura afn (60). Generadores e indepen-
dencia (61). Bases anes (61).
*2.9 El caso de dimensi on innita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
El Lema de Zorn (63). Existencia de bases (63). Cardinales (64). Equicardina-
lidad de las bases (65).
Captulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.1 Denici on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Imagenes de subespacios (67). Homotecias (68). Inmersiones (69). Proyecciones
(69).
3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 70
El espacio vectorial de las transformaciones lineales (71). Composicion de trans-
formaciones lineales (71). El algebra de operadores lineales (72). El grupo ge-
neral lineal (73).
3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Extensiones y restricciones (74). El isomorsmo entre F
N
y Mor (E, F) (75). Un
criterio de isomorsmo (75).
3.4 Coordinatizaci on de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . 76
El producto escalar canonico (78). El producto de matrices (78). Productos de
matrices y vectores (79). La transformaci on lineal de una matriz (79). La matriz
de una transformacion lineal (80). Composici on de TLs y producto de matrices
(80). Matrices inversas (81).
3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Cambios de base en un espacio vectorial (82). Cambios de base en el espacio
de transformaciones lineales (83). Cambios de base en el espacio de operadores
lineales (84). La transformaci on lineal tanspuesta (85).
3.6 El nucleo y la imagen de una transformaci on lineal . . . . . . . . . . . . . . . . 87
Deniciones (87). Transformaciones lineales con nucleo trivial (87). Descompo-
sici on de transformaciones lineales (88). La descomposicion de la transpuesta
(88). Un criterio de isomorsmo (89). Descomposici on canonica de transforma-
ciones lineales (90).
*3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . . 91
Trasformaciones semilineales reales (91). Propiedades de las transformaciones
semilineales (92). Automorsmos semilineales. (92). Coalineaciones (93). Es-
tructura de las coalineaciones (95).
Captulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
VII Contenido
El grupo simetrico (99). Ciclos (100). El grupo alternante (101). El signo de
una permutacion (102).
4.2 Propiedades basicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Denici on de los determinantes (103). Determinantes de matrices peque nas
(104). El determinante de la identidad (104). Matrices con las nulas (105).
El determinante de la transpuesta (105). Matrices con las iguales (106). Per-
mutaciones de columnas y renglones (106). El determinante del producto (107).
Matrices de permutaciones (108).
4.3 Expansi on de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Cambios de ndices (109). Complementos algebraicos (111). La expansion de un
determinante por sus renglones (111). La expansion de Laplace en forma graca
(112). Multinearidad de los determinantes (113). La inversa de una matriz (115).
El determinante de un operador lineal (116).
*4.4 La expansi on generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Matrices diagonales y triangulares por bloques (118). La expansi on generalizada
de Laplace en forma graca (119).
4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Matrices no singulares (121). Espacios de columnas y renglones (121). Lema de
aumento de matrices no singulares (122). Bases de una matriz (122).
4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Regla de Cramer (124). Existencia de soluciones (126). Eliminaci on de ecuacio-
nes dependientes (126). El nucleo y la imagen de una matriz (127). Bases del
subespacio afn de soluciones (127).
4.7 Metodo de eliminaci on de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Transformaciones elementales (128). Ejemplo (129). El caso general (130). So-
luci on de ecuaciones matriciales, matriz inversa (131).
Captulo 5 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.1 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Suma y producto de polinomios (133). La funcion de evaluaci on (134). Divi-
si on de polinomios (135). Factores y raices (135). Ideales de polinomios (136).
Unicidad de la factorizaci on en irreducibles. (138). El conjunto ordenado de
polinomios m onicos (139). Desarrollo de Taylor (140).
5.2 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
Forma polar. Igualdad de Moivre (142). Continuidad (143). Lmite de sucesiones
complejas (145). Teorema de Gauss (146).
5.3 Factorizaci on de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . 147
Caso Complejo (147). Caso real (148).
5.4 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . 149
Campos de fracciones (149). Funciones racionales (151).
5.5 Formas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Polinomios de muchas variables (152). La evaluaci on de un polinomio (153).
Formas lineales (153). Formas cuadraticas (153). Formas bilineales (154). For-
mas multilineales (154).
Captulo 6 Descomposicion de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . 157
VIII Contenido
6.1 Suma directa de operadores lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Subespacios invariantes, componentes irreducibles (158). Ejemplos en dimensi on
2 (159). Las matrices y los subespacios invariantes (160).
6.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
El morsmo de K[x] en End(E) (161). La subalgebra K[h] (162). El polinomio
mnimo (163). El perodo de un vector (163). Anuladores (164). Nucleos de
polinomios de operadores lineales (165). Conjuntos de vectores y polinomios
(165).
6.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Operadores lineales radicales (168). Componentes radicales (169). Existencia de
un vector de perodo maximo (170).
6.4 El espacio cociente por un subespacio invariante . . . . . . . . . . . . . . . . . . . 170
Polinomios y el espacio cociente (172).
6.5 Subespacios cclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Conjuntos h-generadores (174). Conjuntos h-independientes (175). h-bases (176).
6.6 Descomposicion en subespacios cclicos radicales. . . . . . . . . . . . . . . . . . . 177
6.7 Estructura de los operadores cclicos radicales . . . . . . . . . . . . . . . . . . . . . . 182
Subespacios invariantes (182). Formas canonicas (183). = 1 (186). = 2
(187). Usando la base canonica (188).
6.8 Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Rectas invariantes (190). El polinomio caracterstico de un operador lineal (190).
El polinomio caracterstico y el polinomio mnimo (191).
Captulo 7 Funcionales y formas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
7.1 El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
Funcionales lineales (195). El isomorsmo de un espacio con su dual (195). La
transformacion lineal dual (197). La TL dual en coordenadas (197). Covariancia
y contravariancia (197). TLs sobreyectivas e inyectivas (198). Propiedades de
la TL dual (198).
7.2 Funcionales bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
La notaci on (200). Los funcionales bilineales en coordenadas (200). Los isomor-
smos Mor

E, F
#

Bil (E, F) Mor

F, E
#

(201). Nucleos de los funcio-


nales bilineales (203). Nucleos de los funcionales bilineales en dimensi on nita
(204). El doble dual (204). Una dualidad (205). Los isomorsmos entre E y E
#
(206).
7.3 Anuladores (ortogonalidad) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
Primeras propiedades (207). Caso nito dimensional (207).
7.4 Productos bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
Perpendicularidad (209). Consecuencias de la simetra de la perpendicularidad
(210). Suma perpendicular externa (211). Espacios irreducibles (212). Espacios
ortogonales y simplecticos (213).
7.5 Isomorsmos de espacios con producto bilineal . . . . . . . . . . . . . . . . . . . . . 214
IX Contenido
Clasicaci on de productos bilineales. Caso simplectico. (215). Clasicaci on de
espacios ortogonales de dimensi on 1. Equivalencia cuadr atica (216). Clasica-
ci on de espacios ortogonales. Casos particulares (218). Ley de inercia de Silvestre
(220). Productos bilineales sobre campos nitos (221).
Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
Gua de estudio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
X
El algebra es la oferta hecha por el Diablo a los matem aticos.
El Diablo dice:
Yo te dare a ti esta poderosa maquinaria
que respondera cualquier pregunta que tu quieras.
Todo lo que se necesita que tu hagas es entregarme tu alma:
dame la geometra y tendras esta maravillosa maquina
...el da no a nuestra alma est a ah,
porque cuando usted pasa a hacer c alculos algebraicos,
esencialmente usted deja de pensar...
Sir Michael Atiyah
La forma correcta de leer las matem aticas consiste en primero
leer las deniciones de los conceptos y las armaciones de los teoremas; luego,
poner el libro a un lado y tratar de descubrir por si mismo las pruebas adecuadas.
Si los teoremas no son triviales, el intento puede fallar,
pero es probable que de todas maneras sea instructivo.
Para el lector pasivo un c omputo rutinario y un milagro de creatividad,
se leen con la misma facilidad, y m as tarde, cuando deba depender de s mismo,
se dar a cuenta de que se fueron tan f acilmente como vinieron.
El lector activo, que se ha enterado de lo que no funciona,
entiende mejor la raz on del exito del metodo del autor,
y despues encontrara las respuestas que no est an en los libros...
Paul Halmos
l objeto del algebra lineal es el estudio de los espacios vectoriales. Estos
espacios son estructuras algebraicas cuyos objetos son de dos tipos los vectores
y los escalares. Las operaciones denidas en los espacios vectoriales son la
suma y resta de vectores, la suma resta multiplicaci on y divisi on de escalares y la
multiplicaci on de escalares por vectores. La mayora de los temas estudiados en este
libro no dependen del conjunto de escalares y el lector puede casi siempre considerar
que los escalares son los reales R y que el espacio vectorial es el espacio geometrico
com un R
n
.
Sin embargo, como esta teora no depende (al menos en gran parte) del conjunto de
escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matem aticas
y las ciencias naturales) es conveniente elevar un paso el nivel de abstraccion y pensar
que el conjunto de escalares es un campo arbitrario K .
El primer objetivo de este captulo es dar al lector un conocimiento b asico de lo
que es un campo. Esto se pretende lograr por tres medios: dando la denici on formal,
estudiando algunas propiedades (como la caracterstica) de los mismos, viendo que las
reglas usuales de manipulaci on de f ormulas en un campo no se diferencian esencialmente
de las formulas en los reales y sobre todo, dando los ejemplos fundamentales de campos.
Posteriormente, estudiaremos las principales propiedades de los polinomios con co-
ecientes en un campo. En particular, los teoremas de descomposici on en factores de
polinomios complejos y reales ser an fundamentales para, en un captulo posterior, des-
arrollar la descomposici on de Jordan de operadores lineales.
1.1 Operaciones binarias
Sea A un conjunto. Una operacion binaria es una funci on del producto cartesiano
A A en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A
se le hace corresponder un tercer elemento de A. Demos algunos ejemplos sencillos:
2 Captulo 1. Campos
1) a +b suma 5) a
b
exponenciacion
2) a b resta 6) log
a
b logaritmo
3) ab producto 7) mcd(a, b) m ax com un divisor
4)
a
b
division 8) mcm(a, b) mn com un m ultiplo
Lo primero que observamos de los ejemplos anteriores es que no hemos denido
en cual conjunto est a denida la operaci on. Esto no es correcto formalmente, as por
ejemplo la divisi on es una operaci on que no est a denida en el conjunto de los n umeros
enteros. Sin embargo el lector podr a f acilmente encontrar los conjuntos en los cuales
estos ejemplos son operaciones binarias.
Ejercicio 1 En cuales conjuntos las operaciones 1-8 est an correctamente denidas?
[223]
Ejercicio 2 Que es una operaci on unaria? De ejemplos. [223]
Ejercicio 3 Dados tres n umeros reales a, b, c denamos A(a, b, c) como el area del
tri angulo con lados a, b y c. Es esta una operacion ternaria en R? [223]
Lo segundo que debemos de observar, es la variedad de notaciones usadas para
representar las operaciones binarias. Sobre todo, son complicadas las notaciones de la
operaciones 4-6. Lo que tienen en com un, es que no nos alcanza una lnea de smbo-
los para escribirlas. Necesitamos subir y/o bajar adem as de movernos de derecha a
izquierda. O sea, necesitamos dos dimensiones para escribirlas.
Quiza sea m as ilustrativo, poner un ejemplo m as com-
/4
R
0

asin x +bsin
x
2

dx
plejo de notaci on dos dimensional. La integral en el re-
cuadro a la derecha est a bien denida para cualesquiera
valores reales a, b y por lo tanto es una operaci on binaria
denida en R.
Mas sencillos son los ejemplos de notaciones lineales 1-3,7-8. En realidad, para las
notaciones lineales solo hay tres posibilidades:
(a, b) notaci on preja o funcional
a b notaci on operacional
(a, b) notaci on suja
Las operaciones 1-3 estan en notaci on operacional y las operaciones 7-8 estan en
notaci on prejija. La notaci on suja es util sobre todo en la programaci on de compilado-
res para lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente
lo m as f acil es decirle a una computadora toma el n umero a, toma el n umero
b,s umalos y no hacerlo de otra manera.
3 Seccion 1.1 Operaciones binarias
Ejercicio 4 La notaci on suja para a(b +c) /2 es bc+a2 . Cual ser a la notaci on
suja para la expresi on (a +b) (x +y)? [223]
Cualquier intento, de tratar de unicar las notaciones usadas en la comunicaci on
entre humanos, solo llevara a confusiones mucho peores. Sin embargo, tenemos la
libertad de escoger una notaci on unicada para las operaciones binarias abstractas que
denamos. De una vez, postularemos que siempre usaremos la notacion operacional
para denir operaciones binarias abstractas.
Recalquemos que una operaci on abstracta no signica nada m as que es una ope-
raci on que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2.
Despues, tempranamente en el estudio de las matematicas, la expresi on a+b signica
que a un n umero a (no se sabe cual) le sumamos un n umero b (tampoco se sabe cual).
Ahora, la expresi on a + b signicar a que a un objeto a (n umero, polinomio, matriz,
quien sabe que) le sumamos (no se sabe lo que quiere decir suma) un objeto b (del
que tampoco se sabe mucho).
Conmutatividad
Es 3+2 igual a 2+3? S. Es 3
2
igual a 2
3
? No. Una operaci on binaria
a, b A
a b = b a
denotada por y denida en el conjunto A se dice que es conmuta-
tiva si se cumple la propiedad en el recuadro a la izquierda. Ser o no
conmutativa es la propiedad m as sencilla que diferencia las operaciones binarias.
Ejercicio 5 Cuales de las operaciones 1-9 son conmutativas? [223]
Asociatividad
Que quiere decir 2+3+5? Acaso debemos sumar 2+3 y al resultado sumarle 5?
No ser a que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna
diferencia entre los dos procedimientos. Este hecho se expresa como (2 +3) + 5 =
2 + (3 +5) .
Una operaci on binaria denotada por y denida en el
a, b, c A
a (b c) = (a b) c
conjunto A se dice que es asociativa si se cumple la pro-
piedad en el recuadro de la derecha.
Los estudiantes preuniversitarios se encuentran por pri-
mera vez con la dicultad de una operacion no asociativa en el caso de la operacion de
exponenciacion. A esta temprana edad es muy necesario insistir que la expresi on 2
2
3
es ambigua porque 2
(
2
3
)
= 256 6= 64 =

2
2

3
.
Ejercicio 6 Cuales de las operaciones 1-9 son asociativas? [223]
4 Captulo 1. Campos
La asociatividad de una operacion es una propiedad crucial. Sin esta propiedad, el
manejo algebraico de una operaci on se complica bastante.
Es mas, gracias a ella podemos introducir la notaci on de la operacion
11
P
n=1
a
n
repetida. Si tenemos 11 elementos a
1
, a
2
, . . . , a
11
entonces, para denotar
la suma a
1
+a
2
+ +a
11
podemos usar la notaci on (mucho m as comoda)
que se muestra en el recuadro a la derecha. Esta notaci on no requiere de la
conmutatividad de la operaci on suma gracias a que los ndices tienen un orden y
sabemos cual elemento debe ir primero y cual despues.
Si tenemos que la operaci on es no solamente asociativa sino tambien conmutativa
entonces podemos ser m as generosos con esta notaci on.
Supongamos que a

, a
`
, a

, a
9
y a

son elementos de un conjunto con una


P
nN
a
n suma asociativa y conmutativa. Entonces la suma de estos (no importa el
orden!) la podemos denotar por la expresion en el recuadro a la izquierda,
donde N es el conjunto de ndices {, , `, , 9}.
Si la operaci on binaria denida no se llama suma sino producto, entonces es
usual, en lugar de usar la letra griega
P
(sigma may uscula), usar la letra griega
Q
(pi
may uscula). Podemos, en este caso, usar la primera o segunda notaci on dependendiendo
de si nuestro producto es conmutativo o no.
Elementos neutros
La suma de n umeros naturales tiene un elemento especial y unico: el cero. Su
propiedad denitoria es que cualquier n umero sumado con cero da el mismo n umero.
La misma propiedad la tiene el uno con respecto al producto de n umeros naturales.
Para una operaci on binaria denotada por y denida en el
a A
a e = e a = a
conjunto A se dice que e A es un elemento neutro si este
cumple la propiedad en el recuadro.
Una operaci on binaria no puede tener m as de un elemento neutro. Efectivamente,
sean e y e
0
elementos neutros. Por ser e neutro, tenemos e e
0
= e
0
. Por ser e
0
neutro,
tenemos e e
0
= e. De estas dos igualdades obtenemos e = e
0
.
Ejercicio 7 Cuales de las operaciones 1-9 tienen neutro? [223]
Los elementos neutros juegan un papel importante en las notaciones para operacio-
Q
iN
a
i

Q
iM
a
i
=
Q
iNM
a
i
nes repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean
ademas N y M dos conjuntos nitos de ndices disjuntos.
Naturalmente, de la denici on se sigue la propiedad del
recuadro a la izquierda.
Pero que pasa si alguno de los conjuntos de ndices (digamos M) es vaco? Si
queremos que esta propiedad se conserve entonces observamos que
Y
iN
a
i

Y
i
a
i
=
Y
iN
a
i
=
Y
iN
a
i
5 Seccion 1.1 Operaciones binarias
por lo que necesariamente
Q
i
a
i
tiene que ser el elemento neutro de nuestra operacion
(si no hay neutro entonces estamos en problemas).
Es por esto, como el lector seguramente ya sabe, que la suma vaca de n umeros es
igual a cero y el producto vaco de n umeros es igual a uno.
Elementos inversos
Para cada n umero entero a hay un unico n umero a tal que sumado con a da cero.
a b = b a = e
Generalizemos esta propiedad a operaciones binarias arbitrarias. Sea una operaci on
binaria en el conjunto A con elemento neutro. Se dice que a A
tiene elemento inverso b si se cumple la propiedad en el recuadro
a la izquierda.
Para cualquier operaci on binaria asociativa el elemento inverso de otro es unico.
Efectivamente si b y c son inversos de a entonces b = be = b(a c) = (b a) c =
e c = c o sea que b y c tienen que ser el mismo.
Ejercicio 8 Describa los inversos en las operaciones 1-9. [224]
Distributividad
Frecuentemente nos encontramos con conjuntos en los cuales hay m as de una ope-
raci on binaria denida. El ejemplo m as sencillo son los naturales en los que sabemos
sumar y sabemos multiplicar. Estas dos operaciones est an relacionadas con la propiedad
de que podemos sacar factor com un o sea ax +ay = a(x +y).
Sean y dos operaciones binarias denidas en el
a, b, c A
a (b c) = (a b) (a c)
(b c) a = (b a) (c a)
conjunto A. Se dice que la operaci on es distributiva
respecto a la operaci on si se cumple la propiedad en
el recuadro.
Que sea distributiva respecto a no es lo mismo que sea distributiva
respecto a . Por ejemplo, en los naturales el producto es distributivo con
respecto a la suma: a(b +c) = (ab) + (ac) y sin embargo, la suma de
naturales no es distributiva respecto al producto: a + (bc) 6= (a +b) (a +c).
Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distribu-
tivas una con respecto a la otra. [224]
El algebra abstracta
Filos ocamente, el concepto de abstraccion es la propiedad, que tiene el pensa-
miento humano, de que podemos jarnos solamente en ciertas propiedades esenciales
de un objeto o fen omeno, y olvidarnos de las restantes.
6 Captulo 1. Campos
La abstracci on es imprescindible para el lenguaje. El concepto silla nos permi-
te reconocer una silla, independientemente si esta es de madera, de hierro, plastica,
grande, c omoda, con tres, cuatro o cinco patas etc. Casi cada palabra del espa nol (y
de cualquier idioma) representa un concepto abstracto, sea esta verbo, sustantivo o
adjetivo.
La ciencia lleva este nivel de abtraccion a un nivel a un mayor. Parte de este co-
nocimiento cientco, pasa al conocimiento p ublico. Baste recordar conceptos como:
velocidad, volumen, higiene, ADN, penicilina, electr on, metal, colesterol, tri angulo,
etc. Algunos de los mencionados, son muy antiguos, otros surgieron hace muy poco.
Sin embargo, la mayora de estos conocimientos queda solamente en manos de los
especialistas en la materia.
Con las matem aticas pasa igual. No hace falta saber que la suma de naturales es una
operaci on binaria conmutativa para saber que 2 +3 = 3 +2. Sin embargo, el concepto
de operacion y que estas operaciones pueden cumplir o no ciertas propiedades es
relativamente nuevo.
En la primera mitad del siglo XX, progresivamente, la comunidad matematica se
fue dando cuenta de las ventajas del pensamiento algebraico en el lenguaje de opera-
ciones abstractas. Tanto fue el entusiasmo, que muchos, en un principio, le llamaron a
esta forma de pensar Algebra moderna. Otros a un m as entusiastas, m as frvolos y
con muchas ganas de vender sus libros le llamaron Matem atica moderna. En la ac-
tualidad este lenguaje es parte intrnseca e indivisible del pensamiento en matem aticas
y cualquier calicaci on de moderna suena muy tonta.
Otros, por otro lado, preerieron referirse a esta forma de pensar como Algebra
abstracta. Esto, en mi opinion, aunque m as moderado, tampoco tiene ning un senti-
do. Toda algebra es abstracta, de hecho, todas las matem aticas son abstractas. Estoy
convencido de que, el tiempo se encargar a de acabar con todos estos calicativos.
1.2 N umeros
En esta secci on repasaremos los principales tipos de n umeros que el lector ya co-
noce: naturales, enteros, racionales, reales y complejos. Esto nos dara la posibilidad de
introducir las deniciones m as basicas del algebra: grupos, anillos y campos.
Naturales
Hay una frase famosa que dice Dios hizo los natu-
ab = a +... +a
| {z }
b veces
= b +... +b
| {z }
a veces
rales y el hombre todo lo dem as. El conjunto de los
n umeros naturales N = {0, 1, 2, ...} es el conjunto de
los cardinales de los conjuntos nitos. En N hay dos operaciones binarias bien denidas:
la suma y el producto. De hecho, el producto es una operaci on derivada de la suma y la
suma solo se puede denir en terminos de conjuntos. Por ejemplo, a +b es el cardinal
de la union de dos conjuntos nitos y disjuntos uno de cardinal a y otro de cardinal b.
7 Seccion 1.2 N umeros
Como la uni on de conjuntos es asociativa tambien lo es la suma de naturales. De la
denicion se obtiene que el producto de naturales tambien es asociativo. Tanto la suma
como el producto son conmutativos. La suma tiene elemento neutro 0 y el producto
tiene elemento neutro 1. El producto es distributivo respecto a la suma.
Enteros
Ning un elemento de Nsalvo el cero tiene inverso para la
b +a = c a = b +c
b + (a) = (a +b)
suma. Para lograr la existencia de inversos inventamos los
n umeros negativos Z

= {1, 2, 3, ...} y en el conjunto


Z = N Z

de los n umeros enteros denimos la suma co-


mo la operaci on conmutativa denida por las propiedades
en el recuadro a la derecha.
Grupos
Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada ele-
G1) la operaci on es asociativa
G2) tiene elemento neutro
G3) todo elemento tiene inverso
mento tiene inverso. O sea los enteros dan el primer
ejemplo de grupo. A un conjunto no vaco con una
operaci on binaria se le llama grupo si se cumplen
los tres axiomas G1-G3. A los gru-
pos cuya operaci on es conmutativa se les llama abelianos en honor al
matematico noruego Niels Henrik Abel (1802-1829). Abel fue el que re-
solvio el problema algebraico m as importante de su epoca. Demostro,
que no existen f ormulas en radicales para resolver las ecuaciones polino-
miales de grado 5 o mayor (a diferencia de las ecuaciones de grado 4
para las cuales si hay f ormulas generales). Al momento de encontrar esta
demostraci on, el problema ya duraba varios siglos sin resolverse. Abel
muri o a los 26 a nos a causa de una neumona.
Anillos
La operaci on de producto de naturales se extiende f acilmen-
a(b) = (ab)
(a) b = (ab)
(a) (b) = ab
te al conjunto de los enteros mediante las reglas en el recuadro.
Nuevamente el producto es asociativo,conmutativo y distributivo
con respecto a la suma. O sea los enteros tambien dan el primer
ejemplo de anillo.
Un conjunto A no vaco con dos operacio-
A1) (A, +) es un grupo abeliano
A2) es asociativa
A3) es distributiva con respecto a +
A4) tiene elemento neutro
nes binarias + y se le llama anillo si se
cumplen los axiomas en el recuadro a la iz-
quierda. Si el anillo es tal que la operaci on
es conmutativa entonces se dice que tenemos
un anillo conmutativo.
8 Captulo 1. Campos
En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro
para el producto se le llama uno y se denota por 1. Al inverso de un elemento con
respecto a la suma de un elemento se le llama su opuesto. Al inverso con respecto al
producto de un elemento se le llama inverso multiplicativo o simplemente inverso a
secas.
Observemos que si a es un elemento de un anillo entonces a0+a = a(0 +1) = a
y debido a la unicidad del 0 obtenemos que a 0 = 0. De la misma manera vemos que
0a = 0. Si 1 = 0 entonces, a = 1a = 0a = 0 por lo que el anillo consta de un solo
elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aqu se
desprende que 0 no puede tener inverso ya que 0 = a 0 = 1 es una contradicci on.
En cualquier anillo a denota al opuesto de a y a
1
(si existe) denota al inverso de
a. Como 1 1 = 1 tenemos 1
1
= 1. Tambien (1)
1
= 1 ya que si a = 1 entonces
0 = a(a +1) = aa + a por lo que aa = a o sea, (1) (1) = 1. Luego, en todo
anillo 1 y 1 tienen inversos. En Z ning un elemento salvo 1 y 1 tiene inverso.
Normalmente en la denici on de anillo no se pide el axioma A4. En este caso, a los anillos
que tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de
anillo no unitario es el conjunto de todos los enteros pares. Con el objetivo de simplicar,
para nosotros todos los anillos son unitarios.
Racionales
Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio-
a
b
=
c
d
a d = c b
nes y con ellas el conjunto de n umeros racionales Q. Una fracci on es un par ordenado
de n umeros enteros denotado por a/b donde b 6= 0. Dos
fracciones son iguales cuando se cumple la igualdad en el
recuadro. Los n umeros racionales Q son las fracciones con
la relaci on de igualdad as denida. Los enteros son parte de los racionales por cuanto
podemos identicar cada n umero entero a Z con la fracci on a/1.
La suma y el producto de n umeros racionales se denen
a
b
+
c
d
=
a d +c b
b d
a
b

c
d
=
a c
b d
por las igualdades en el recuadro. Nuevamente los racionales
con la suma forman un grupo abeliano y otra vez el producto
es asociativo, conmutativo, tiene elemento neutro y es dis-
tributivo con respecto a la suma. La diferencia es que ahora
todo elemento diferente de cero tiene inverso multiplicativo.
O sea los racionales nos dan el primer ejemplo de campo.
Un conjunto K no vaco con dos operaciones
C1) (K, +) es un grupo abeliano
C2) (K\0, ) es un grupo abeliano
C3) es distributiva con respecto a +
binarias + y se le llama campo si se cum-
plen los tres axiomas C1-C3. En otras pala-
bras un campo es un anillo conmutativo en
la cual todo elemento diferente de cero tiene
inverso multiplicativo.
9 Seccion 1.2 N umeros
Ejercicio 10 Si es una operaci on en A entonces, en A
2
est a denida la operacion
por coordenadas (x, y) (x
0
, y
0
) = (x x
0
, y y
0
). Pruebe que si (A, ) es un grupo
entonces

A
2
,

es un grupo, si (A, +, ) es un anillo entonces,



A
2
, +,

es tambien
un anillo.
Ejercicio 11 Sea (K, +, ) un campo. Como K es un anillo entonces, por el ejercicio
anterior,

K
2
, +,

tambien es un anillo. Ser a K


2
un campo? [224]
Reales
Dicen que cuando Pitagoras (Samos 569-475 A.C.) descu-
1
1

2 6=
p
q
bri o que la longitud de la hipotenusa de un tri angulo rectangulo
con catetos de longitud uno no es un n umero
racional qued o horrorizado. A nosotros nos
parece esto una exageraci on. Sin embargo, si
nos ponemos en el lugar de Pit agoras com-
prenderemos que en aquel momento era in-
concebible que existan n umeros que no sean
cociente de dos enteros. La pintura a la iz-
quierda es un detalle del fresco de Rafael La
escuela de Atenas en la cual supuestamente,
se muestra a Pit agoras.
Sigamos a Pit agoras y probemos que efectivamente

2 no es un racional. Para esto


denotemos por kak
2
el n umero de veces que el natural a se divide entre 2. Tenemos

2 =
p
q

2q
2

2
=

p
2

2
1 +2 kqk
2
= 2 kpk
2
lo que es una contradiccion ya que
un n umero impar no puede ser igual a uno par.
Ejercicio 12 Sea n un natural. Pruebe que

n es un natural o no es racional. [224]


Ejercicio 13 Basandose en el anterior de otra prueba de que

2 no es racional. [224]
Esto motiva la construci on de los n umeros reales R. La construci on de los reales es
un proceso complicado y se han descubierto muchas formas de formalizar esta constru-
cion siendo la mas popular la de las cortaduras de Dedekind. Para nuestros prop ositos
basta una denici on menos formal y mas intuitiva: un n umero real es simplemente un
lmite de racionales. Las propiedades de la suma y producto de racionales se traspasan
f acilmente a los reales usando las propiedades del lmite de sucesiones. De esta manera
obtenemos nuestro campo principal (R, +, ) . El campo de los reales se destaca porque
es ordenado (siempre podemos decidir si un n umero real es mayor, menor o igual a
cero) y porque es cerrado (el lmite de reales si existe es un real). Por otro lado, no
es un factor a despreciar el hecho de que el espacio en que vivimos es (o al menos nos
parece que es) R
3
.
10 Captulo 1. Campos
Ejercicio 14 Pruebe que la longitud de un segmento de recta es un n umero real.
[224]
Complejos
En 1546 Gerolamo Cardano publico su libro Ars Magna en el cual di o metodos
(basados en parte en el trabajo de otros matem aticos) para el calculo de las raices
de los polinomios de grado 3 y 4. Estos metodos, a veces requeran el extraer raices
cuadradas de n umeros negativos, incluso cuando el resultado nal era un n umero real.
Rafael Bombelli estudi o este asunto en detalle y es considerado como el descubridor de
los n umeros complejos.
Para lograr que todos los polinomios tengan raices
(a +bi) + (a
0
+b
0
i) =
(a +a
0
) + (b +b
0
) i
inventamos el imaginario i =

1 y denimos que un
n umero complejo es algo de la forma a+bi donde a, b
R. La suma y el producto de complejos se denen por las
f ormulas en los recuadros a la derecha y abajo a la izquierda.
Las propiedades de la suma y el producto se despren-
(a +bi) (a
0
+b
0
i) =
(aa
0
bb
0
) + (ab
0
+a
0
b) i
den inmediatamente de sus deniciones y es f acil com-
probar que (C, +, ) es un anillo conmutativo. Para
ver que es un campo, observamos que (a +bi)
1
=

a
2
+b
2

1
(a bi). La principal propiedad que hace que para muchas cosas el cam-
po C sea el mas simple es que el (a diferencia de R) es algebraicamente cerrado,
o sea que todo polinomio de grado n > 0 con coecientes en complejos tiene n raices
complejas.
1.3 Morsmos
En las matem aticas cada vez que se estudian ciertos objetos, es necesario tambien
estudiar las funciones entre ellos, que preservan las propiedades de dichos objetos.
En esta secci on estudiaremos las funciones entre conjuntos con operaciones binarias.
Morsmos de grupos
Sean y operaciones binarias denidas en los conjuntos A y B respectivamente.
Una funcion f : A B se le llama morsmo si para cualesquiera a
1
y a
2
elementos
de A se cumple que f (a
1
a
2
) = f (a
1
) f (a
2
).
11 Seccion 1.3 Morsmos
Todo morsmo conserva las propiedades fundamentales de las operaciones
binarias. Mas precisamente, si f : (A, ) (B, ) es un morsmo entonces,
1. es una operaci on binaria dentro de la imagen de f.
2. Si es conmutativa entonces es conmutativa en la imagen de f.
3. Si es asociativa entonces es asociativa en la imagen de f.
4. Si e es neutro de entonces f (e) es neutro de en la imagen de f.
5. Si a
0
es inverso de a en A entonces f (a
0
) es inverso de f (a) en B.
Prueba. Sean b
1
, b
2
y b
3
elementos cualesquiera en la imagen de f. Existen a
1
, a
2
y
a
3
en A tales que f (a
i
) = b
i
para i {1, 2, 3}. Como f es un morsmo, obtenemos la
igualdad
b
1
b
2
= f (a
1
) f (a
2
) = f (a
1
a
2
) (*)
que prueba la primera armacion. Si es conmutativa entonces, usando (*) obtenemos
b
1
b
2
= f (a
1
a
2
) = f (a
2
a
1
) = b
2
b
1
por lo que es tambien conmutativa. Si es asociativa entonces, usando (*) obtenemos
(b
1
b
2
) b
3
= f (a
1
a
2
) f (a
3
) = f ((a
1
a
2
) a
3
) =
= f (a
1
(a
2
a
3
)) = f (a
1
) f (a
2
a
3
) = b
1
(b
2
b
3
)
y por lo tanto es asociativa en la imagen de f. Si e es neutro de la operaci on
entonces,
b
1
f (e) = f (a
1
) f (e) = f (a
1
e) = f (a
1
) = b
1
f (e) b
1
= f (e) f (a
1
) = f (e a
1
) = f (a
1
) = b
1
por lo que f (e) es el neutro de en la imagen de f. Sea a
0
el inverso de a en A entonces,
f (a) f (a
0
) = f (a a
0
) = f (e)
f (a
0
) f (a) = f (a
0
a) = f (e)
de lo que concluimos que f (a
0
) es el inverso de f (a).
Ejercicio 15 Justique todas las igualdades utilizadas en la prueba de 1.1.
Y porque siempre dentro de la imagen de f y no en todo B? La respuesta es que
lo unico que sabemos de B est a dado por el morsmo. Aquellos elementos de B que
no tienen preimagen no los podemos enlazar con los de A y por lo tanto no podemos
decir nada de ellos. De aqu en lo adelante a la imagen de cualquier funci on f (y en
particular de un morsmo) la denotaremos por Imf.
Si (A, ) es un grupo entonces (Imf, ) es un grupo.
Prueba. Por 1.1.1 es una operaci on binaria en Imf. Por 1.1.3 esta operaci on es
asociativa. Por 1.1.4 esta operaci on tiene elemento neutro. Por 1.1.5 cada elemento
b = f (a) Imf tiene su inverso f (a
0
) donde a
0
es el inverso de a en A. Esto completa
la prueba de todos los axiomas de grupo.
12 Captulo 1. Campos
Recordemos que si f : A B es una funci on entonces al conjunto A se le llama
dominio de f y al conjunto B codominio de f. Si el dominio y el codominio de un
morsmo son grupos entonces se dice que este es un morsmo de grupos.
Ejercicio 16 Construya un morsmo inyectivo de (R, +) en (R, ). Cual es la imagen
de este morsmo? Es esta imagen un grupo?
Morsmos de anillos
Y que pasa con la distributividad? Tambien se conserva? El primer problema que
tenemos que resolver es que en la distributividad estan involucradas dos operaciones.
Sean (A, +, ) y (B, +, ) dos conjuntos cada uno con dos operaciones binarias. Ob-
servese que estas son cuatro operaciones distintas pero hemos usado estas notaciones
porque el trabajar con cuatro smbolos diferentes ya es demasiada confusi on.
Una funci on f : A B se le llama morsmo si para cualesquiera a
1
y a
2
ele-
mentos de A se cumple que f (a
1
+a
2
) = f (a
1
) +f (a
2
) y f (a
1
a
2
) = f (a
1
) f (a
2
).
Recalquemos que el y quiere decir que se tienen que cumplir las dos propiedades. O
sea, si hay dos operaciones entonces, se requiere que la funci on sea morsmo para cada
una de ellas.
Si es distributiva con + en A entonces,
es distributiva con + en la imagen de f.
Prueba. Sean x, y, z A tales que f (x) = a, f (y) = b y f (z) = c. Tenemos
a (b +c) = f (x) (f (y) +f (z)) = f (x) f (y +z) = f (x (y +z)) =
= f (x y +x z) = f (x y) +f (x z) = f (x) f (y) +f (x) f (z) = a b +a c
y esto prueba la tesis.
Si el dominio y el codominio de un morsmo son anillos entonces se dice que este
es un morsmo de anillos. Si el dominio y el codominio de un morsmo son campos
entonces se dice que este es un morsmo de campos.
Ejercicio 17 Demuestre que si (A, +, ) es un anillo y f : A B es un morsmo
entonces, (Imf, +, ) es un anillo. Demuestre que lo mismo ocurre para los campos.
Ejercicio 18 Pruebe que si f : A B es un morsmo de anillos y A es un campo
entonces f es inyectivo. En particular todo morsmo de campos es inyectivo. [224]
13 Seccion 1.3 Morsmos
Isomorsmos
A los morsmos biyectivos se les llama isomorsmos. Esto se aplica tanto pa-
ra conjuntos con una como tambien con dos operaciones binarias. As que tenemos
isomorsmos de grupos, de anillos y de campos. Para cada isomorsmo f existe una
funci on inversa f
1
. Cuando ser a f
1
un morsmo? La respuesta es que siempre.
La inversa de un isomorsmo es un isomorsmo.
Prueba. Sea f : (A, ) (B, ) un isomorsmo. Sean b
1
, b
2
cualesquiera elementos
de B. Denotemos a
1
= f
1
(b
1
) y a
2
= f
1
(b
2
). Tenemos
f
1
(b
1
b
2
) = f
1
(f (a
1
) f (a
2
)) = f
1
(f (a
1
a
2
)) = a
1
a
2
= f
1
(b
1
) f
1
(b
2
)
que es lo que se requera demostrar. Si el isomorsmo involucra dos operaciones binarias
entonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la
tesis.
Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ) (B, ) es un isomor-
smo entonces de que es conmutativa implica que es conmutativa y en conclusi on
es conmutativa si y solo si es conmutativa. Lo mismo ocurre con la asociativi-
dad, con la existencia de neutros e inversos y para el caso de dos operaciones con la
distributividad. O sea que tiene exactamente las mismas propiedades de .
Pero no solo son operaciones parecidas sino que son en cierto sentido la misma.
Para convencernos de esto supongamos que conocemos la operaci on y conocemos el
isomorsmo f pero no sabemos nada de la operaci on . Podremos calcular b
1
b
2
? La
respuesta es s, lo podemos calcular por la identidad b
1
b
2
= f

f
1
(b
1
) f
1
(b
2
)

.
Recprocamente, se dene de forma unica por la operaci on y el isomorsmo f
mediante la identidad a
1
a
2
= f
1
(f (a
1
) f (a
2
)). En conclusion ambas operaciones
se denen una a otra.
Para que el lector comprenda mejor eso de que
u v
u u v
v v u
1 1
1 1 1
1 1 1
y son la misma operacion veamos un ejemplo.
Sea A el conjunto de letras {u, v} y B el conjunto de
los n umeros {1, 1}. Denamos las operaciones y
mediante las tablas del recuadro a la derecha.
El lector debe observar que la segunda tabla es la tabla usual de multiplicaci on de
enteros. Adem as, para obtener la segunda tabla de la primera lo unico que necesitamos
es cambiar por , u por 1 y v por 1. Esto lo que quiere decir, es que la funci on
u 71 , v 71 es un isomorsmo de (A, ) en (B, ). El lector puede ver que ambas
tablas son en esencia la misma, solamente que las notaciones para los elementos y la
operaci on est an cambiadas.
Si para dos grupos (o anillos o campos) existe un isomorsmo entre ellos entonces
se dice que ellos son isomorfos. Etimol ogicamente, la palabra isomorfo signica que
tienen la misma forma. En forma intuitiva, que ellos sean isomorfos quiere decir
14 Captulo 1. Campos
que los dos son iguales con la salvedad de que podemos cambiar las notaciones de los
elementos y las operaciones.
Ciertos tipos de morsmos tienen nombres especiales. A los morsmos sobreyectivos
se les llama epimorsmos, a los injectivos se les llama monomorsmos. A los mor-
smos de un conjunto en si mismo se les llama endomorsmos y a los endomorsmos
biyectivos se les llama automorsmos.
En otras ramas de las matematicas tambien se denen morsmos e isomorsmos. Sin em-
bargo no siempre es suciente la biyectividad para denir los isomorsmos. Por ejemplo,
en topologa los morsmos son las funciones continuas. Pero la inversa de una biyecci on
continua no siempre es continua. Por esto, un isomorsmo de espacios topol ogicos hay que denirlo
como una biyecci on continua cuya inversa es continua.
Composicion de morsmos
Sean A, B y C tres conjuntos y f : A B , g : B C dos funciones. A la funci on
g f : A C denida por (g f) (a) = g(f (a)) se le llama la composicion de f con
g. A partir de ahora el smbolo solo lo utilizaremos para denotar la composici on de
funciones. Observese el orden en que escribimos las funciones ya que la composici on de
funciones no es conmutativa.
La composici on de funciones es asociativa.
Prueba. Sean f : A B , g : B C y h : C D tres funciones. Por denicion de
composicion para cualquier a A tenemos
(h (g f)) (a) = h((g f) (a)) = h(g(f (a))) = (h g) (f (a)) = ((h g) f) (a)
que es lo que se quera probar
Ahora, supongamos que en A, B y C hay denidas operaciones binarias. Entonces
f, g y g f pueden ser morsmos o no. Sin embargo, si f y g lo son entonces f g
tambien lo es.
Las composiciones de morsmos son morsmos.
Prueba. Denotemos las operaciones en A, B y C con el mismo smbolo . Como f y
g son morsmos tenemos (g f) (a b) = g(f (a b)) = g(f (a) f (b)) = g(f (a))
g(f (b)) = (g f) (a) (g f) (b) que es lo que se necesitaba probar.
Ejercicio 19 Pruebe que el conjunto de todos los automorsmos de un conjunto con
una o dos operaciones binarias es un grupo con respecto a la composicion de funciones.
15 Seccion 1.4 Campos de restos
1.4 Campos de restos
Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muy
conocidos por el lector. Es imprescindible, para dar una intuici on saludable de lo que
es un campo, introducir otros que no sean tan usuales. En esta secci on presentaremos
ciertos campos que tienen un n umero nito de elementos. Para construirlos, usaremos
las propiedades de los morsmos de la secci on anterior.
El anillo de los enteros modulo n
Sea n un n umero natural mayor que 1. Para un entero
a b = (a +b) mod n
a b = (ab) mod n
a la notaci on amodn signica el resto de la divisi on de a
entre n. O sea, el menor natural k tal que existe un entero
t para los cuales a = k + tn. Por denici on amod n Z
n
= {0, 1, ..., n 1} por lo
que en Z
n
hay naturalmente denidas dos operaci ones binarias como se muestra en el
recuadro.
Ejercicio 20 Construya las tablas de sumar y multiplicar en Z
2
, Z
3
y Z
4
.
(Z
n
, , ) es un anillo conmutativo.
Prueba. Probemos que la funcion f : (Z, +, ) (Z
n
, , ) dada por f (a) = amod n
es un morsmo de anillos. Observemos que por denici on a b = f (a +b) y a b =
f (ab) .
Para cualesquiera x, y Z por denicion de f existen enteros p, q tales que x =
f (x) +qn, y = f (y) +pn y por lo tanto f (x) = f (y) si y solo si x y es multiplo de
n.
Tenemos que f (x)+f (y) = x+y(q +p) n y por lo tanto (f (x) +f (y))(x +y)
es m ultiplo de n. Luego, f (x +y) = f (f (x) +f (y)) o lo que es lo mismo, f (x +y) =
f (x) f (y) y esto prueba que f es morsmo para la suma.
Por otro lado f (x) f (y) = (x qn) (y pn) = xy + (nqp yq xp) n y por lo
tanto (f (x) f (y)) (xy) es m ultiplo de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lo
mismo, f (xy) = f (x) f (y) y esto prueba que f es morsmo para el producto.
Como f es sobre, (Z, +, ) es anillo conmutativo y los morsmos preservan las
propiedades de las operaciones, concluimos que (Z
n
, , ) es tambien un anillo con-
mutativo.
16 Captulo 1. Campos
Hemos denotado la suma y el producto en Z
n
con los smbolos extra nos
y . El objetivo de esto fue el asegurarnos que en la demostraci on del
resultado anterior el lector no se confundiera con la suma y el producto
habitual de n umeros enteros. De ahora en lo adelante no haremos m as esto. La suma
en Z
n
se denotar a con el smbolo + y el producto, con la ausencia de smbolo alguno,
o a lo m as, con un punto. Para poder hacer esto es necesario que el lector comprenda
(muchas veces solo del contexto) en que sentido estamos utilizando estas notaciones.
As por ejemplo, 2 + 3 = 5 si la suma es la habitual de enteros o es la de Z
11
pero
2 +3 = 1 si la suma es la de Z
4
.
Dominios de integridad
Despues de saber que (Z
n
, +, ) es un anillo conmutativo, lo natural es preguntarnos
si este es un campo, ya que lo unico que le falta a un anillo conmutativo para ser
campo, es la existencia de inversos para el producto. Veamos por ejemplo el caso de
Z
6
. Aqu tenemos 2 3 = 0. Que raro, el producto de dos n umeros diferentes de cero es
igual a cero. Es posible eso en un campo? Veremos que no.
Un anillo conmutativo se le llama dominio de integridad si el producto elementos
distintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios
de integridad. Tambien, ya vimos que Z
6
no es dominio de integridad.
Todo campo es un dominio de integridad.
Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad
por el inverso multiplicativo de p obtenemos 0 = p
1
0 = p
1
pq = q. Luego, q = 0.
Luego, Z
6
no es un campo. Este ejemplo se generaliza f acilmente. Sea n = pq una
descomposici on en factores no triviales (ambos diferentes a 1) de n. Sabemos que p
y q est an en Z
n
y que pq = n = 0 mod n. Luego, si n es un n umero compuesto (no
primo) entonces, Z
n
no es un dominio de integridad y por lo tanto no es un campo.
El campo de los enteros modulo p
Y que pasa cuando p es primo?
Z
p
es un dominio de integridad.
Prueba. Sean x, y {1, . . . , p 1} . Si xy = 0 en Z
p
entonces xy = 0 mod p. Luego,
en Z tenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no
puede ser ya que ambos son menores que p.
Este resultado no es suciente para probar que Z
p
es un campo ya que hay dominios
de integridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.
17 Seccion 1.5 Campos primos. Caracterstica
Todo dominio de integridad nito es un campo.
Prueba. Sea A un dominio de integridad nito. Para ver que A es un campo solo hay
que demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario
no nulo de A. Denotemos por f
a
la funci on A 3 x 7ax A. Esta funci on es inyectiva
ya que
(ax = ay) (a(x y) = 0) (x y = 0) x = y
Como f
a
es una funcion inyectiva de un conjunto nito en si mismo es tambien so-
breyectiva. Luego tiene que existir b tal que f
a
(b) = ab = 1. Como el producto es
conmutativo, esto demuestra que a tiene inverso.
Como Z
p
es nito, concluimos inmediatamente que Z
p
es un campo si y
solo si p es un n umero primo. Los campos Z
p
son los primeros ejemplos
de campos que tienen un n umero nito de elementos. A los campos
nitos se les lama campos de Galois en honor al matem atico frances
Evariste Galois (1811-1832). Al resolver el problema de encontrar cuales
ecuaciones polinomiales son solubles en radicales y cuales no, Galois de
facto invent o la Teora de Grupos. Galois muri o a los 20 a nos en un
duelo provocado por asuntos amorosos y/o polticos. El apellido Galois se pronuncia
en espa nol como galu a
Ejercicio 21 Halle los inversos de los elementos no nulos de Z
5
. [225]
Ejercicio 22 Demuestre que todo subgrupo nito con q elementos del grupo multi-
plicativo de un campo es isomorfo a (Z
q
, +) . En particular, (Z
p
\0, ) es isomorfo a
(Z
p1
, +). [225]
Ejercicio 23 Demuestre que Z
2
11
con las operaciones (a, b)+(a
0
, b
0
) = (a +a
0
, b +b
0
)
y (a, b) (a
0
, b
0
) = (aa
0
+7bb
0
, ab
0
+a
0
b) es un campo de 121 elementos. [226]
1.5 Campos primos. Caracterstica
Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que
es campo para las mismas operaciones. Si L es un subcampo de K entonces a, b L
c L\{0} se tienen que cumplir las siguientes propiedades
1. a +b L, a L, (L es un subgrupo aditivo)
2. ab L, c
1
L, (L\{0} es un subgrupo multiplicativo)
Recprocamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de
suma, opuesto, producto e inverso est an correctamente denidas dentro de L y el tiene
que contener a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K,
18 Captulo 1. Campos
con m as razon se cumplen dentro de L. Esto indica que para comprobar si L es un
subcampo basta comprobar las propiedades 1 y 2. El ejemplo m as sencillo de esto es
Q, que es subcampo R, que a su vez es subcampo de C.
El concepto de subcampo incluye las operaciones. Si por un lado podemos
considerar a Z
p
= {0, 1, ..., p1} como subconjunto de Q, por el otro, Z
p
NO
es un subcampo de Q (ya que por ejemplo 2 (p 1) = p 2 en Z
p
lo que
no es cierto en Q). De la misma manera, ning un Z
p
es subcampo de Z
q
para
p 6= q.
Campos primos
Todo campo es subcampo de si mismo. A los campos que no tienen ning un sub-
campo distinto de si mismo se les llama campos primos. Los campos primos son los
m as sencillos y deduciremos cuales todos ellos.
Todo campo K contiene un unico subcampo primo
que est a contenido en cualquier subcampo de K.
Prueba. La intersecci on de una coleccion arbitraria de subcampos de K es un sub-
campo. Para ver esto observamos que si a y b pertenecen a todos los subcampos de
la colecci on entonces a + b tambien. Por lo tanto, a + b esta en la intersecci on de
ellos. Lo mismo ocurre para el producto, para los neutros y los inversos. En particular,
si nos jamos en la intersecci on de todos los subcampos de K, vemos que esta es un
subcampo que no contiene subcampos y que est a contenida en cualquier subcampo de
K.
El campo Q de los n umeros racionales es primo.
Prueba. Sea K un subcampo de Q. Tenemos 1 K y por lo tanto todas las sumas
1 +... +1 y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros est an
en K. Tambien los inversos multiplicativos de los n umeros enteros y sus productos
tienen que estar todos en K. Luego, todos los racionales estan en K.
Los campos Z
p
de los restos modulo un n umero primo son campos primos.
Prueba. Sea K un subcampo de Z
p
. Tenemos 1 K y por lo tanto todas las sumas
1 +... +1 estan en K. Como cualquier elemento de Z
p
es suma de unos obtenemos que
Z
p
K.
19 Seccion 1.5 Campos primos. Caracterstica
Teorema de Clasicacion de Campos Primos
Los campos Z
p
y el campo Q son los unicos campos primos.
Prueba. Sea un K campo primo. Para un n umero natural n denotemos por n =
n veces
z }| {
1 +... +1 donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obvia-
mente, n es un elemento del campo. Denotemos por P = {n K | n N} . Hay dos
posibilidades excluyentes
1. La aplicacion n 7n es una biyecci on de en N en P.
2. Existen dos naturales distintos n y m tales que n = m.
En el primer caso K contiene a los naturales. Como K es un campo tambien tiene
que contener a los opuestos de los naturales, o sea a los enteros. Por la misma raz on, K
tiene que contener a los inversos de los enteros con lo que se prueba que los racionales
son un subcampo de K. Como K es primo obtenemos que K = Q.
En el segundo caso, sea p el natural m as peque no para el cual existe n < p tal que
n = p. Tenemos n = p p n = p n = 0. Si n > 0 entonces, p n < p y adem as
p n = 0 lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.
Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen
naturales a, k tales que x = a +kp y a < p. De aqu
x = a +kp = a +kp = a +
kp veces
z }| {
1 + +1
| {z }
p veces
+ +1 + +1
| {z }
p veces
= a +
k veces
z }| {
0 + +0 = a
lo que muestra que P es el anillo Z
p
de los restos modulo p. Si p no es primo entonces,
en Z
p
K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto
no es posible entonces, deducimos que p es primo. Luego, Z
p
es un subcampo de K.
Como K es primo obtenemos que K = Z
p
.
Caracterstica
Por el teorema anterior cualquier campo o contiene a Q o contiene a Z
p
. Se dice
que un campo es de caracterstica 0 si este contiene a Q. Se dice que un campo es de
caracterstica p si este contiene a Z
p
. La caracterstica de un campo es un n umero
primo o es cero. La propiedad fundamental de la caracterstica de un campo es la
siguiente:
Si K es un campo de caracterstica t
entonces, ta = 0 para cualquier a K.
Prueba. Si t = 0 la armaci on es trivial. Si t es primo entonces, el campo contiene a
20 Captulo 1. Campos
Z
t
y
tx =
t veces
z }| {
x +... +x = 1x +... +1x = (t1) x
Como 1 Z
t
entonces tambien t1 Z
t
. En Z
t
se tiene que t1 = 0. Luego tx = 0x = 0.
Ejercicio 24 Contradice o no 1.15 que todo campo es un dominio de integridad?
[226]
Ejercicio 25 Es cierto o no que en todo campo (a = a) (a = 0)? [226]
1.6 Aritmetica de campos
Los campos se comportan en la mayora de las cosas importantes como los n umeros
reales. Por m as que tratemos construir un campo raro pero muy raro (lo que es posible)
no lograremos que se dejen de cumplir todas las propiedades de la aritmetica las cuales
nos son familiares desde temprana edad. Pasemos a describir en toda su generalidad
algunas consecuencias simples y otras un poco mas complicadas de los axiomas de
campo lo que nos convencera de lo armado.
M ultiplos y exponentes enteros
En todo campo para cualquier n umero entero n y cualquier elemento del campo a
se usan las siguientes notaciones
na =

n veces
z }| {
a +a +... +a si n > 0
0 si n = 0
(n) (a) si n < 0
a
n
=

n veces
z }| {
aa...a si n > 0
1 si n = 0
1
a
n
si n < 0
y se cumplen las propriedades usuales: (n +m) a = na +ma y a
n+m
= a
n
a
m
.
Asociatividad general
Recordemos nuevamente el uso del smbolo de sumatoria . Si A es un con-
n
X
i=1
a
i
junto nito de elementos del campo entonces podemos escribir la expresi on
en el recuadro a la izquierda para expresar que queremos sumar todos los
elementos del conjunto A = {a
1
, ..., a
n
}.
La asociatividad de la operaci on de suma nos dice que esta expresi on tiene sentido
unico ya que no es necesario explicitar las sumas hay que realizar primero y cuales
despues.
21 Seccion 1.6 Aritmetica de campos
En realidad incluso esta notaci on es redundante, m as consisa es esta otra
X
aA
a
notaci on en el recuadro a la derecha que podemos usar gracias a la conmuta-
tividad de la suma. O sea no importa si en la suma a
1
esta delante de a
2
o al
revez. Solo es necesario especicar cual es el conjunto A de elementos que se
est an sumando.
Como tenemos que el producto de elementos de un campo es tambien
n
Y
i=1
a
i
=
Y
aA
a
asociativo y conmutativo podemos usar las expresiones equivalentes
de la izquierda para denotar el producto de todos los elementos del
conjunto A = {a
1
, ..., a
n
} .
Distributividad general
Mucho m as difcil es dar una forma general de la ley distributiva. Usando las

X
aA
a
!
X
bB
b
!
=
X
aA
X
bB
ab
leyes de los campos obtenemos (a +b) (c +d) =
a(c +d) +b(c +d) = ac +ad +bc +bd y el lec-
tor podr a convencerse f acilmente haciendo el c alcu-
lo para conjuntos peque nos A y B que en general se
cumple la f ormula de la derecha.
M as general, para muchos factores tenemos

X
aA
a
!
X
bB
b
!

X
cC
c
!
=
X
aA
X
bB
...
X
cC
ab c
A esta igualdad la llamaremos forma general de la ley distributiva y tendremos
muchas ocaciones en que la usaremos.
Formula multinomial
Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos
sean iguales obtenemos la siguiente f ormula:

X
aA
a
!
n
=
X
a
1
A
...
X
an A
a
1
a
n
(*)
Esta f ormula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el
producto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad
tiene (gracias a la asociatividad y conmutatividad del producto) una manera mucho
m as sencilla de expresarse como a
4
b
3
c
3
. Para arreglar este defecto, demosle nombres
a los elementos de A y pongamos A = {x
1
, ..., x
m
}. Ahora si n
1
, ..., n
m
son naturales
entonces, un monomio x
n
1
1
x
nm
m
aparece como sumando a la derecha en la formula
(*) si y solo si
P
n
i
= n (ya que los sumandos en (*) son productos de n elementos de
A). Supongamos que
P
n
i
= n. Si todos los n
i
son uno o cero entonces en (*) hay n!
sumandos iguales al monomio x
n
1
1
x
n
m
m
(ya que podemos ordenarlos de ese n umero
de maneras). Si digamos n
7
es mayor que 1 entonces tenemos que dividir por n
7
! ya que
22 Captulo 1. Campos
al permutar x
7
...x
7
no obtenemos nuevos sumandos en (*). Lo mismo sucede con los
otros n
i
. Como por denicion 0! = 1! = 1, nalmente obtenemos la siguiente expresi on
conocida como f ormula multinomial.

m
X
i=1
x
i
!
n
=
X
n!
n
1
!...n
m
!
x
n
1
1
x
n
m
m
donde la suma a la derecha de la igualdad recorre todas las soluciones en n umeros
naturales de la ecuaci on
P
n
i
= n. En el caso particular m = 2, haciendo el cambio
de variable n
1
= k obtenemos
(x +y)
n
=
X
n
1
+n
2
=n
n!
n
1
!n
2
!
x
n
1
y
n
2
=
n
X
k=0
n!
k! (n k) !
x
k
y
nk
que es la famosa f ormula del binomio de Newton.
Si bien las f ormulas que hemos demostrado parecen ser compli-
cadas los argumentos que llevan a ellas son muy sencillos. Es
importante que el estudiante que desee estudiar el algebra lineal
a profundidad se familiarize bien con estos argumentos ya que
las formas multilineales y en particular los determinantes son
muy parecidos a la parte derecha de la igualdad (*).
Sir Isaac Newton (Inglaterra 1643-1727). Probablemente el
cientco m as renombrado de todos los tiempos. Fundador de la
mec anica, la optica y el c alculo diferencial. Sus tres leyes de la
mec anica fundaron la base de la ingeniera que llevo a la revolu-
cion industrial.
Ejercicio 26 Sea K un campo de caracterstica p > 0. Demuestre que la funci on
K 3 x 7 x
p
K es un morsmo de campos. Demuestre que si K es un campo
nito entonces esta funci on es un automorsmo de K. A este automorsmo se le llama
automorsmo de Frobenius. [226]
La expansi on de
ij
Ahora deduciremos otra consecuencia de la forma general de la ley
Y
iN
X
jN

ij
distributiva que usaremos mucho m as adelante. Supongamos que N es un
conjunto nito de ndices y que para cada pareja de ndices (i, j) tenemos
un elemento del campo K que denotaremos por
ij
. Nuestro objetivo es
usar la ley distributiva para expresar el elemento del campo del recuadro a la derecha
como una suma de productos.
Para esto lo m as comodo es pensar que el conjunto N es {1, . . . , n} y expresar la
forma general de la ley distributiva en nuestro caso de la siguiente manera
23 Seccion 1.7 Anillos con division

X
j
1
N

1j
1
!

X
j
n
N

nj
n
!
=
X
j
1
N
...
X
j
n
N

1j
1

1j
n
=
XY
iN

ij
i
donde la suma m as a la derecha en esta igualdad recorre todos los elementos (j
1
, . . . , j
n
)
del producto cartesiano N N de n copias de N o sea, N
n
. Otra manera de pensar
a (j
1
, . . . , j
n
) es que tenemos una funcion f : N = {1, . . . , n} 3 i 7j
i
= f (i) N y en
nuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto N
N
de todas las funciones de N en N. Luego, en estas notaciones nalmente obtenemos
Y
iN
X
jN

ij
=
X
fN
N
Y
iN

if(i)
que es una f ormula que ya no depende de cual es el conjunto N.
Debemos recalcar una vez m as que todo lo dicho en esta secci on es valido para
cualquier campo, sea este R, C, Q, Z
p
o cualquier otro campo que a un no conoscamos.
Esta es la ventaja intrnseca de la abstracci on. No tenemos que demostrar el teorema
de Pitagoras para triangulos de acero, madera, etc. Estas propiedades no tienen nada
que ver con que el cuadrado de la hipotenusa sea igual a la suma de los cuadrados de
los catetos. De la misma manera el binomio de Newton no tiene nada que ver con que
si los n umeros son reales o complejos u otros. Solo basta que nuestros n umeros formen
un campo.
Un lector atento, podra observar que en las pruebas de todas las f ormulas en ning un
momento usamos la existencia de inversos en el campo. Luego, estas son v alidas en cualquier
anillo conmutativo. A diferencia de las matematicas elementales en matematicas superiores,
por aritmetica se entiende el estudio de las propiedades de divisibilidad en anillos. En este sentido, la
aritmetica de campos es trivial ya que todo elemento se divide entre cualquier otro no nulo.
1.7 Anillos con division
Si en los axiomas de campo eliminamos la condicion de que el producto es conmu-
tativo obtenemos el concepto de anillo con division (tambien se le llama cuerpo).
O sea, un anillo con divisi on es un con-
AD1) (D, +) es un grupo abeliano
AD2) (D\0, ) es un grupo
AD3) es distributivo con respecto a +
junto D con una suma y un producto tal
que se cumplen los axiomas del recuadro a
la izquierda. En particular, todo campo es
anillo con division.
24 Captulo 1. Campos
Ejercicio 27 Pruebe que si (D, +, ) es tal que (D, +) es un grupo, (D\ {0} , ) es un
grupo y el producto es distributivo respecto a la suma entonces, la suma es conmutativa.
En otras palabras en los axiomas de anillo con division la conmutatividad de la suma
es consecuencia del resto de los axiomas. [227]
Quaterniones
No es muy f acil construir anillos con division que no sean campos. Para esto, supon-
gamos que en lugar de un solo n umero imaginario i tenemos tres diferentes imaginarios
i, j y k que cumplen que i
2
= j
2
= k
2
= 1. Un quaternion es un n umero de la forma
a+bi +cj +dk donde a, b, c, d son n umeros reales. El lector debe observar la analoga
con los n umeros complejos. Podemos sumar quaterniones por coordenadas
(a +bi +cj +dk) + (a
0
+b
0
i +c
0
j +d
0
k)
= ((a +a
0
) + (b +b
0
) i + (c +c
0
) j + (d +d
0
) k)
y es facil comprobar que el conjunto de todos los quaterniones H es un grupo abeliano
respecto a la suma.
Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imagi-
nario entonces ax = xa. Tambien postulamos que si x y y son dos imaginarios distintos
entonces xy = yx. Esto nos dice que nuestra multiplicaci on de quaterniones no es
conmutativa.
Ahora, si a + bi + cj + dk y a
0
+ b
0
i + c
0
j + d
0
k son dos quaterniones arbitrarios
entonces los multiplicamos como si fueran polinomios en las variables no conmutativas
i, j, k y usando los postulados obtenemos que su producto es igual a
aa
0
bb
0
cc
0
dd
0
+
+(ab
0
+ba
0
) i + (ac
0
+ca
0
) j + (da
0
+ad
0
) k+
+(bc
0
cb
0
) ij + (cd
0
dc
0
) jk + (db
0
bd
0
) ki.
Para poder concluir la denici on de la multiplica-
a
00
= aa
0
bb
0
cc
0
dd
0
b
00
= ab
0
+ba
0
+cd
0
dc
0
c
00
= ac
0
+ca
0
+db
0
bd
0
d
00
= da
0
+ad
0
+bc
0
cb
0
cion de quaterniones postulamos que ij = k, jk = i y
ki = j. As denitivamente, obtenemos que el produc-
to de nuestros quaterniones es (a
00
+b
00
i +c
00
j +d
00
k)
donde los coecientes a
00
, b
00
, c
00
y d
00
son los denidos
en el recuadro a la derecha. O sea, el producto de quaterniones es un quaternion. No es
difcil (pero si muy laborioso) probar directamente de la denici on que este producto
es asociativo tiene elemento neutro 1 = 1 +0i +0j +0k y que es distributivo respecto
a la suma.
Para comprobar la existencia de inversos multiplicativos denimos para un quater-
nion no nulo x = a + bi + cj +dk su quaterni on conjugado x = a bi cj dk.
De la denicion de producto de quaterniones tenemos que x x = xx = a
2
+b
2
+c
2
+d
2
es un n umero real que tiene inverso multiplicativo. De esto se deduce que x (x x)
1
es
25 Seccion 1.7 Anillos con division
el inverso multiplicativo de x. En resumen, el conjunto de los quaterniones H son un
anillo con division pero no son un campo.
Los quaterniones fueron descubiertos en 1843 por el fsico, ma-
tem atico y astr onomo irlandes Sir William Rowan Hamilton
(1805 1865). De aqu la notaci on H para denotar el anillo de
quaterniones. Los quaterniones jugaron un papel fundamen-
tal en la matem atica y la fsica del siglo XIX. Por ejemplo,
James Clerk Maxwell uso los quaterniones para desarrollar
sus equaciones del electromagnetismo. En la actualidad son
importantes por ejemplo, para las aplicaciones en las cuales
se requiere describir en forma eciente rotaciones espaciales
(rob otica, control de naves espaciales, gracos por computa-
doras, etc.).
Ejercicio 28 Muestre que la tabla de multiplicar de los imaginarios i, j, k es conse-
cuencia de las igualdades de Hamilton i
2
= j
2
= k
2
= ijk = 1. [227]
Ejercicio 29 Muestre que los quaterniones que son raices cuadradas de 1 forman
naturalmente una esfera en R
3
. M as precisamente (a +bi +cj +dk)
2
= 1 si y solo
si se cumple que b
2
+c
2
+d
2
= 1. [227]
Ejercicio 30 Constraste 5.4 con el hecho de que hay un innito n umero de quater-
niones que son raices de 1 (ejercicio 29). Que falla en la prueba de 5.4 para el caso
de los quaterniones? [227]
Caso nito
Los quaterniones son un anillo con divisi on innito y es natural preguntarse si se
pueden construir anillos con divisi on nitos que no sean campos. El siguiente teorema
responde esta pregunta en forma negativa.
Teorema de Wedderburn
Todo anillo con divisi on nito es un campo.
La prueba de este teorema involucra un an alisis del grupo multiplicativo del anillo
y usa tecnicas de teora de grupos que se salen fuera de los objetivos de este libro.
26
ste es el objeto central del algebra lineal. Motivaremos la introducci on de este
concepto en el ejemplo geometrico del plano cartesiano. Daremos las denici on
de espacio vectorial complementandola con los ejemplos m as fundamentales.
Profundizaremos en la estructura de estos estudiando sus subespacios, sus bases, su
dimensi on etc. lo que nos llevar a a entender todos los espacios vectoriales (al menos los
de dimension nita). Finalizaremos este captulo con el estudio de las operaciones entre
subespacios y subespacios anes lo que nos llevar a a entender los espacios cocientes.
2.1 El plano cartesiano
Hubo alg un tiempo, en que el algebra y la geometra eran dos
y
p
y
p
x
p
x
cosas totalmente aparte. Los algebristas trabajaban con n umeros,
polinomios, raices, f ormulas, etc. y los geometras con puntos, li-
neas, polgonos, etc. Rene Descartes (Francia 1596-1650) fue el
que tuvo la brillante idea de introducir los ejes de coordenadas.
Tomamos dos rectas perpendiculares, a la
horizontal se le llama eje de las equis y
a la vertical se le llama eje de las yes.
Para cada punto del plano p trazamos la perpendicular al eje
x y al eje y y de esta manera obtenemos los puntos p
x
en el
eje x y p
y
en el eje y. Por cuanto, el eje de las x lo podemos
identicar (escogiendo una unidad de medida) con R donde
el cero es el origen de coordenadas (la intersecci on de los dos
ejes) por tanto, p
x
es simplemente un n umero real. De la misma
manera p
y
es otro n umero real. As, a cada punto del plano p se
le hace corresponder biunvocamente una pareja de n umeros reales (p
x
, p
y
). Adem as,
es conveniente representar cada punto del plano como el segmento dirigido desde el
origen de coordenadas hasta el punto o sea como vectores. A los elementos de R
(para diferenciarlos de los vectores) los llamaremos escalares.
28 Captulo 2. Espacios vectoriales
Desde ahora denotaremos los vectores por letras latinas en negritas. A
diferencia de estos, los escalares se denotaran por letras latinas y griegas
normales.
Si a = (a
x
, a
y
) y b = (b
x
, b
y
) son dos vectores la suma de los
y
a
a +b
b
x
mismos se dene como a +b = (a
x
+b
x
, a
y
+b
y
) . La suma, geo-
metricamente no es nada m as que la diagonal del paralelogramo
generado por a y b . Del hecho que (R, +) es un grupo abeliano
se desprende facilmente que nuestro plano cartesiano R
2
es tambien
un grupo con respecto a la suma de vectores.
Si a = (a
x
, a
y
) es un vector y un escalar el producto a se
y
a
2a
x
dene como (a
x
, a
y
) . Geometricamente este producto es aumentar
(o reducir) en un factor el vector a. Si el factor es negativo entonces
el resultado apunta en la direcci on opuesta. Si el factor es cero entonces
el vector se degenera al origen de coordenadas.
El producto por escalares es distributivo con respecto a la suma
(a +b) = a+b
( +) a =a+a
de vectores y tambien con respecto a la suma de escalares o
sea se cumplen las igualdades en el recuadro. Estas dos leyes
distributivas (son diferentes!) se cumplen porque son ciertas
en cada coordenada. Ademas, obviamente tenemos que (a) = () a. Todo esto
nos dice que el plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre
los reales.
Ejercicio 31 Demuestre geometricamente que la diagonal del paralelogramo generado
por a y b tiene coordenadas (a
x
+b
x
, a
y
+b
y
). [227]
Ejercicio 32 Es la multiplicaci on de un escalar por un vector una operacion binaria?
[227]
Ejercicio 33 Cuantas diferentes operaciones hay en (a) y () a? [227]
Ejercicio 34 Que es la resta de dos vectores? Cual es su interpretaci on geometrica?
2.2 Denicion y ejemplos
29 Seccion 2.2 Denicion y ejemplos
La primera denici on de espacio vectorial la dio Giuseppe Peano (Ita-
E1) (a +b) = a +b
( +) a =a+a
E2) (a) = () a
E3) 1a = a
lia, 1858 -1932), en su libro C alculo Geometrico publicado en 1888.
Peano es m as conocido por su axiomatica de los n umeros naturales, o
por la Curva de Peano que es una inmersi on continua sobreyectiva
del intervalo en el cuadrado.
Sea K un campo cuyos elementos los llamaremos escalares y
(E, +) un grupo abeliano cuyos elementos los llamaremos vectores.
Diremos que es un espacio vecto-
rial sobre K si esta denida una operaci on de pro-
ducto de escalares por vectores KE E que cumple
las propiedades E1-E3. A los axiomas E1 y E2 se les
llama distributividad y asociatividad respectiva-
mente del producto por escalares. El 1 que aparece
en el axioma E3 es el 1 del campo.
Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que
denotaremos por 0. El opuesto del vector a se denota por a. Por otro lado el campo
de escalares tiene un neutro para la suma: el 0, un neutro para el producto: el 1,
opuestos para la suma e inversos multiplicativos
1
. Las relaciones que cumplen
estos con respecto al producto por escalares nos las da el siguiente resultado b asico.
En todo espacio vectorial para cualquier vector a y cualquier
escalar se cumple que 0a = 0, (1) a = a y 0 = 0.
Prueba. La demostraci on se realiza mediante las siguentes tres cadenas de igualdades
0a
E3
= 0a +1a a
E1
= (0 +1) a a = a a = 0
(1) a
E3
= (1) a +1a a
E1
= (1 +1) a a = 0a a = a
0
E3
= 0 +1 0
E1
=

0 +
1
0

1
0

E2
= 1 0
E3
= 0
donde signos = est an marcados con los axiomas por los que son v alidos.
Ejercicio 35 Demuestre que a = 0 = 0 o a = 0. [227]
Ejercicio 36 Cual es el mnimo n umero de elementos que puede tener un espacio
vectorial? [228]
Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que
el lector no se pierda en la cantidad de ejemplos que sigue. La mayora de ellos
son fundamentales para entender este libro. En particular, introduciremos notaciones
basicas que seran usadas constantemente.
30 Captulo 2. Espacios vectoriales
El espacio de n-adas K
n
Consideremos el producto cartesiano de n copias
K
n
= {(a
1
, a
2
, ..., a
n
) | a
i
K}
del campo K. Este producto se denota por K
n
y
est a formado por todas las n-adas (a
1
, a
2
, ..., a
n
). Al escalar a
i
se le llama la i-esima
coordenada de la n-ada (a
1
, a
2
, ..., a
n
). Luego, una n-ada tiene n coordenadas.
Los vectores ser an las n-adas, los escalares seran los elemen-
(a
1
, ..., a
n
)
+ (b
1
, ..., b
n
)
(a
1
+b
1
, ..., a
n
+b
n
)
tos de K. En K
n
se introduce f acilmente la suma por coor-
denadas como se muestra en el recuadro a la izquierda. Del
hecho de que las propiedades necesarias se cumplen en cada
coordenada se desprende que (K
n
, +) es un grupo abeliano.
La multiplicaci on por escalares tambien se introduce por
(a
1
, ..., a
n
)

(a
1
, a
2
, ..., a
n
)
coordenadas. El axioma E1 se reduce en cada coordenada a la
distributividad del producto respecto a la suma en el campo K.
El axioma E2 a la asociatividad del producto en K. Finalmente,
el axioma E3 se reduce en cada coordenada a que 1 es el neutro
para el producto en el campo K. De esta manera obtenemos que K
n
es un espacio
vectorial sobre K.
El espacio de polinomios K[x]
Podemos sumar polinomios, esta suma se hace co-
K[x] =

n
X
i=0
a
i
x
i
|
a
i
K
n N

eciente por coeciente. Tambien sabemos multipli-


car un elemento de K por un polinomio. Es muy co-
nocido que todos los axiomas de espacio vectorial se
cumplen. En cierto sentido este espacio vectorial es parecido al anterior. Podemos aso-
ciar a cada polinomio
P
n
i=0
a
i
x
i
la (n +1)-ada (a
0
, a
1
, , ..., a
n
) y la multiplicaci on por
escalar es la misma que en K
n+1
. Para la suma podemos tener un problema si son de
grados diferentes pero esto se resuelve agregando sucientes ceros o sea si
P
m
i=0
b
i
x
i
es
otro polinomio con n > m entonces podemos asociarle la n-ada (b
0
, b
1
, ..., b
n
, 0, ..., 0)
con sucientes ceros para completar las n coordenadas y entonces la suma es la misma
que en K
n+1
. Aunque sepamos multiplicar polinomios, esto no tiene ning un papel en
el concepto de espacio vectorial.
El espacio de sucesiones K
N
Dos sucesiones se suman por coordenadas como se mues-
(a
1
, a
2
, ..., a
n
, ...)
+ (b
1
, b
2
, ..., b
n
, ...)
(a
1
+b
1
, , ..., a
n
+b
n
, ....)
tra en el recuadro. La mutiplicaci on un escalar es tam-
bien por coordenadas. Los axiomas de espacio vectorial
se comprueban facilmente. El lector debe observar que
los elementos de la sucesion pueden estar en un cam-
po arbitrario y no necesariamente en R como estamos acostumbrados. La nocion de
convergencia de sucesiones no tiene nada que ver con el concepto de espacio vectorial.
31 Seccion 2.2 Denicion y ejemplos
El espacio de series K[[x]]
Las series se suman coeciente por coeciente. Pa-
K[[x]] =


X
i=0
a
i
x
i
| a
i
K

ra multiplicar por un escalar se multiplican todos los


coecientes por el escalar. Los axiomas de espacio vec-
torial se cumplen porque se cumplen para cada coe-
ciente. De hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie
P

i=0
a
i
x
i
se determina unvocamente por la sucesi on (a
0
, a
2
, ..., a
n
, ...) de sus coe-
cientes y no hay diferencia entre sumar series y sumar las correspondientes sucesiones.
Lo mismo pasa con la multiplicaci on por un escalar. Al igual que con los polinomios,
el concepto de producto de series no juega ning un papel en el hecho de que K[[x]] sea
un espacio vectorial.
El espacio de funciones K
N
Hay una biyecci on natural entre las n-adas (a
1
, a
2
, ..., a
n
) K
n
y las funciones
{1, ..., n} 3 i 7 a
i
K. Igualmente las sucesiones (a
0
, a
1
, ..., a
n
, ...) se corresponden
biunvocamente con las funciones N 3 i 7 a
i
K. Ahora, generalicemos estos ejem-
plos. Si Nes un conjunto arbitrario (no necesitamos de operaci on alguna en N) entonces
el conjunto de todas las funciones de N en K se denota por K
N
. Dadas dos funciones
f, g K
A
la suma de ellas se dene como es habitual por (f +g) (i) = f (i) +g(i) para
cualquier i N. El producto por un escalar se dene por (f) (i) = f (i). Los axiomas
de espacio vectorial se comprueban f acilmente. Por ejemplo, la suma de funciones es
conmutativa porque para cada i en N se cumple que f (i) +g(i) = g(i) +f (i) gracias
a la conmutatividad de la suma en el campo. Como hemos visto, el espacio K
n
y el
espacio de sucesiones son un caso particular de este ejemplo cuando N es {1, ..., n} y N
respectivamente. Adem as, ya observamos que K[[x]] = K
N
.
El espacio de N-adas K
N
En lo adelante una funci on en K
N
se denotar a por
N
. M as precisamente,

N
es la funci on que a cada i N le hace corresponder el escalar
i
. Por
ejemplo, si N = {1, . . . , n}, entonces
N
= (
1
, . . . ,
n
). La bondad de
esta notaci on es que podemos pensar los elementos de K
N
(funciones) como si fueran
n-adas. Para poder seguir pensando en
N
como si fuera en una n-ada necesitamos las
palabras adecuadas. A los elementos
N
de K
N
los llamaremos N-adas. Al conjunto
N lo llamaremos conjunto de ndices de
N
y a los elementos de N los llamaremos
ndices. Si i es un ndice, entonces diremos que
i
es la i-esima coordenada de
N
.
En estas notaciones la suma de dos N-adas es por coordenadas. O sea, la i-esima coor-
denada de
N
+
N
es
i
+
i
. El producto por escalares tambien es por coordenadas.
O sea, la i-esima coordenada de
N
es
i
.
Si el conjunto N es nito y tiene n elementos entonces, la diferencia fundamental
entre una N-ada y una n-ada es que las coordenadas de la N-ada no necesariamente
32 Captulo 2. Espacios vectoriales
est an ordenadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces,
estos no tienen un orden natural. Para poder identicar una N-ada de estos con una
3-ada, necesitamos denir articialmente cual es el primer vector cual es el segundo
y cual es el tercero. Sin embargo, si al lector le cuesta trabajo pensar en las N-adas
cuando N es un conjunto, le sugiero olvidarse de que N es un conjunto y pensar que
N es un n umero natural.
El espacio de N-adas con soporte nito K
{N}
Sea
N
K
N
una N-ada. El soporte
N
es por denicion el conjunto de ndices i
tales que
i
6= 0. Si el conjunto de ndices N es nito entonces, cualquier N-ada tiene
soporte nito (porque un subconjunto de un conjunto nito es nito). Sin embargo, si
el conjunto de ndices es innito entonces habr a N-adas con soporte innito.
Si sumamos dos N-adas de soporte nito el resultado ser a una N-ada de soporte
nito (porque 0+0 = 0). Si multiplicamos una N-ada de soporte nito por un elemento
del campo el resultado ser a una N-ada de soporte nito (porque 0 = 0). Los axiomas
de espacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera
N-adas. Al espacio de N-adas con soporte nito se le denota por K
{N}
.
Como ejemplo de espacio de N-adas de soporte nito veamos el siguiente. Cada
polinomio
P
n
i=0
a
i
x
i
determina unvocamente una N-ada a
N
donde a
i
= 0 si i > n.
Esta N-ada es de soporte nito. Recprocamente, si a
N
es una N-ada de soporte nito
entonces, necesariamente, hay un natural n tal que a
i
= 0 para cualquier i > n. As,
le podemos hacer corresponder a a
N
el polinomio
P
n
i=0
a
i
x
i
. Esta correspondencia es
biunvoca y las operaciones son las mismas en ambos espacios. Esto nos muestra que,
el espacio de polinomios es el espacio de N-adas con soporte nito. En otras palabras
K
{N}
= K[x].
Un caso importante es cuando N es nito y en este caso K
{N}
= K
N
. O sea, cada
N-ada es de soporte nito. En particular, si N = {1, . . . , n} entonces K
{N}
= K
N
= K
n
.
Subcampos
Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar
un elemento de L por uno de K obtenemos un elemento de K. Esto signica que
tenemos una operacion binaria en K (la suma) y una multiplicaci on por escalares
L K K. En este caso, los axiomas de espacio vectorial se desprenden directamente
de las deniciones de campo y subcampo y obtenemos que K es un espacio vectorial
sobre L. Un caso muy particular es que todo campo es espacio vectorial sobre si mismo.
Otro ejemplo importante es que R es subcampo de C. Como cada complejo se puede
escribir como una pareja (a, b) con coordenadas en R y la suma de complejos y el
producto por un real son las mismas operaciones que en R
2
tenemos que C como
espacio vectorial sobre R es lo mismo que R
2
. Otro ejemplo m as es que R es un espacio
vectorial sobre Q. Este caso es sucientemente complicado para que no digamos nada
sobre el.
33 Seccion 2.2 Denicion y ejemplos
El espacio de N-adas de vectores E
N
Ahora, nos debemos preguntar, cual es el mnimo de condiciones que le debemos
pedir a las coordenadas de una N-ada, para poder denir un espacio vectorial. Ya vimos
que, si las coordenadas est an en un campo entonces, obtenemos un espacio vectorial.
Pero esto es pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas
y multiplicar cada coordenada por un escalar, o sea, necesitamos que las coordenadas
sean vectores.
Mas precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos
por E
N
el conjunto de todas las N-adas de E. Si a
N
y b
N
son dos elementos de
E
N
entonces, la i-esima coordenada de a
N
+ b
N
es a
i
+ b
i
. Esto lo podemos hacer
porque sabemos sumar los elementos de E. Ahora, si es un elemento de K entonces, la
i-esima coordenada de a
N
es a
i
. Esto lo podemos hacer porque sabemos multiplicar
los escalares en K por los vectores en E. Los axiomas de espacio vectorial se demuestran
f acilmente debido a que se cumplen en cada coordenada.
El espacio de NM-matrices K
NM
Un caso particular de N-adas de vectores es cuando estos vectores son M-adas


11

12

13

21

22

23

a
1
= (
11
,
12
,
13
)
a
2
= (
21
,
22
,
23
)
de escalares. Este espacio es

K
M

N
. Para aclarar un poco que sucede en este caso,
supongamos que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio

K
M

N
es una 2-ada (a
1
, a
2
) de vectores y cada uno de ellos es una 3-ada de escalares.
Los dos vectores los podemos represen-
tar como en el recuadro a la izquierda
y para simplicar nos quedamos con la
tabla que vemos a la derecha.
Esta tabla es un elemento del espacio de (NM)-adas K
NM
, o sea, los ndices
son parejas en el producto cartesiano NM. Esto nos permite identicar

K
M

N
con
K
NM
y como las operaciones en ambos espacios son las mismas estos espacios son
en esencia el mismo. Cambiando el orden en que ponemos los indices obtenemos las
igualdades
K
M

N
= K
NM
= K
MN
=

K
N

M
que el lector debe comparar con (a
x
)
y
= a
xy
= a
yx
= (a
y
)
x
para n umeros naturales
a, x, y.
Desde ahora, para simplicar la notaci on, a una (NM)-ada cualquiera la lla-
maremos NM-ada. Tambien, en lugar de usar la notacion
(NM)
para denotar una
NM-ada concreto, usaremos la notaci on
NM
. A una coordenada de esta NM-ada la
denotaremos
ij
en lugar de usar la m as complicada
(i,j)
. En esta notaci on, es mas
comodo pensar que hay dos conjuntos de ndices (N y M) en lugar de uno solo (NM).
O sea, una NM-ada es un conjunto de elementos del campo indexado por dos conjuntos
de ndices. Cuando N = {1, . . . , n} y M = {1, . . . , m} entonces obtenemos una matriz
con n renglones y m columnas. En el ejemplo anterior obtuvimos una matriz con 2
renglones y 3 columnas.
34 Captulo 2. Espacios vectoriales
Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jeroglcos chinos), la
diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de
ndices por lo que no sabramos cual columna o renglon poner primero y cual despues.
Como esta diferencia no es tan importante y para no formar confusi on en la terminologa
desde ahora, a las NM-adas los llamaremos NM-matrices. Escribiremos K
NM
para
denotar el espacio vectorial de todas las NM-matrices. Como ya sabemos, en este
espacio las matrices se suman por coordenadas y se multiplican por escalares tambien
por coordenadas.
Sea
NM
una NM-matriz. Es costumbre llamarle a las coordenadas
ij
de
NM
entradas de la matriz. Si i N entonces la M-ada
iM
K
M
es el i-esimo renglon
de la matriz
NM
. Si j M entonces la N-ada
Nj
K
N
es la j-esima columna.
Al conjunto N se le llama conjunto de ndices de los renglones. An alogamente, al
conjunto M se le llama conjunto de ndices de las columnas.
Si N
0
, M
0
son subconjuntos no vacos de N y M respectivamente entonces a la
matriz
N
0
M
0 se le llama submatriz de
NM
. Si |N
0
| = |M
0
| = 1 entonces la submatriz
es una entrada. Un renglon es una submatriz donde |N
0
| = 1 y M
0
= M o sea una
submatriz del tipo
iM
. Una columna es una submatriz donde |M
0
| = 1 y N = N
0
o
sea una submatriz del tipo
Nj
. Una ultima observacion acerca de las matrices, es que
toda esta terminologa de columnas y renglones viene de la manera usual en forma
de tabla en que escribimos una matriz concreta.
El espacio de tensores
Bueno, y si tenemos mas de dos conjuntos de ndices? Pues es lo mismo. Una
NML-ada es una (NML)-ada. Al igual que en las matrices denotaremos por

NML
a una NML-ada con tres conjuntos de ndices o sea un tensor de exponente
3. Las matrices son tensores de exponente 2 y las N-adas son tensores de exponente 1.
Los tensores de exponente 0 son los elementos del campo.
Si bien podemos pensar un tensor de exponente 1, co-
mo una serie de elementos del campo uno al lado de otro
y pensar los de exponente 2, como una tabla rectangu-
lar de elementos del campo, tambien podemos pensar los
tensores de exponente 3, como un conjunto de elementos
del campo dispuestos en un arreglo que llenan un cubo
en el espacio. Para cada i N tenemos que
iML
es un
tensor de exponente 2 o sea una matriz. Todo
NML
nos
lo podemos imaginar como muchas matrices puestas una
encima de la otra.
Sin embargo cuando el exponente del tensor es grande ya nuestra imaginaci on no
da para visualizar geometricamente un arreglo de los elementos del campo dispuestos
en un cubo de dimensi on grande. Es mucho m as util el manejo algebraico de estos, que
tratar de visualizarlos. En este contexto, la terminologa de renglones y columnas
35 Seccion 2.3 Subespacios
se hace inutilizable. Como es logico, los tensores con conjuntos de ndices jos forman
un espacio vectorial. La suma se hace por coordenadas y tambien la multiplicaci on por
un escalar.
2.3 Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vaco de
vectores que es un espacio vectorial para las mismas operaciones.
Un conjunto de vectores F no vaco es un subespacio si y solo si para
cualesquiera a, b F y K los vectores a +b y a estan en F.
Prueba. Si F es un subespacio de E entonces, por denici on a +b y a estan en F.
Recprocamente, sea F un conjunto de vectores de E que cumple las hip otesis. Como
la suma de vectores es asociativa y conmutativa en E, tambien lo es en F. Sea a F
(existe por ser F no vaco). Tenemos 0a = 0 F. Adem as b F (1) b = b F.
Con esto se comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial
se cumplen en F por ser este un subconjunto de E.
Uni on e interseccion de subespacios
Seran la interseccion (y la uni on) de subespacios un subespacio? La uni on de
subespacios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano
cartesiano (veremos prontamente que son subespacios) sin embargo, la uni on de los
mismos no es un subespacio ya que por ejemplo (0, 1)+(1, 0) = (1, 1) que no pertenece
a la uni on de los dos ejes. Por el contrario, la intersecci on de subespacios si es un
subespacio.
La interseccion de un conjunto de subespacios es un subespacio.
Prueba. La interseccion de subespacios nunca es vaca porque cada subespacio con-
tiene al 0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto
entonces, a +b tambien esta en cada uno de los subespacios del conjunto. Lo mismo
sucede para a.
Combinaciones lineales
36 Captulo 2. Espacios vectoriales
Veamos unos ejemplos importantes de subespacios. Sea a un vector
hai
a
no nulo en R
2
. El conjunto hai = {a | R} de todos los m ultiplos
del vector a es un subespacio de R
2
ya que a +a =( +) a, y
(a) = () a. Geometricamente, teniendo en cuenta la identica-
cion de vectores con los puntos del plano cartesiano, podemos ver que
los vectores en este espacio son los puntos de la recta por el origen que
pasa por a.
Sean ahora a y b dos vectores en R
3
no colineales o sea a 6= b. Considere-
mos el conjunto de vectores {a +b | , R}. Este conjunto de vectores se denota
por ha, bi y es un subespacio ya que a +b+
0
a +
0
b =( +
0
) a + ( +
0
) by
(a +b) = a+b. Geometricamente, vemos que este conjunto contiene a la
recta hai que pasa por a y a la lnea hbi que pasa por b.
En R
3
hay un solo plano que contiene estas dos rectas.
p
a
b
ha, bi
Sera este plano el subespacio ha, bi? Pues, claro que si.
Para cada punto p de este plano dibujemos la paralela a
la lnea hai que pasa por p obteniendo un punto de inter-
secci on con la recta hbi el cual es b para alg un R.
Analogamente, dibujando la paralela a hbi obtenemos el
punto a en la recta hai y vemos que p = a +b. Lue-
go, p ha, bi.
Estos ejemplos nos motivan a la siguiente denicion. Sea N un conjunto
X
iN

i
i
de vectores. Una combinacion lineal de N es cualquier vector de la forma
que se muestra en el recuadro a la derecha. A los escalares
i
se les llama
coecientes de la combinaci on lineal.
Es posible que no se entienda esta notaci on. El conjunto de ndices es el conjunto de
vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. As por
ejemplo si N = {a, b, c, d} entonces una combinaci on lineal de N es un vector de la
forma a+b +c+d. En otras palabras, la notaci on
P
iN

i
i debe interpretarse
as: t omese los vectores de N, cada uno de ellos multiplquese por un escalar y s umese
los resultados.
Todo esto est a muy bien si el conjunto N es nito. Si N es innito tenemos un
problema. Que es una suma innita de vectores? La manera de evitar este problema
es que le pediremos a los coecientes
i
que todos salvo un n umero nito sean cero o
sea, que la N-ada
N
cuyas coordenadas son los coecientes de la combinacion lineal
es de soporte nito. Como podemos despreciar los sumandos iguales a cero, tenemos
que una combinaci on lineal es siempre una suma de un n umero nito de vectores.
El conjunto de todas las combinaciones lineales de N es un subespacio.
Prueba. Sean
P
iN

i
i y
P
iN

i
i dos combinaciones lineales de N entonces, de
la asociatividad y conmutatividad de la suma de vectores y de la distributividad del
37 Seccion 2.3 Subespacios
producto por escalares obtenemos:
X
iN

i
i+
X
iN

i
i =
X
iN
(
i
+
i
) i
que es una combinacion lineal de N ya que todos los (
i
+
i
) salvo un n umero nito
tienen que ser cero. Lo mismo ocurre con
P
iN

i
i

=
P
iN

i
i.
Cerradura lineal
Denotaremos por hNi al conjunto de todas las combinaciones lineales de N.
Si F es un subespacio que contiene a N entonces, F contiene a hNi.
Prueba. Si F contiene a N entonces, F contiene a todos los m ultiplos de los vectores
en N y a todas sus sumas nitas. Luego, cualquier combinaci on lineal de N esta en F.
Los siguientes tres conjuntos de vectores coinciden
1. El conjunto de todas las combinaciones lineales de N.
2. La interseccion de todos los subespacios que contienen a N.
3. El subespacio mas peque no que contiene a N.
Prueba. Denotemos por F
1
, F
2
y F
3
a los tres conjuntos del enunciado de la proposi-
cion. Por denicion F
1
= hNi. Por la proposici on 2.3 el conjunto F
2
es un subespacio
que contiene a N y de 2.5 obtenemos que F
1
F
2
. Por denici on de interseccion
tenemos que F
2
F
3
. Por denicion, F
3
esta contenido en cualquier subespacio que
contiene a N y en particular F
3
F
1
. La prueba termina usando la transitividad de la
inclusion de conjuntos.
A cualquiera de los tres conjuntos (son iguales!) de la proposici on anterior se le de-
nota por hNi y se le llama cerradura lineal de N o tambien el subespacio generado
por N.
Propiedades de la cerradura lineal
La cerradura lineal cumple las siguientes propiedades:
N hNi (incremento),
N MhNi hMi (monotona),
hhNii = hNi (idempotencia).
Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N M. Cual-
quier combinacion lineal de N es tambien combinacion lineal de M (haciendo cero todos
los coecientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio
38
Captulo 2. Espacios vectoriales
m as peque no que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi.
En matematicas las palabras clausura, cerradura y envoltura son sin onimos.
Por esto con el mismo exito, otros autores le llaman clausura lineal o envoltura
lineal a nuestro concepto de cerradura lineal. Adem as, es bueno que el lector encuentre
el parecido entre el concepto de cerradura lineal y el concepto de cerradura en an alisis
(la intersecci on de todos los cerrados que contienen a un conjunto).
En general una funcion que a un conjunto N le hace corresponder otro conjunto hNi y
que cumple las propiedades 1-3 se le llama operador de cerradura (clausura, envoltura).
En este caso a los conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las
propiedades 1-3 es, en general, equivalente a que el operador de cerradura se dena como la interseccion
de todos los cerrados que contienen al conjunto. En todas las ramas de las matematicas se encuentran
operadores de cerradura.
Ejercicio 37 Demuestre que N es un subespacio si y solo si N = hNi.
Ejercicio 38 Demuestre que (x hN yi \ hNi) (y hN xi). [228]
2.4 Bases
Observemos que la denici on de combinaci on lineal de N
K
{N}
3
N
7
X
iN

i
i E
determina la funci on f
N
del recuadro a la izquierda que a
cada N-ada de soporte nito
N
le hace corresponder el
vector
P
iN

i
i. Esta funci on no tiene porque que ser sobreyectiva ni inyectiva, de-
pende del conjunto de vectores N. Por ejemplo, sea N = {x, y, z} donde x = (0, 0, 1),
y = (0, 1, 0) y z = (0, 1, 1) son tres vectores en R
3
. En este caso f
N
(2, 2, 0) =
f
N
(0, 0, 2) = (0, 2, 2) por lo que f
N
no es inyectiva. Tampoco es sobreyectiva porque
(1, 0, 0) no tiene preimagen.
En esta seccion estableceremos que en todo espacio vectorial existen conjuntos N
para los cuales la funci on f
N
es biyectiva. Este hecho es fundamental, porque en este
caso existe la funci on inversa f
1
N
: E K
{N}
que nos permitir a introducir coordenadas
en cualquier espacio vectorial. Es m as, veremos que los conjuntos de vectores para los
cuales f
N
es biyectiva tienen la misma cantidad de vectores. Esto quiere decir que cada
vector de E se dene por un cierto n umero de elementos del campo (coordenadas) y
que este n umero es independiente del vector a denir. Solo depende del espacio. As,
en R
2
nos hacen falta siempre dos reales para dar un vector y en R
7
nos hacen falta
siete.
39 Seccion 2.4 Bases
Conjuntos generadores
Primero, lo mas f acil. La imagen de la funci on f
N
es hNi , la cerradura de N. Diremos
que N es un conjunto generador si hNi es todo el espacio o sea, si f
N
es sobreyectiva.
Los generadores son un ltro
Todo sobreconjunto de un conjunto generador es generador.
Prueba. Supongamos M N. Por monotona de la cerradura lineal tenemos hNi
hMi. Si hNi es todo el espacio entonces, necesariamente hMi tambien lo es.
Conjuntos linealmente independientes
Ahora, veamos cuando f
N
es inyectiva. Observese que en un lenguaje mas descrip-
tivo, un f
N
es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.
Teorema de Caracterizacion de Conjuntos Linealmente Independientes
Sea N un conjunto de vectores. Las siguientes armaciones son equiva-
lentes
1. Cualquier subconjunto propio de N genera un subespacio m as pe-
que no que todo N.
2. Cualquier vector en N no es combinacion lineal de los restantes.
3. Si dos combinaciones lineales de N son iguales entonces, todos sus
coecientes son iguales.
4. Si una combinaci on lineal de N es cero entonces, todos sus coe-
cientes son cero.
Prueba. (1 2) Si 1 no es cierto entonces existe a N tal que hNi = hN\ai pero
entonces a hN\ai lo que contradice 2. Recprocamente, si 2 no es cierto entonces
existe a N tal que a hN\ai. Por incremento N\a hN\ai y como adem as
a hN\ai entonces N hN\ai. Por monotona e idempotencia hNi hN\ai lo que
contradice 1.
(3 4) Observese que
P
iN

i
i =
P
iN

i
i

P
iN
(
i

i
) i = 0

y adem as
(
i
=
i
) (
i

i
= 0). Luego, la existencia de combinaciones lineales iguales con
algunos coecientes diferentes es equivalente a la existencia de combinaciones lineales
iguales a cero con algunos coecientes no cero.
(2 4) Si no se cumple 2 entonces hay un vector a N que es combinaci on
lineal de N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos
una combinaci on lineal de N igual a cero con un coeciente distinto de cero. Esto
contradice 4. Recprocamente, si no se cumple 4 entonces hay un vector a N y una
combinaci on lineal de N igual a cero y con
a
6= 0. Despejando a, obtenemos que
40 Captulo 2. Espacios vectoriales
a hN\ai. Esto contradice 2.
Ejercicio 39 Busque en la prueba del Teorema de Caracterizaci on de Conjuntos Li-
nealmente Independientes (2.9) donde se usan los inversos nultiplicativos. [228]
Diremos que un conjunto de vectores N es linealmente independiente si se
cumple alguna (y por lo tanto todas) las armaciones de la proposici on anterior. Los
conjuntos de vectores que no son linealmente independiente se les llama linealmente
dependientes.
A partir de ahora para no repetir constantemente frases largas a los con-
juntos de vectores linealmente independientes los llamaremos conjuntos
LI. An alogamente a los conjuntos de vectores linealmente dependientes
los llamaremos conjuntos LD. Estas notaciones se deben pronunciar ele i y ele
de.
Los independientes son un ideal
Todo subconjunto de un conjunto LI es LI.
Prueba. Sea N M tal que M es LI. Cualquier combinaci on lineal de N es combi-
nacion lineal de M. Luego toda combinaci on lineal de N igual a cero tiene todos sus
coecientes iguales a cero
Antes de pasar a la denici on de base, demostremos un peque no resultado que
usaremos repetidamente en lo adelante.
Lema de Aumento de un Conjunto LI
Si N es independiente y Na es dependiente entonces a hNi.
Prueba. Si N a es LD entonces, por la caracterizaci on 2.9.4 de los conjuntos LI,
hay una combinaci on de Na igual a cero cuyos coecientes no todos son igual a cero.
Si el coeciente en a fuera igual a cero obtendramos una contradiccion con que N es
LI. Luego, el coeciente en a es diferente a cero y despejando a obtenemos a hNi.
Bases
41 Seccion 2.4 Bases
La relacion entre los conjuntos generadores y los con-
Conjuntos generadores
Conjuntos LI
E

juntos LI la podemos ver intuitivamente en la gura a la


derecha. Aqu estan representados los subconjuntos del
espacio E que son generadores o que son LI. Mientras
m as arriba mas grande es el subconjunto. Nuestro interes
ahora se va a concentrar en la franja del centro donde
hay subconjuntos que a la vez son generadores y LI. La
siguiente proposici on nos dice que esta franja no puede
ser muy ancha.
Teorema de Caracterizacion de Bases
Sea N un conjunto de vectores. Las siguientes armaciones son equiva-
lentes
1. N es generador y N es LI,
2. N es LI y cualquier sobreconjunto propio de N es LD,
3. N es generador y cualquier subconjunto propio de N no es genera-
dor.
Prueba. (1 2) Sea N independiente y generador. Sea a / N. Como N es generador
a hNi . De la caracterizacion 2.9.2 de los conjuntos LI se sigue que N a es LD.
Luego todo sobreconjunto propio de N es LD.
(2 3) Sea Nindependiente maximal. Por incremento N hNi. Si a / Nentonces
N a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a hNi .
Luego, N es generador. Si alg un subconjunto propio de N fuera generador entonces
existira a N tal que a hN\ai y por la caracterizaci on 2.9.2 de los conjuntos LI
esto contradice la suposici on de que N es LI.
(3 1) Sea N generador minimal. Si N es LD entonces, por la caracterizacion
2.9.1 de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como
N es generador entonces M tambien lo es. Esto contradice la suposicion de que N es
minimal.
Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI se le
llama base de F. Las bases de todo el espacio se llaman simplemente bases. El ser base
es equivalente a ser un conjunto LI lo m as grande posible o ser un conjunto generador
lo m as chico posible. Tambien, el ser base es equivalente a que nuestra funcion f
N
del
principio de esta seccion sea biyectiva.
Lema de Incomparabilidad de las Bases
Dos bases diferentes no est an contenidas una dentro de la otra.
Prueba. Si N M son dos bases diferentes entonces N es un subconjunto propio de
42 Captulo 2. Espacios vectoriales
M y por el Teorema de Caracterizaci on de Bases (2.12) esto es una contradicci on.
Teorema de Existencia de Bases
Sea N un conjunto generador y L N un conjunto
LI. Entonces, existe una base M tal que L M N.
Prueba. Sean L y N como en las hip otesis del teorema. Sea M un conjunto LI tal
que L M N. Si M es maximal con estas propiedades (a N\M Ma es LD)
entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N hMi. Como
N es generador, esto signica que M tambien lo es y por lo tanto M es una base.
Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es f acil
si el conjunto N es nito. Primero ponemos M igual a L. Si M es maximal terminamos,
si no, entonces existe a N\M tal que M a es LI. Agregamos a al conjunto M y
repetimos este proceso. Como N es nito este proceso tiene que terminar.
Ejercicio 40 Pruebe que las siguientes armaciones son consecuencia directa del Teo-
rema de Existencia de Bases (2.14): 1. Todo espacio vectorial tiene base. 2. Cualquier
conjunto LI esta contenido en una base. 3. Cualquier conjunto generador contiene a
una base. [228]
Dimensi on
Ahora lo que queremos ver es que todas las bases tienen el mismo n umero de
vectores. Para probar esto se necesita ver primero una propiedad cl asica de las bases.
Propiedad del Cambio de las Bases
Si M y N son dos bases entonces, para cualquier
a M existe b N tal que (M\a) b es base.
Prueba. Sea a un vector jo pero arbitrario en M. Para un vector b N denotemos
M
b
= (M\a) b. Si para todos los b N\ (M\a) el conjunto M
b
fuera LD entonces,
por el Lema de Aumento de un Conjunto LI (2.11) todo b N sera combinaci on
lineal de M\a. O sea, N hM\ai y por monotona e idempotencia tendramos hNi
hM\ai . Como hNi es todo el espacio en particular tendramos a hM\ai lo que no
es posible ya que M es LI.
Hemos demostrado que existe b N\ (M\a) tal que M
b
es LI. Demostremos que
M
b
es generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v son
43 Seccion 2.4 Bases
combinaciones lineales de M o sea existen escalares apropiados tales que
b =
a
a +
X
xM\a

x
x v =
a
a +
X
xM\a

x
x
Como M
b
es LI entonces, b no es una combinacion lineal de M\a y por lo tanto

a
6= 0. Luego, podemos despejar a de la primera ecuaci on, substituirla en la segunda
y as obtener que v hM
b
i. Esto signica que M
b
es generador.
Equicardinalidad de las Bases
Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.
Prueba. Sean A = {a
1
, ..., a
n
} y B dos bases. Por la Propiedad del Cambio de las Bases
(2.15) existe otra base A
1
= {b
1
, a
2
, ..., a
n
} donde b
1
B. Observese que |A
1
| = n
ya que en otro caso A
1
A lo que contradice el Lema de Incomparabilidad de las
Bases (2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A
1
obtenemos
otra base A
2
= {b
1
, b
2
, a
3
, ..., a
n
} tal que b
2
B. Observese que |A
2
| = n ya que en
otro caso A
2
A
1
lo que contradice el Lema de Incomparabilidad de las Bases (2.13).
Repitiendo este proceso obtenemos bases A
3
, A
4
, ..., A
n
todas con n vectores y adem as
A
n
B. Como B es base obtenemos A
n
= B y por lo tanto B tambien tiene n vectores.
Al cardinal de una base (cualquiera) se le llama dimension del espacio vectorial. La
dimensi on de un espacio vectorial E se denotara por dimE. Los espacios vectoriales que
tienen una base nita se les llama nito dimensionales o de dimension nita. Por
el contrario, si sus bases son innitas entonces, el espacio vectorial es de dimension
innita. La teora de los espacios vectoriales de dimension nita es mas sencilla pero
m as completa que la de los espacios de dimension innita. Para darnos cuenta de
que hay muchas cosas que se cumplen en el caso nito dimensional pero no en el
caso innito dimensional veamos como ejemplo el siguiente resultado que tendremos
m ultiples ocaciones para utilizarlo.
Sea F un espacio vectorial nito dimensional y E un
subespacio de F. Si dimE = dimF entonces E = F.
Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe
una base M del espacio F que contiene a N. Como M es nita entonces, N tambien es
nita. Como las dimensiones coinciden, el n umero de vectores en N es igual al n umero
de vectores en M. Luego N = M y por lo tanto E = hNi = hMi = F.
44 Captulo 2. Espacios vectoriales
Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos
hecho solamente para el caso que el espacio tiene una base nita. Nuestra
prueba del Teorema de Existencia de Bases (2.14) es solo para el caso
que el conjunto generador es nito. Finalmente, solo hemos probado que los espacios
vectoriales que tienen un conjunto generador nito tienen base. Es importante que el
lector sepa que estas tres armaciones son v alidas en general. Sin embargo, las pruebas
generales dependen de un conocimiento m as profundo de la Teora de Conjuntos que
no presuponemos que lo posea el lector. A los interesados en esto les recomiendo leer
ahora la ultima seccion de este captulo.
Ejercicio 41 Pruebe que si E un subespacio de F entonces dimE dimF. [228]
Ejercicio 42 Encuentre un ejemplo donde no se cumple 2.17. [228]
Bases can onicas
Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tie-
nen una base sino muchas. Por esto es conveniente construir bases que son las m as
sencillas para los ejemplos de espacios vectoriales que construimos en la Secci on 2.2.
Comenzemos con R
2
. Sean e
1
= (1, 0) y e
2
= (0, 1). Cualquier vector (a, b) en R
2
tiene una manera de expresarse como combinaci on lineal de N = {e
1
, e
2
}. Efectiva-
mente, tenemos la igualdad (a, b) = ae
1
+be
2
. Esto quiere decir que el conjunto N es
generador. Por otro lado, si e
1
+e
2
= (, ) = 0 = (0, 0) entonces, necesariamente,
y son ambos cero. De aqu obtenemos que conjunto N es una base que la llamamos
base can onica de R
2
. Los vectores e
1
y e
2
se pueden visualizar geometricamente co-
mo los dos vectores de longitud 1 en ambos ejes de coordenadas. Luego, la dimensi on
de R
2
es 2.
Pasemos ahora a K
n
. Para cada i en el conjunto de ndices {1, . . . , n} denotemos
por e
i
el vector cuya i-esima coordenada es 1 y todas las dem as son cero (recuerde
que todo campo tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos
(
1
, . . . ,
n
) =
P
n
i=1

i
e
i
y esto signica que cada vector en K
n
se expresa de forma
unica como combinacion lineal de N. O sea, N es generador y por la caracterizaci on
2.9.3 de los conjuntos LI el conjunto N es LI. A la base N se le llama base canonica
de K
n
. La dimensi on de K
n
es n.
Veamos el espacio de polinomios K[x]. Sea N el conjunto

x
i
| i N

. Es claro que
todo polinomio se puede escribir de forma unica como combinacion lineal nita de N.
A la base N se le llama base canonica de K[x]. Luego, K[x] es de dimension innita
contable. Desafortunadamente, para el espacio de series no se puede dar explicitamente
una base.
Para el espacio K
{M}
de todas las M-adas de soporte nito ya hicimos casi todo
el trabajo (vease K
n
). Para cada i en el conjunto de ndices M denotemos por e
i
el
vector cuya i-esima coordenada es 1 y las dem as son cero. Sea N el conjunto de todos
45 Seccion 2.5 Clasicacion de espacios vectoriales
esos vectores. Tenemos
N
=
P
iN

i
e
N
donde los coecientes son distintos de cero
solamente en un subconjunto nito de indices. Luego, N es una base de este espacio la
cual es su base can onica. La dimensi on de K
{M}
es el cardinal de N ya que hay una
biyeccion entre N y M.
Recordemos al lector que lo de soporte nito es no trivial solo para cuando el
conjunto M es innito. Si el conjunto de ndices es nito entonces estamos hablando
de todas las M-adas o sea de K
M
. Luego, en el caso de que M es nito K
{M}
= K
M
y
la base can onica de K
M
es la construida en el p arrafo anterior. En el caso de que el
conjunto M sea innito entonces el espacio K
M
no tiene una base canonica.
El campo de los n umeros complejos como espacio vectorial sobre los reales tienen
como base can onica al conjunto {1, i} y por lo tanto tiene dimensi on 2. Los reales
como espacio vectorial sobre los racionales no tienen una base can onica.
Todos los espacios que hemos visto que no tienen base canonica son de dimensi on
innita. Sin embargo, no todos los espacios de dimension nita tienen una base can oni-
ca. El ejemplo mas sencillo de esto es tomar un subespacio de un espacio de dimension
nita. Si este subespacio es sucientemente general, entonces no hay manera de cons-
truir una base can onica del mismo incluso en el caso de que todo el espacio tenga una
base canonica.
Ejercicio 43 Demuestre que el conjunto {(x x
0
)
i
| i N} es una base de K[x].
[228]
Ejercicio 44 Cual es la base canonica del espacio de las NM-matrices? [228]
2.5 Clasicacion de espacios vectoriales
En esta secci on veremos que todo espacio vectorial es isomorfo a un espacio de
N-adas de soporte nito. Para el caso nito dimensional esto quiere decir que el unico
(salvo isomorsmos) espacio vectorial de dimensi on n sobre un campo K que existe es
el espacio de las n-adas K
n
.
Isomorsmos lineales
En el Captulo 1 vimos los morsmos de operaciones binarias, grupos, anillos y
campos. Para los espacios vectoriales es igual, la unica diferencia es que en ellos hay
denida una operacion que no es interna del espacio: el producto de un escalar por un
vector. Sin embargo, esto no presenta mayores dicultades.
Sean E y F dos espacios vectoriales sobre el mismo campo
f (a +b) = f (a) +f (b)
f (a) = f (a)
K. Una funci on f : E F se le llama morsmo de
espacios vectoriales si para cualesquiera a, b E y
cualquier Kse cumplen las propiedades del recuadro.
46 Captulo 2. Espacios vectoriales
A los morsmos de espacios vectoriales tambien se les llama transformaciones
lineales. Esta ultima expresion ser a la que usemos porque tiene dos importantes ven-
tajas. Primero, es mas corta que la primera. Segundo es mucho m as antigua, hay
mucha m as cantidad de personas que la conoce y por lo tanto facilita la comunicaci on
con ingenieros y cientcos de diversas areas.
Ejercicio 45 Demuestre que la composici on de morsmos es un morsmo. [228]
El estudio de las transformaciones lineales lo pospondremos hasta el siguiente
captulo. Aqu estaremos interesados en los isomorsmos de espacios vectoriales. Una
transformaci on lineal f : E F es un isomorsmo de espacios vectoriales o iso-
morsmo lineal si esta es biyectiva. An alogamente al caso de operaciones binarias
tenemos el siguiente resultado:
La inversa de cualquier isomorsmo lineal es un isomorsmo lineal.
Prueba. Sea K y x, y F. Como f es una biyeccion existen a, b E tales que
f (a) = x , f (b) = y. Como f es isomorsmo tenemos
f
1
(x +y) = f
1
(f (a) +f (b)) = f
1
(f (a +b)) = a +b = f
1
(x) +f
1
(y)
f
1
(x) = f
1
(f (a)) = f
1
(f (a)) = a =f
1
(x)
que es lo que se quera demostrar.
Ya observamos, que los isomorsmos son nada mas que un cambio de los nombres
de los elementos y las operaciones. Esto quiere decir que cualquier propiedad debe
conservarse al aplicar un isomorsmo. La siguiente proposicion es un ejemplo de esta
armacion.
Un isomorsmo transforma conjuntos LI en conjuntos LI, con-
juntos generadores en conjuntos generadores y bases en bases.
Prueba. Sea f : E F un isomorsmo de espacios vectoriales. Sea M E y
denotemos N = f (M) F. Sean adem as x E , y = f (x) F. Como f es isomorsmo
tenemos

X
iM

i
i = x
!

X
iM

i
f (i) = y
!

X
jN

j
j = y
!
donde el conjunto de coecientes {
i
| i M} es exactamente el mismo que {
j
| j N}.
Si M es generador entonces, para cualquier y F el vector x = f
1
(y) es combi-
nacion lineal de M y por la equivalencia anterior el vector y es combinaci on lineal de
N. Luego, si M es generador entonces N tambien lo es.
47 Seccion 2.5 Clasicacion de espacios vectoriales
Supongamos que M es LI entonces, poniendo x = 0 obtenemos

X
iM

i
i = 0
!

X
jN

j
j = 0
!
luego, cualquier combinacion lineal de N que es nula tambien es combinaci on lineal
nula de M y por lo tanto todos sus coecientes son cero. Luego, N es LI.
Ejercicio 46 Demuestre que los isomorsmos conmutan con el operador de cerradura
lineal y que trasforman subespacios en subespacios de la misma dimension.
Coordinatizacion
Sea N un conjunto de vectores del espacio vectorial F. Al principio de la seccion
anterior introducimos la funci on f
N
que a cada N-ada de soporte nito le hace co-
rresponder la combinaci on lineal cuyos coecientes son dicha N-ada. Esta funci on es
siempre una transformacion lineal ya que
f
N
(
N
+
N
) =
X
iN
(
i
+
i
) i =
X
iN

i
i +
X
iN

i
i = f
N
(
N
) +f
N
(
N
)
f
N
(
N
) =
X
iN
(
i
) i =
X
iN

i
i = f
N
(
N
) .
Por otro lado, ya vimos que f
N
es sobreyectiva si y solo si N es generador, que f
N
es inyectiva si y solo si N es LI y por lo tanto f
N
es un isomorsmo si y solo si N
es una base. En el caso de que N sea una base, la funcion inversa f
1
N
: F K
{N}
es
un isomorsmo lineal llamado coordinatizaci on de F mediante la base N. En otras
palabras, si N es una base de F, y x es un vector de F entonces, existe una unica
N-ada
N
K
{N}
tal que x =
P
iN

i
i. En este caso, a los coecientes
i
se les llama
coordenadas de x en la base N.
Clasicacion
Se dice que dos espacios son isomorfos si existe una funci on que es un isomorsmo
entre ellos. No hay ninguna raz on (por ahora) para que deseemos distinguir dos espacios
vectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los nombres
de los vectores y las operaciones. La clave para ver que los espacios vectoriales son
isomorfos es que estos tengan la misma dimensi on.
Dos espacios vectoriales sobre el mismo campo son
isomorfos si y solo si tienen la misma dimensi on.
Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19
un isomorsmo entre ellos transforma biyectivamente una base de uno en una base del
otro por lo que tienen la misma dimensi on. Recprocamente, sean N y M bases de E
48 Captulo 2. Espacios vectoriales
y F respectivamente. Mediante los isomorsmos de coordinatizaci on podemos pensar
que E = K
{N}
y F = K
{M}
. Si los dos tienen la misma dimension entonces, hay una
biyeccion f : M N. Sea g : K
{N}
3
N
7
M
K
{M}
la funci on tal que
i
=
f(i)
.
La funci on g la podemos pensar como la que simplemente le cambia el nombre a los
ndices de una N-ada. Esta es claramente un isomorsmo de espacios vectoriales (ya
que la suma de N-adas es por coordenadas y lo mismo con el producto por un escalar).
Esta proposicion nos permite saber como son TODOS los espacios vectoriales. Ya
vimos (mediante la base can onica) que el espacio vectorial de todas las N-adas (fun-
ciones) de soporte nito tiene dimensi on |N|. Escogiendo el conjunto N adecuadamente
obtenemos todas las dimensiones posibles. En el caso de que N sea nito con n ele-
mentos , este espacio es K
n
por lo que es v alido el siguiente teorema.
Teorema de Clasicacion de Espacios Vectoriales
Todo espacio vectorial es isomorfo a un espacio de N-adas de soporte
nito. Todo espacio vectorial nito dimensional es isomorfo a K
n
.
Campos de Galois
Una aplicaci on sencilla del Teorema de Clasicaci on de Espacios Vectoriales (2.21)
es la siguiente. Sea E un espacio vectorial nito dimendional sobre el campo K. Tenemos
para cierto natural n un isomorsmo E K
n
y si el campo K es nito entonces en
E hay exactamente |K|
n
vectores.
El n umero de elementos en un campo nito es potencia de un n umero primo.
Prueba. Ya vimos que siempre que se tenga un subcampo L del campo K entonces, K
es un espacio vectorial sobre L. Esto es en esencia porque podemos sumar vectores (los
elementos de K) y podemos multiplicar escalares (los elementos de L) por vectores.
Si K es nito entonces su caracterstica no puede ser 0 y por lo tanto es igual a un
n umero primo p. Esto quiere decir que K contiene como subcampo Z
p
. La dimensi on
de K sobre Z
p
tiene que ser nita ya que si no, entonces K sera innito. Luego, K es
isomorfo a Z
n
p
que tiene exactamente p
n
elementos.
Como pensar en espacios vectoriales
A partir de ahora el lector debe siempre tener en mente el Teorema de Clasicaci on
de Espacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se
debe pensar en R
2
y R
3
. La interpretacion geometrica de estos dos espacios como los
segmentos dirigidos con origen en el cero da una intuici on saludable acerca de lo que
es cierto y lo que no.
49 Seccion 2.6 Suma de subespacios
En segundo lugar el lector debe pensar en el ejemplo R
n
. Si el lector lo preere,
el n umero n puede ser un n umero jo sucientemente grande digamos n = 11. Ya en
este caso, para entender es necesario usar varios metodos: las analogas geometricas en
dimensiones peque nas, el c alculo algebraico con smbolos y los razonamientos l ogicos.
Casi todo lo que se puede demostrar para espacios vectoriales nito dimensionales se
demuestra en el caso particular de R
n
con la misma complejidad. Las demostraciones de
muchos hechos validos en R
n
se copian tal cual para espacios vectoriales de dimension
nita sobre cualquier campo.
En tercer lugar se debe pensar en C
n
. El espacio vectorial C
n
es extremadamen-
te importante dentro de las matem aticas y la fsica. Ademas, el hecho de que C es
algebraicamente cerrado hace que para C
n
algunos problemas sean m as f aciles que
en R
n
. Hay una manera de pensar en C
n
que ayuda un poco para tener intuici on
geometrica. Como ya vimos {1, i} es una base de C como espacio vectorial sobre R. De
la misma manera C
n
es un espacio vectorial sobre R de dimensi on 2n o sea, hay una
biyeccion natural entre C
n
y R
2n
(la biyecci on es (a
1
+b
1
i, a
2
+b
2
i, ..., a
n
+b
n
i) 7
(a
1
, b
1
, a
2
, b
2
, ..., a
n
, b
n
)). Sin embargo esta biyecci on no es un isomorsmo. Si E es un
subespacio de C
n
sobre R entonces no necesariamente E es un subespacio de C
n
sobre
C . Desde este punto de vista podemos pensar (no rigurosamente) a C
n
como un R
2n
en el que hay menos subespacios.
Los que se interesan en las ciencias de la computaci on deben tambien pensar en Z
n
p
y
en general en cualquier K
n
donde K es un campo nito. Las aplicaciones mas relevantes
incluyen la codicaci on de informaci on con recuperacion de errores y la criptografa,
que es la ciencia de cifrar mensajes.
Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los
objetivos de este libro) entonces, lo m as f acil es pensar en K
n
. Esto tiene una gran
ventaja en el sentido de que no hay que pensar en los detalles particulares que se
cumplen en uno u otro campo.
Sin embargo, en el caso innito dimensional la situaci on es m as fea. Nuestros teo-
remas nos garantizan que hay un isomorsmo entre R como espacio vectorial sobre Q
y las funciones de soporte nito de una base de este espacio a Q. El problema es que
nadie conoce (ni conocera nunca) una base de este espacio, as que realmente, estos
teoremas no dicen mucho para espacios vectoriales de dimensi on mayor que el cardinal
de los naturales
0
.
2.6 Suma de subespacios
En esta secci on introduciremos las operaciones m as basicas entre subespacios. Pero
antes, es saludable dar una interpretaci on geometrica de los subespacios para que el
lector pueda comparar el caso general con el caso de los espacios R
2
y R
3
.
50 Captulo 2. Espacios vectoriales
Subespacios de R
n
Cuales son todos los subespacios de R
n
? Del Teorema de Clasicacion de Espacios
Vectoriales (2.21) sabemos que estos tienen que ser isomorfos a R
i
para i {0, 1, . . . , n}
seg un sea su dimensi on. Si i = 0 entonces todo el subespacio es el vector 0 (el origen
de coordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego,
los casos interesantes son los que 0 < i < n.
Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una
base de un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya
vimos que hai es la recta que pasa por el origen y por el punto a que es el nal del
vector a. Luego, los subespacios de dimensi on 1 de R
n
son las rectas que pasan por el
origen. Para R
2
este analisis termina con todas las posibilidades.
Si i = 2 entonces, el subespacio tiene que ser isomorfo a R
2
y tiene que tener una
base {a, b} de dos vectores. La base {a, b} tiene que ser LI y en este caso eso quiere
decir que b no es un m ultiplo escalar de a. En otras palabras, los puntos nales de
los vectores a, b y el origen de coordenadas no estan alineados. En este caso hay un
unico plano (R
2
) que pasa por estos tres puntos y tambien ya vimos que este plano es
ha, bi. Luego, los subespacios de dimensi on 2 de R
n
son los planos que pasan por el
origen. Para R
3
este analisis termina con todas las posibilidades: sus subespacios son:
el origen, las rectas por el origen, los planos por el origen y todo el espacio.
Ahora tenemos que pensar por lo menos en los subespacios de R
4
y ya se nos
acaba la intuici on y la terminologa geometrica. Por esto, pasemos al caso general. Un
subespacio de dimensi on i en R
n
esta generado por una base {a
1
, . . . , a
i
} de i vectores
LI. Que sean LI lo que quiere decir es que sus puntos y el origen no estan contenidos
en un subespacio de dimensi on menor que i. Si este es el caso entonces hay un unico
R
i
que contiene a todos estos puntos y este es el subespacio ha
1
, . . . , a
i
i.
Suma de conjuntos y subespacios
Sean E y F dos subespacios sobre un campo K. En la proposici on 2.3 vimos que
EF es un subespacio. Por denicion de interseccion EF es el subespacio mas grande
contenido en E y F. Ya observamos ademas que EF no es un subespacio. Sin embargo,
hay un subespacio que es el mas peque no que contiene a los dos y este es hE Fi. El
subespacio hE Fi tiene una estructura muy simple:
hE Fi = {a +b | a E, b F}
51 Seccion 2.6 Suma de subespacios
Prueba. Todo a +b es una combinaci on lineal de E F.
X
xE

x
x +
X
yF

y
y
Recprocamente, toda combinaci on lineal de EF se puede escri-
bir como en el recuadro a la derecha. Como E y F son subespacios
entonces, el primero y el segundo sumando son elementos de E y F respectivamente.
Esto quiere decir que todo elemento de hE Fi es de la forma a +b con a en E y b
en F.
Dados dos conjuntos cualesquiera de vectores A y
A+B = {a +b | a A, b B}
B denimos la suma de estos como en el recuadro
a la izquierda. Despues de esta denici on el resultado 2.23 se puede reformular como
hE Fi = E + F. Es por esto que al subespacio hE Fi se le llama la suma de los
subespacios E y F y desde ahora se le denotar a por E + F.
La igualdad modular
Sean E y F dos subespacios. Ahora trataremos de calcular la dimensi on de E + F.
Para esto necesitaremos primero encontrar bases de E F y E + F.
Existen E una base de E y F una base de F tales que
E F es base de E F y E F es base de E + F.
Prueba. Sea N una base de E F . Como N es LI y esta contenida en E entonces,
por el Teorema de Existencia de Bases (2.14) existe una base E de E que contiene a N.
An alogamente, existe una base F de F que contiene a N.
Demostremos primero que EF = N. Efectivamente, por la forma en que contruimos
E y F tenemos N E F. Para la prueba de la otra inclusi on sea a E F. Como
N a E entonces, tenemos que N a es LI. Como N es base de E F y las bases
son los conjuntos LI mas grandes, obtenemos que a N. Luego, E F N.
Solo nos queda probar que E F es una base de E + F. En primer lugar, cualquier
a +b E + F es combinacion lineal de E F por lo que E F es generador de E + F.
Necesitamos probar que E F es LI. Para esto supongamos que
0 =
X
iEF

i
i =
X
iE\N

i
i+
X
iN

i
i+
X
iF\N

i
i
y demostremos que todos los
i
son cero. Sean x, y, z el primer, segundo y tercer
sumando respectivamente en la igualdad anterior. Por construcci on, tenemos x E,
y E F y z F. Adem as, como z = (y +x) y E es un subespacio, obtenemos
z E F.
Como N es una base de E F el vector z es combinacion lineal de N, o sea z =
P
iN

i
i para ciertos coecientes
i
. De aqu obtenemos que
0 = x +y +z =
X
iE\N

i
i+
X
iN
(
i
+
i
) i
Como E es LI, todos los coecientes de esta combinacion lineal son cero. En particular,
52 Captulo 2. Espacios vectoriales

i
= 0 para todo i E\N y por lo tanto x = 0. Substituyendo x obtenemos
0 = y +z =
X
iN

i
i+
X
iF\N

i
i
y como F es LI deducimos que los restantes coecientes tambien son cero.
Igualdad modular
Si E y F son dos subespacios entonces,
dimE + dimF = dim(E + F) + dim(E F).
Prueba. Por 2.24 existen bases E y F de E y F tales que EF es base de E+F y EF
es base de E F. Luego, la f ormula se reduce a la conocida igualdad entre cardinales
de conjuntos |E| +|F| = |E F| +|E F|.
Ejercicio 47 Use la igualdad modular para
E F (E + F)
1 1 1
1 1 2
1 2 2
E F (E + F)
1 2 3
2 2 3
2 2 4
construir ejemplos de subespacios reales E y F
tales que ellos y E + F tienen las dimensiones
denidas en la tabla del recuadro a la derecha.
Puede tener E + F dimensi on diferente a las de
la tabla?
Suma directa
Para dos espacios vectoriales Ey F (no necesariamente contenidos en otro espa-
cio) sobre un mismo campo K deniremos la suma directa de ellos como el espacio
vectorial
E F = {(a, b) | a E, b F}
(a, b) +

a
0
, b
0

=

a +a
0
, b +b
0

(a, b) = (a, b)
Observese que como conjunto la suma directa es el producto cartesiano de conjuntos.
La diferencia est a en que la suma directa ya trae en su denicion las operaciones de
suma de vectores y multiplicaci on por un escalar. Deberamos probar que la suma
directa es efectivamente un espacio vectorial, o sea que cumplen todos los axiomas.
Nosotros omitiremos esta prueba por ser trivial y aburrida. Mejor nos concentraremos
en algo mas interesante.
dim(E F) = dimE + dimF.
Prueba. Sea E
0
= {(a, 0) | a E} y F
0
= {(0, b) | b F}. Es claro que los espacios E
y E
0
son isomorfos y por lo tanto tienen la misma dimensi on. Otro tanto ocurre con
53 Seccion 2.6 Suma de subespacios
F y F
0
. Por denicion de suma de subespacios tenemos que E
0
+ F
0
= E F . De la
Igualdad modular (2.25) obtenemos dim(E
0
+ F
0
) = dimE
0
+ dimF
0
dim(E
0
F
0
) =
dimE + dimF.
Isomorsmo can onico entre la suma y la suma directa.
De esta ultima proposicion y de la igualdad modular se deduce que si dos subespa-
cios E y F son tales que EF = {0} entonces dim(E F) = dim(E + F) o sea EF es
isomorfo a E + F. A continuaci on probaremos solo un poquito mas. Sin embargo, este
poquito nos llevar a a profundas reexiones.
Isomorsmo Can onico entre la Suma y la Suma directa
Si E y F son subespacios tales que E F = {0} entonces la funcion
E F 3 (a, b) 7a +b E + F
es un isomorsmo de espacios vectoriales.
Prueba. Sea f la funci on denida en el enunciado. Tenemos
f ((a, b)) = f (a, b) = a +b = (a +b) = f (a, b)
f ((a, b) + (x, y)) = f (a +x, b +y) = a +x +b +y = f (a, b) +f (x, y)
por lo que solo queda demostrar que f es biyectiva. Por denicion de suma de subespa-
cios f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y)
entonces, a x = y b. Como a, x E entonces a x E. Como b, y F entonces
y b F. Luego a x = y b E F = {0} por lo que a = x y b = y.
Observemos que el isomorsmo (a, b) 7 a +b no depende de escoger base al-
guna en E F. Todos los isomorsmos que construimos antes de esta proposicion se
construyeron escogiendo cierta base en alguno de los espacios. Los isomorsmos que no
dependen de escoger alguna base juegan un papel importante en el algebra lineal y se les
llama isomorsmos can onicos. Decimos que dos espacios vectoriales son can onica-
mente isomorfos si existe un isomorsmo can onico entre ellos. As por ejemplo todo
espacio vectorial E de dimensi on 3 es isomorfo a K
3
pero no es canonicamente isomorfo
a K
3
porque no se puede construir de cualquier espacio vectorial de dimensi on 3 un
isomorsmo con K
3
que no dependa de escoger alguna base. Cuando veamos los pro-
ductos escalares veremos que hay fuertes razones para que diferenciemos las bases. Los
isomorsmos no canonicos no necesariamente preservan una u otra propiedad de las
bases. Por otro lado, los isomorsmos can onicos si las preservan. Si por un lado, debe
haber cierta resistencia a considerar iguales a dos espacios vectoriales isomorfos por el
otro, los espacios can onicamente isomorfos no se diferencian en nada uno del otro, por
lo que se puede pensar que es el mismo espacio.
54 Captulo 2. Espacios vectoriales
Ejercicio 481. Demuestre que E F y F E son can onicamente isomorfos.
2. Como se debe llamar esta propiedad de la suma directa de espacios?
3. Demuestre que la suma directa de espacios es asociativa.
4. Tiene la suma directa elemento neutro? [228]
Subespacios complementarios
Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio
F es complementario de E en S si S = E F. Esta igualdad por el Isomorsmo
Can onico entre la Suma y la Suma directa (2.27) lo que quiere decir es que S = E+F
y E F = {0}. En R
2
dos rectas por el origen diferentes son complementarias una a
otra. En R
3
un plano y una recta no contenida en el plano (ambos por el origen) son
complementarios uno a otro.
Todo subespacio tiene complementario.
Prueba. Sea E un subespacio de S. Sea Auna base de E. Por el Teorema de Existencia
de Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por
B = C\A. Como C es generador de S, todo elemento en S es combinaci on lineal de C
y en particular todo elemento de S se expresa como a +b con a E y b F. Luego
S = E + F.
Por otro lado, si x EF entonces, tienen que existir combinaciones lineales tales
que

x =
X
aA

a
a =
X
aB

a
a
!

X
aA

a
a
X
aB

a
a = 0
!
.
Como C es LI entonces, por la caracterizacion 2.9.4 de los conjuntos LI la ultima
combinaci on lineal tiene todos sus coecientes iguales a cero. Luego, E F = {0}.
Si E y F son dos subespacios complementarios entonces cada vector x
se expresa de forma unica como x = a +b donde a E y b F.
Prueba. Si E y F son complementarios entonces E+F es todo el espacio y por lo tanto
todo vector es de la forma a+b. Si a+b = a
0
+b
0
entonces aa
0
= b
0
b EF = {0}
por lo que la descomposicion x = a +b es unica.
Ejercicio 49 Demuestre el recproco de 2.29: Si cada vector se expresa de forma unica
como x = a + b con a E y b F entonces, los subespacios son complementarios.
[228]
55 Seccion 2.6 Suma de subespacios
Ejercicio 50 Pruebe que E = E
1
E
2
E
n
si y solo si cualquier vector x E
se expresa de forma unica como x = x
1
+ +x
n
con x
i
E
i
. Sugerencia: Usar 2.29,
el ejercicio anterior y la asociatividad de la suma directa para aplicar inducci on en el
n umero de sumandos n.
Espacios vectoriales versus conjuntos
Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teora
de Conjuntos y siempre es saludable establecer analogas con resultados ya conocidos.
Para acentuar mas esta similitud hagamos un diccionario de traduccion
Conjunto Espacio vectorial
Subconjunto Subespacio vectorial
Cardinal Dimensi on
Interseccion de subconjuntos Interseccion de subespacios
Uni on de subconjuntos Suma de subespacios
Uni on disjunta Suma directa
Complemento Subespacio complementario
Biyecciones Isomorsmos
Si nos jamos atentamente muchos de los resultados que hemos demostrado para es-
pacios vectoriales tienen su contraparte valida para conjuntos usando el diccionario que
hemos construido. Probablemente, el ejemplo m as notable de esto son las igualdades
modulares para conjuntos y para espacios vectoriales.
Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos
a los espacios vectoriales. Por ejemplo, el complemento de un subconjunto es unico
y no siempre hay un unico subespacio complementario. Otro ejemplo, un poco m as
substancial, es que la intersecci on de conjuntos distribuye con la union o sea A
(B C) = (A B) (A C) . Por otro lado la interseccion de subespacios en general
no distribuye con la suma o sea, la igualdad A(B +C) = (A B)+(A C) no siempre
es verdadera. Para ver esto t omese en R
3
los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B =
h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos A(B +C) = h(1, 1, 0)i y (A B)+(A C) =
{(0, 0, 0)} y vemos que son distintos.
Ejercicio 51 Si Ay B son dos conjuntos entonces la diferencia simetrica de los mismos
es el conjunto A+
2
B = (A B)\(A B). Demuestre que todos los conjuntos nitos de
un conjunto cualquiera U forman un espacio vectorial de dimensi on |U| sobre el campo
Z
2
para la suma +
2
y el producto 1A = A, 0A = . Vea, que los conceptos de nuestro
diccionario de traduccion se aplican a este caso en forma directa.
56 Captulo 2. Espacios vectoriales
2.7 Espacios cocientes
Ya vimos que para un subespacio E del espacio F, siempre existen subespacios com-
plementarios a el. Sin embargo hay muchos de estos subespacios complementarios y no
hay una manera can onica de escoger alguno de ellos. En esta secci on nos dedicaremos
a construir canonicamente el espacio cociente F/E que es el espacio de todos los subes-
pacios anes paralelos a E y que es isomorfo a cualquier subespacio complementario
de E.
Subespacios anes
Ya vimos que en el plano cartesiano R
2
los subespacios son el
`
`
0
x
R
2
origen {0}, todo R
2
y las rectas que pasan por el origen. Sin embargo,
hay otras rectas en el plano que no pasan por el origen. Para obtener
una de estas rectas lo que tenemos que hacer es trasladar una recta
por el origen ` mediante un vector x (vease la gura). De esta manera,
obtenemos la recta `
0
que se obtiene sumandole x a cada vector en
la lnea `. Observese que si x 6= 0 entonces las rectas ` y `
0
no se
intersectan.
Esto nos motiva a la siguiente denicion. Sea A un conjunto de vectores y x un
vector. Al conjunto A + x = {a +x | a A} se le llama la traslaci on de A con el
vector x. El lector debe observar que la operacion de trasladar es un caso particular
(cuando uno de los sumandos solo contiene a un solo vector) de la operaci on de suma
de conjuntos de vectores introducida en la secci on anterior.
Un subespacio afn es el trasladado de un subespacio. En otras palabras, un
conjunto de vectores E es un subespacio afn si existen un subespacio E y un vector
x tales que E = E + x. Observese que los subespacios son tambien subespacios anes.
Basta trasladar con el vector cero. Esto causa una confusi on lingustica: el adjetivo
afn se usa para hacer el concepto de subespacio m as general, no mas especco.
Por esto, cuando se habla de subespacios anes es com un referirse a los subespacios
como subespacios vectoriales.
Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fun-
damental: que es posible trasladar el subespacio vectorial con diferentes vectores y
obtener el mismo subespacio afn. Mas precisamente:
Si a E + x entonces, E + x = E +a.
E
0
E +x = E +a
x
a
Prueba. Probemos primero el caso que x = 0. Tenemos y E y a E
y E +a. Ahora por el caso general. Sabemos que, z = a x E y del primer caso,
E = E +z. Luego, E +x = E +z +x = E +a.
57 Seccion 2.7 Espacios cocientes
Ahora observemos, que un trasladado de un subespacio afn es a su vez un subespa-
cio afn ya que (E +x)+y = E+(x +y). Dos subespacios anes se le llaman paralelos
si uno es un trasladado del otro. La relaci on de paralelismo entre subespacios anes
es de equivalencia ya que si E = F + x y G = E + y entonces, G = F + (x +y). Esto
signica que el conjunto de los subespacios anes se parte en clases de paralelismo
y dos subespacios son paralelos si y solo si est an en la misma clase de paralelismo.
Ahora veremos que en cada clase de paralelismo hay un solo subespacio afn que
pasa por el origen.
Todo subespacio afn es paralelo a un solo subespacio vectorial.
Prueba. Si E+x = F +y entonces, E = F +yx. Como F +yx contiene al cero
entonces, xy F. Como F es un subespacio, yx F y 2.30 nos da F = F+yx.
Este resultado nos permite denir la dimensi on de un subespacio afn. Cada uno
de ellos es paralelo a un unico subespacio y su dimension es la dimension de ese
subespacio. En otras palabras, si E = E+x entonces dimE = dimE. Es com un utilizar
la terminologa geometrica para hablar de los subespacios anes de dimensi on peque na.
As, un punto es un subespacio afn de dimension cero, una recta es un subespacio
afn de dimensi on uno, un plano es un subespacio afn de dimension dos.
Dos subespacios anes paralelos o son el mismo o no se intersectan.
Prueba. Si y (E +x) (E +x
0
) entonces, por 2.30, E +x = E +y = E +x
0
.
Es un error com un (debido al caso de rectas en el plano) pensar que es
equivalente que dos subespacios sean paralelos a que estos no se intersecten.
Para convencerse de que esto no es cierto, el lector debe pensar en dos rectas
no coplanares en R
3
.
El espacio cociente
Sea D un espacio vectorial y E un subespacio vectorial de D.
0
x +x
0
y +y
0
R
2
x
y
x
0
y
0
Si E = E + x y F = E + y son dos subespacios anes paralelos
entonces E + F = (E +x) + (E +y) = (E + E) + (x +y) =
E+(x +y) lo que muestra que E+F esta en la misma clase de
paralelismo que E y F. En otras palabras (vease la gura a la
derecha) la suma de cualquier vector en E con cualquier otro en
F esta en un mismo espacio paralelo a E y F.
Denotemos ahora por D/E al conjunto de todos los subespacios anes de D paralelos
a E. Esta observaci on nos dice que la suma de subespacios anes es una operacion
binaria dentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad
58 Captulo 2. Espacios vectoriales
y conmutatividad de la suma de los vectores en D. El subespacio E es el neutro para
esta operacion y el opuesto de E +x es E x. Luego, D/E es un grupo abeliano para
la suma.
Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea
A = {a | a A}
A un conjunto arbitrario de vectores y un escalar. Deniremos
A como en el recuadro a la izquierda.
Sean E = E+x un subespacio afn paralelo a E y un escalar. Tenemos
0
2x
2y
R
2
x
y
E = (E +x) = E + x = E + x lo que muestra que E est a en la
misma clase de paralelismo que E. En otras palabras (vease la gura a la
derecha) el producto de un escalar por todos los vectores en E resulta en
espacio paralelo a E. Este producto convierte a D/E en un espacio vectorial llamado
espacio cociente de D por E.
Ejercicio 52 Compruebe los axiomas de espacio vectorial para el espacio cociente
D/E.
Ejercicio 53 Cual es el espacio cociente de R
3
por el plano xy?
Ejercicio 54 Que pasa si sumamos dos espacios anes no paralelos? [229]
El isomorsmo con los complementarios
Sea F un subespacio complementario a E.
Entonces, cualquier subespacio afn paralelo
a E intersecta a F en un y solo un vector.
F
E
R
2
Prueba. Sea E = E + x cualquier subespacio afn paralelo a E. Como D = E F
existen unos unicos vectores y E y z F tales que x = y + z. Luego por 2.30
E + x = E + y + z = E + z y por lo tanto z E + x o sea, z E F. Si z
0
es otro
vector en E F entonces, existe a E tal que z
0
= a + x. De aqu x = a + z
0
y
por la unicidad de la descomposici on de un vector en suma de vectores de espacios
complementarios, y = a y z = z
0
.
Sea F un subespacio complementario a E. Entonces,
f : F 3 x 7(E +x) D/E
es un isomorsmo de espacios vectoriales.
Prueba. Por 2.33 la aplicaci on f : F 3 x 7(E +x) D/E tiene inversa (que a cada
E+x D/E le hace corresponder el unico vector en (E +x)F). Luego, f es biyectiva.
Ademas,
59 Seccion 2.8 El espacio afn
f (x +y) = E + (x +y) = (E +x) + (E +y) = f (x) +f (y)
f (x) = E + (x) = (E +x) = f (x)
por lo que f es un isomorsmo.
Observese que el isomorsmo f es can onico. Luego, cualquier subespacio comple-
mentario a E es can onicamente isomorfo a D/E. Esta proposici on tambien nos dice
que la dimensi on de D/E es la misma que la de un complementario a E o sea, es
dimDdimE.
Es posible (gracias al isomorsmo con los complementarios) desarrollar toda el algebra
lineal sin la introducci on de los espacios cocientes. Si embargo, es m as c omodo hacerlo
con ellos. Adem as es importante que el lector se familiarize con el concepto, ya que, en el
estudio de estructuras algebraicas mas generales, no siempre existen estructuras complementarias
(por ejemplo en la teora de grupos). Por otro lado, las estructuras cocientes si se pueden construir.
Por ejemplo, todo grupo tiene un cociente por cualquier subgrupo normal.
2.8 El espacio afn
Recordemos de la secci on anterior que un subespacio afn del espacio vectorial F
es el trasladado E + x de un subespacio vectorial E de F. La dimension de E + x es
por denici on la dimensi on de E.
Los subespacios anes de dimension peque na reciben nombres especiales seg un la
tradici on geometrica. Los de dimension 0 se le llaman puntos. Los de dimensi on 1 se
le llaman rectas y los de dimension 2 se le llaman planos.
Un punto es, en otras palabras, un subespacio afn E +x donde E es de dimension
cero. Pero el unico subespacio vectorial de dimension cero es {0} . Luego, un punto es
un conjunto de la forma {0} +x = {x}. Esto nos da una biyeccion obvia {x} 7x entre
los puntos del espacio afn y los vectores del espacio vectorial.
Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio afn
de F. Pero como, dir a el lector, si la diferencia entre {x} y x es puramente formal
entonces, cual es la diferencia entre el espacio afn y el espacio vectorial? La respuesta
es ambivalente pues es la misma pregunta que que diferencia hay entre geometra y
algebra? Antes de Descartes eran dos cosas completamente distintas, despues de el, son
cosas muy parecidas.
Intuitivamente, un espacio afn es lo mismo que el espacio vectorial pero sin coorde-
nadas. El espacio an de R
2
es el plano de Euclides en el que estudiamos la geometra
m as clasica y elemental: congruencia de tri angulos, teorema de Pit agoras, etc. Los resul-
tados de esta geometra no dependen de cual es el origen de coordenadas. Dos tri angulos
son congruentes o no independientemente de en que lugar del plano se encuentran.
A un nivel m as alto, podemos pensar el espacio afn de un espacio vectorial como una
estructura matem atica adecuada para poder estudiar las propiedades de los espacios
vectoriales que son invariantes por traslaciones, o sea, que no cambian al mover un
60 Captulo 2. Espacios vectoriales
objeto de un lugar a otro en el espacio.
La regla del paralelogramo
La conocida regla del paralelogramo para la suma de vectores en el plano R
2
se
generaliza a todas las dimensiones y sobre cualquier campo.
Postularemos que el conjunto vaco es un subespacio afn de dimensi on 1. Eso nos
evitar a muchos problemas en la formulaci on de nuestros resultados.
La interseccion de subespacios anes es un subespacio afn.
Prueba. Sea x un punto en la interseccion. Cada uno de los subespacios anes, es
E + x para cierto subespacio E del espacio vectorial. Si F es la interseccion de todos
estos subespacios entonces F +x es la intersecci on de los subespacios anes.
Regla del paralelogramo
Si a y b son vectores LI de un espacio vectorial entonces, a +b
es la interseccion de los subespacios anes hai + b y hbi + a.
Prueba. Obviamente a+b (hai +b) (hbi +a). Por otro lado, ambos hai +b y
hbi +a tienen dimensi on 1 y por lo tanto su interseccion tiene dimension 0 o 1. Si esta
dimensi on es cero entonces terminamos. Si esta dimensi on es uno entonces hai + b =
hbi + a y por lo tanto a hai + b. Por 2.30 tenemos que hai + b = hai + a = hai,
Por lo tanto b hai y esto contradice que {a, b} es LI.
Cerradura afn
Para un conjunto A de puntos en el espacio afn, la cerradura afn de A es la
interseccion de todos los subespacios anes que contienen a A. A la cerradura afn de
A la denotaremos por [A]. Esto la diferencia claramente de la cerradura lineal hAi.
Para la cerradura an, tenemos las mismas propiedades que para la cerradura lineal.
[A] es el subespacio an m as peque no que contiene a A.
Prueba. [A] es un subespacio an. Si B es un subespacio afn que contiene a A
entonces [A] B pues para hallar [A] tuvimos que intersectar con B.
61 Seccion 2.8 El espacio afn
La cerradura afn cumple las siguientes propiedades:
1. A [A] (incremento)
2. A B [A] [B] (monotona)
3. [[A]] = [A] (idempotencia).
Prueba. La prueba es exactamente la misma que para el caso de la cerradura lineal.
Generadores e independencia
Un conjunto de puntos A es generador afn si [A] es todo el espacio afn. Los
conjuntos anmente independientes los deniremos con el siguiente resultado.
Denicion de conjuntos anmente independientes
Sea A un conjunto de puntos. Las siguientes armaciones son equivalen-
tes
1. Cualquier subconjunto propio de A genera un subespacio afn m as
peque no que todo A.
2. Cualquier punto en A no est a en la cerradura afn de los restantes.
Prueba. Es analoga a la prueba (1 2) de la caracterizacion de conjuntos LI.
Los conjuntos de puntos que no son anmente independientes los llamaremos an-
mente dependientes.
Nuevamente para evitarnos largas oraciones, a los conjuntos anmente
independientes los llamaremos conjuntos AI y a los conjuntos anmente
dependientes los llamaremos conjuntos AD.
Todo sobreconjunto de un generador an es un generador an.
Todo subconjunto de un conjunto AI es AI.
Prueba. Sea A un generador afn y B A. Tenemos [A] [B] y como [A] es todo el
espacio an entonces [B] tambien lo es.
Sea A que es AI y B A. Si B fuera AD entonces existira b B tal que b
[B\b] [A\b] y esto no puede ser pues A es AI.
Bases anes
Una base an es un conjunto de puntos que es AI y generador an. Ahora podria-
mos seguir por el mismo camino demostrando que las bases anes son los generadores
anes mas peque nos o los AI mas grandes. Despues, el teorema de existencia de base,
62
Captulo 2. Espacios vectoriales
el lema del cambio para las bases anes, la prueba de que dos bases anes tienen el
mismo cardinal, etc.
Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La pri-
mera es que a un no hemos denido combinaciones anes y estas se necesitan para
probar todo esto. La segunda, y m as obvia, es que todo esto es muy largo. Por suerte,
hay una sencilla relaci on que enlaza las bases anes con las bases del espacio vectorial
y esto nos ahorrara mucho trabajo.
Sea A = {x
0
, x
1,
. . . , x
n
} un conjunto de puntos. Dena-
mos A
0
= {x
1
x
0
, . . . , x
n
x
0
}. Entonces, A es una ba-
se afn si y solo si A
0
es una base del espacio vectorial.
Prueba. Veamos que [A] = hA
0
i + x
0
. Efectivamente, hA
0
i + x
0
es un subespacio
afn que contiene a A y por lo tanto [A] hA
0
i + x
0
. Por otro lado [A] x
0
es un
subespacio por el origen que contiene a A
0
y por lo tanto [A] x
0
hA
0
i.
De aqu inmediatamente obtenemos que A es generador afn si y solo si A
0
es un
generador. Luego, podemos suponer por el resto de la prueba que tanto A como A
0
son generadores. Nos queda probar que A es AI si y solo si A
0
es LI.
Supongamos que A
0
es LD. Sea B
0
una base lineal tal que B
0
A
0
. Como al
principio de la prueba B = {x
0
} (B
0
+x
0
) es un generador afn del espacio. Como
B
0
6= A
0
entonces, B 6= A y por lo tanto A es AD.
Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que genera
al espacio. Sea y B Como al principio de la prueba B
0
= {x
i
y | x
i
B \ {y}} es
un generador lineal del espacio. Luego la dimensi on del espacio es estrictamente menor
que n y por lo tanto A
0
no puede ser LI.
Ahora podemos traspasar todos los resultados probados para las bases del espacio
vectorial a las bases anes. En particular, es cierto que:
1. Las bases anes son los conjuntos generadores anes minimales por inclusion.
2. Las bases anes son los conjuntos AI maximales por inclusi on.
3. Si A es un conjunto AI y B es un conjunto generador afn tal que A B entonces
hay una base afn C tal que A C B.
4. Dos bases anes cualequiera tienen el mismo n umero de puntos (uno m as que la
dimensi on).
Las demostraciones de estos resultados son obvias dada la correspondencia entre
las bases anes y las bases del espacio vectorial.
Ejercicio 55 Formule el lema del cambio para las bases anes.
El siguiente resultado es el analogo del lema Lema de Aumento de un Conjunto LI
63 Seccion 2.9 El caso de dimensi on innita
(2.11) para el caso afn y es consecuencia directa de la correspondencia entre las bases
anes y las bases del espacio vectorial.
Si A es un conjunto AI entonces Ab es AD si y solo si b [A].
2.9 El caso de dimensi on innita
En la Seccion 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equi-
cardinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio
tiene dimension nita. En esta secci on demostramos estos resultados para los casos
faltantes. Porque siempre aparece un curioso que quiere saber.
Como estas demostraciones dependen de resultados de Teora de Conjuntos y una
exposicion de esta nos llevara a escribir otro libro, lo haremos todo en forma mini-
malista: Antes de cada una de las dos pruebas daremos las deniciones y resultados
exclusivamente que necesitamos. Los resultados complicados de Teora de Conjuntos
no los demostraremos.
El Lema de Zorn
Un conjunto ordenado es un conjunto con una relacion de orden, o sea una
relaci on reexiva antisimetrica y transitiva (vease el glosario). Sea P un conjunto or-
denado y A un subconjunto de P. Diremos que x P es una cota superior de A si
para cualquier y A se cumple que y x. Diremos que x A es elemento maximal
de A si para cualquier y A se cumple que x y. Se dice que A es una cadena si
para cualesquiera x, y A se cumple que x y o que y x. Diremos que A esta
inductivamente ordenado si A 6= y cualquier cadena contenida en A tiene una
cota superior que esta en A. El siguiente resultado es cl asico en teora de conjuntos.
Lema de Zorn
Cualquier conjunto inductivamente ordenado tiene un elemento maximal.
Existencia de bases
Teorema de Existencia de Bases (caso general)
Sea N un conjunto generador y L N un conjunto
LI. Entonces, existe una base M tal que L M N.
64
Captulo 2. Espacios vectoriales
Prueba. Sean L y N como en las hip otesis. Denotemos
T = {M | M es linealmente independiente y L M N} .
El conjunto T est a naturalmente ordenado por inclusi on. Sea M un elemento maximal
de T. Entonces x N\M M x es dependiente y por el Lema de Aumento de un
Conjunto LI (2.11) tenemos N hMi. Como N es generador, esto signica que M
tambien lo es y por lo tanto M es una base.
Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto T
est a inductivamente ordenado. Efectivamente, T es no vaco ya que L T. Sea {B
i
}
iI
una cadena arbitraria en T y denotemos B =
S
iI
B
i
. El conjunto B es una cota superior
de la cadena {B
i
}
iI
y tenemos que convencernos que B esta en T. Como para cualquier
i tenemos B
i
N entonces, B N. Supongamos que B es linealmente dependiente.
Entonces, existe un subconjunto nito B
0
de B y una combinacion lineal de B
0
igual
a cero tal que todos sus coecientes son no cero, o sea B
0
es linealmente dependiente.
Como B
0
es nito, y {B
i
}
iI
es una cadena entonces, tiene que existir i
0
tal que B
0
B
i
0
y esto contradice que todo subconjunto de un conjunto linealmente independiente es
linealmente independiente. Luego, T esta inductivamente ordenado y por el Lema de
Zorn (2.43) el conjunto T tiene un elemento maximal.
Cardinales
Dados dos conjuntos A y B denotaremos |A| |B| si existe una inyecci on de A en
B. La relaci on A B denida como |A| |B| y |B| |A| es una relaci on de equivalencia
entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le
llama cardinal del conjunto A y se denota por |A|. Los cardinales est an ordenados por
la relaci on de orden que ya denimos. Los cardinales pueden ser nitos o innitos. El
cardinal innito m as peque no es
0
que es el cardinal de los naturales ( es la primera
letra del alfabeto hebreo y se llama alef). La suma de cardinales se dene como el
cardinal de la uni on de dos conjuntos disjuntos. El producto de cardinales se dene
como el cardinal del producto cartesiano de conjuntos.
Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es
muy sencillo y daremos una demostracion para el.
Si i |A
i
| t entonces,
P
iI
|A
i
| t |I|.
Prueba. Podemos pensar que los A
i
son disjuntos. Sea T un conjunto de cardinal t.
Por hip otesis existen inyecciones f
i
: A
i
7 T. Sea :
S
iI
A
i
T I denida por
(a) = (f
i
(a) , i) si a A
i
. Por denici on de si (a) = (b) entonces, a y b estan
en el mismo conjunto A
i
, f
i
(a) = f
i
(b) y por lo tanto a = b. Luego, es inyectiva.
El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la
Teora de Conjuntos (vease por ejemplo: Kamke E., Theory of sets. Dover, New York,
65 Seccion 2.9 El caso de dimensi on innita
1950. p agina 121). Nosotros omitiremos la prueba.
Si |A| es innito entonces,
0
|A| = |A|.
Equicardinalidad de las bases
Equicardinalidad de las Bases (caso innito)
Dos bases cualesquiera tienen el mismo cardinal.
Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es
nita. Luego, podemos suponer que A y B son innitos. Como B es una base y debido
a la nitud de las combinaciones lineales entonces a A el mnimo subconjunto
B
a
B tal que a hB
a
i existe y es nito.
Construyamos la relaci on R AB de manera que (a, b) R si y solo si b B
a
.
Tenemos |B| |R| ya que si hubiera un b
0
B no relacionado con ning un elemento de
A entonces, A hB\b
0
i y como A es base obtendramos que B\b
0
es generador lo que
contradice que B es base.
Por otro lado, como |A| es innito y |B
a
| es nito entonces, usando 2.45 y 2.46
obtenemos
|B| |R| =
X
aA
|B
a
|
0
|A| = |A| .
Luego |B| |A| y por simetra de nuestros razonamientos|A| |B|.
66
Transformaciones
Lineales
as transformaciones lineales son uno de los objetos mas estudiados y mas impor-
tantes en las matematicas. El objetivo de este captulo es familiarizar al lector
con el concepto de transformaci on lineal y sus propiedades b asicas. Introduci-
remos las matrices y estudiaremos la relaci on de las mismas con las transformaciones
lineales. Veremos el concepto de nucleo e imagen de una transformaci on lineal etc...
3.1 Denicion y ejemplos
Sean E y F dos espacios vectoriales sobre K. Una fun-
f (a +b) = f (a) +f (b)
f (a) = f (a)
cion f : E F se le llama transformaci on lineal de E en
F si para cualesquiera vectores a y b y cualquier escalar
se cumplen las propiedades del recuadro a la derecha.
Nuevamente, para no reescribir constantemente frases largas, en lugar de
decir que f es una transformaci on lineal, diremos que f es una TL. En
plural escribiremos TLs.
Imagenes de subespacios
Toda TL transforma subespacios en subespacios.
Prueba. Sea f : E F una TL y E
0
un subespacio de E. Denotemos F
0
= f (E
0
) la
imagen de E
0
. Sean a y b vectores en F
0
. Por denici on existen vectores x,y tales que
f (x) = a y f (y) = b. Tenemos, f (x +y) = a+b por lo que a+b F
0
. Sea ahora
un escalar. Tenemos f (x) = a por lo que a F
0
. Luego, F
0
es un subespacio de F.
68 Captulo 3. Transformaciones lineales
Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni
tampoco conjuntos generadores en conjuntos generadores.
El recproco de la proposicion anterior NO es cierto. Hay funciones que transforman subes-
pacios en subespacios y no son TLs. Un ejemplo sencillo es la funci on R 3 x 7 x
3
R.
Esta manda el cero en el cero y a R en R. Sin embargo no es lineal. Para obtener una
funci on contraejemplo en R
n
basta usar coordenadas esfericas, dejar jos los angulos y elevar al cubo
el m odulo del vector.
Homotecias
Veamos el ejemplo m as simple de TL. Si a cada vector x de un espacio E le hacemos
corresponder el vector 2x obtenemos la funcion h
2
: E 3 x 72x E . Esta funci on es
una TL ya que
h
2
(a +b) = 2 (a +b) = 2a +2b = h
2
(a) +h
2
(b)
h
2
(a) = 2a = 2a = = h
2
(a)
Observese que en la segunda recta usamos la conmutatividad del producto de escalares.
Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar K
obteniendo la TL dada por h

: E 3 x 7 x E. A las funciones h

se les llama
homotecias.
Hay dos casos particulares de homotecias especialmente importantes. Si = 1
entonces obtenemos la funci on identidad x 7x. A esta funci on se la denotar a por Id.
Si = 0 entonces obtenemos la funci on nula tambien llamada funci on constante
cero x 70.
En el caso del campo R las homotecias tienen una interpretaci on geometrica muy
clara. Si > 0 entonces cada punto x R
n
se transforma en el punto x que esta en
la misma recta por el origen que x pero a una distancia del origen veces mayor que
x. Esto quiere decir que h

es la dilatacion de raz on . Si 0 < < 1 entonces h

es
realmente una contraccion pero interpretaremos las contracciones como dilataciones
con raz on m as peque na que 1.
En la gura de la derecha observamos la dilataci on x 72x en el
R
2
v 72v
plano cartesiano R
2
. La curva interior (que es la gr aca de la fun-
cion 5 + sin 5 en coordenadas polares) se transforma en la misma
curva pero del doble de tama no (10 +2 sin 5).
Si = 1 entonces a la homotecia h
1
: x 7 x se le llama
funcion antipodal. El nombre viene de la siguiente interpretacion.
Si trazamos una recta que pase por el centro de la Tierra intersec-
taremos la supercie en dos puntos. Estos puntos se dicen que son antpodas o sea,
nuestros antpodas son la personas que viven pies arriba del otro lado de la Tierra.
Si coordinatizamos la Tierra con unos ejes de coordenadas con origen en el centro de
la misma, nuestros antpodas se obtienen multiplicando por 1.
69 Seccion 3.1 Denicion y ejemplos
En la gura de la izquierda est a representada la funci on antpodal
R
2
v 7v
en R
2
. En ella hay dos curvas cerradas de cinco petalos. La primera
es la misma que la de la gura anterior (10 +2 sin 5). La segunda
es la antpoda de la primera (10 2 sin 5). La gura es expresa-
mente complicada para que el lector tenga la oportunidad de pensar
un poco en que punto se va a transformar cada punto. Cualquier
homotecia h

con < 0 se puede representar como h


1
(h

) por
lo que h

se puede interpretar geometricamente como una dilataci on seguida de la fun-


cion antpodal. A pesar de su simplicidad las homotecias juegan un papel fundamental
en la comprensi on de las TL y este papel se debe a que ellas son todas las TL en
dimensi on 1.
Si dimE = 1 entonces toda TL de E en E es una homotecia.
Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene
que existir un escalar K tal que f (a) = a. Sea x = a un vector arbitrario en
E . Como f es lineal tenemos f (x) = f (a) = f (a) = a = a = x lo que
demuestra que f es una homotecia.
Inmersiones
Hasta ahora las TL que hemos visto (las homotecias) est an denidas de un espacio
en si mismo. Las inmersiones son la TL mas simples que est an denidas de un espacio
en otro distinto. Sea E un subespacio de F. A la funci on i : E 3 x 7 x F se le
llama inmersion de E en F. Las inmersiones son TLs inyectivas y son las restriciones
a subespacios de la funci on identidad. No hay mucho que decir de las inmersiones
excepto de que hay una para cada subespacio.
Proyecciones
Ahora supongamos al reves (de las inmersiones) que F es subespacio de E . Ha-
br a alguna TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G
complementario de F (existe por 2.28) De esta manera E = F G y por 2.29 tenemos
que cada vector x E se descompone de manera unica como a + b donde a es un
vector en F y b es un vector en G . As para cada x E tenemos un unico a F y
esto nos da una funci on que denotaremos por
F
y la llamaremos proyecci on de E en
F a lo largo de G . Cualquier proyecci on
F
restringida a F es la identidad por lo que
necesariamente es sobreyectiva.
La notaci on
F
sugiere erroneamente que esta funcion solo depende del subes-
pacio F . Esto no es cierto, el subespacio F puede tener muchos subespacios
complementarios diferentes y la proyecci on depende del subespacio comple-
mentario que escojamos.
70 Captulo 3. Transformaciones lineales
Las proyecciones son transformaciones lineales.
Prueba. Escojamos un subespacio G complementario de F . De esta manera
F
es
una funcion ja y bien denida.
Si x, y son dos vectores entonces hay descomposiciones unicas x =
F
(x) +
G
(x)
y y =
F
(y) +
G
(y) . Luego x +y = (
F
(x) +
F
(y)) + (
G
(x) +
G
(y)) . El
primer sumando de la derecha esta en F y el segundo en G . Por la unicidad de la
descomposici on necesariamente tenemos
F
(x +y) =
F
(x) +
F
(y) .
Sea ahora K. Tenemos x =
F
(x)+
G
(x) . Nuevamente, el primer sumando
de la derecha esta en F y el segundo en G y por la unicidad de la descomposici on
necesariamente tenemos
F
(x) =
F
(x) .
Como son geometricamente las proyecciones? En esencia el problema es el siguien-
te. Dados dos espacios complementarios F , G y un vector a como hallar un vector en
F y otro en G que sumados den a. Esto ya lo hicimos una vez cuando introducimos
las coordenadas cartesianas en R
2
. Dado un vector a trazamos la recta paralela al eje
y que pasa por a y la intersecci on del eje x con esta recta es un vector
x
(a) . De
manera an aloga obtenemos
y
(a) y sabemos que a =
x
(a) +
y
(a).
En el caso general es exactamente igual. Esta cons-
trucci on se ilustra en la gura de la derecha. Tenemos
que F es un subespacio de dimension k y uno de sus
complementarios G es de dimension n k. Hay un solo
subespacio afn paralelo a F que pasa por a y este es
F + a. La intersecci on (F +a) G es un solo punto y
este punto es el vector
G
(a) . An alogamente se observa
que
F
(a) = (G +a) F. Como es l ogico, no pudimos
dibujar el espacio R
n
as que el lector deber a contentarse
con el caso n = 3, k = 2 y con la prueba general.
Si F y G son complementarios entonces, para cualquier
vector a se cumple a = ((G +a) F) + ((F +a) G).
Prueba. Como F y G son complementarios (G +a) F es un solo punto que deno-
taremos x. Sea y G tal que x = y+a. Tenemos que F +a = F +x +y = F +y
y por lo tanto y (F +a) . Luego y = (F +a) G.
71 Seccion 3.2 Operaciones entre transformaciones lineales
3.2 Operaciones entre transformaciones lineales
Ahora, veremos que operaciones se denen naturalmente entre las TLs.
El espacio vectorial de las transformaciones lineales
Sea f una TL y un escalar. Denotaremos por f a la funci on a 7f (a). A esta
operaci on se le llama producto de un escalar por una TL.
El producto de un escalar por una TL es una TL.
Prueba. Efectivamente, tenemos
(f) (a +b) = f (a +b) = (f (a) +f (b)) = (f) (a) + (f) (b)
(f) (a) = f (a) = f (a) = f (a) = (f) (a)
lo que signica que f es una TL.
Sean ahora f y g dos transformaciones lineales. Denotaremos por f +g a la funci on
a 7f (a) +g(a). A esta operacion se le llama suma de TLs.
La suma de dos TLs es una TL.
Prueba. Denotemos h = f +g. Tenemos
h(a) = f (a) +g(a) = (f (a) +g(a)) = h(a)
h(a +b) = f (a +b) +g(a +b) = f (a) +g(a) +f (b) +g(b) = h(a) +h(b)
lo que signica que h es una TL.
Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Los
axiomas de espacio vectorial se comprueban de manera muy simple usando las deni-
ciones. Por ejemplo, la prueba de la distributividad del producto por escalares con res-
pecto a la suma es la siguiente: ((f +g)) (a) = (f (a) +g(a)) = f (a) +g(a) =
(f +g) (a). Al espacio vectorial de todas las TLs del espacio E en el espacio F lo de-
notaremos por Mor (E, F). Esta notaci on es debido que a las transformaciones lineales
tambien se les llama morsmos de espacios vectoriales. Debido a todo lo dicho es
valido el siguiente resultado:
Mor (E, F) es un espacio vectorial.
Composicion de transformaciones lineales
Sean f Mor (E, F) y g Mor (F, G) dos TLs. La composici on h = g f se dene
como la funci on E 3 a 7 g(f (a)) G. Demostremos que h = g f Mor (E, G) o
sea, que h es una TL.
72 Captulo 3. Transformaciones lineales
La composici on de TLs es una TL.
Prueba. Sea h = g f la composici on de dos TLs. Tenemos
h(a +b) = g(f (a +b)) = g(f (a) +f (b)) = g(f (a)) +g(f (b)) = h(a) +h(b)
h(a) = g(f (a)) = g(f (a)) = g(f (a)) = h(a)
que es lo que se quera demostrar.
La composici on de TLs cumple las siguientes propiedades:
1. f (g h) = (f g) h (asociatividad)
2. f (g +h) = f g +f h (distributividad a la izquierda)
3. (f +g) h = f h +g h (distributividad a la derecha)
4. f g = f g = (f g) (conmuta con el producto por escalares)
Prueba. Como (f (g h)) (a) = f (g(h(a))) = ((f g) h) (a), la composici on es
asociativa. Con (f (g +h)) (a) = f ((g +h) (a)) = f (g(a) +h(a)) =
= f (g(a)) +f (h(a)) = (f g) (a) + (f h) (a) = ((f g) + (f h)) (a)
probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos
las igualdades ((f +g) h) (a) = (f +g) (h(a)) = f (h(a)) +g(h(a)) =
= (f h) (a) + (g h) (a) = ((f h) + (g h)) (a)
Finalmente para probar que la composici on conmuta con el producto por escalares
tenemos
(f g) (a) = f (g(a)) = f (g(a)) = ((f g)) (a) =
= f (g(a)) = (f) (g(a)) = (f g) (a) .
El lector debe ya debe poder encontrar por si mismo el porque de la validez de cada
una de las igualdades utilizadas en esta prueba.
El algebra de operadores lineales
A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nue-
vamente, usaremos la abreviatura OL para referirnos a los operadores lineales. Los
OLs juegan (como veremos m as adelante) un papel muy importante en el estudio de
las TLs y por esto es que merecen un nombre especial. El conjunto de todos los OLs
de E se denotar a por EndE. Lo hacemos as porque a los OLs tambien se les llama
endomorsmos de un espacio vectorial. Por denicion tenemos EndE = Mor (E, E).
La principal diferencia entre las TLs y los OLs es que la operaci on de composicion
es una operacion interna en espacio vectorial End E. O sea, si componemos dos OLs,
obtenemos otro OL.
73 Seccion 3.2 Operaciones entre transformaciones lineales
Si un espacio vectorial cualquie-
Alg1) es asociativa
Alg2) es distributiva con respecto a +
Alg3) tiene elemento neutro
Alg4) conmuta con el producto por escalares
ra (el cual ya trae denidos la su-
ma y el producto por escalares) tiene
otra operaci on binaria que cumple
los axiomas en el recuadro a la de-
recha entonces, se le llama algebra . Observese que los primeros tres axiomas los
podemos resumir en uno: la suma de vectores y denen un anillo en el espacio vecto-
rial. El cuarto axioma lo que quiere decir es que para cualquier escalar y cualesquiera
vectores a y b se cumple que a b = a b = (a b).
Ya vimos (3.9 ) que la operaci on de composici on de OLs cumple los axiomas Alg1,
Alg2 y Alg4. Para ver que EndE es un algebra solo nos queda comprobar que la
composicion tiene elemento neutro. Pero esto es obvio ya que la funci on identidad
cumple que fI = If = f. O sea, es el neutro para la composici on. Hemos demostrado
el siguiente resultado
El espacio vectorial EndE en un algebra con respecto a la composicion.
Hay otras dos algebras importantes que deben ser muy conocidas por el lector. Pri-
mero, el conjunto de los polinomios con coecientes reales R[x] es un espacio vectorial
sobre R, pero adem as sabemos multiplicar polinomios. Este producto cumple todos
los axiomas de Alg1-Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier
campo. El segundo ejemplo son los n umeros complejos. Estos son un espacio vectorial
de dimension dos sobre los reales pero adem as sabemos multiplicar n umeros complejos.
La multiplicaci on de complejos tambien cumple todos los axiomas Alg1-Alg4.
Un algebra se le llama conmutativa si el producto de vectores es conmutativo. El algebra
de los n umeros complejos y el algebra de polinomios sobre un campo son conmutativas.
Las algebras EndE casi nunca son conmutativas (salvo en dimension 1). Por ejemplo en el
plano cartesiano R
2
la rotacion f en 45

y la reecci on g en el eje y son (como veremos despues) OLs.


Sin embargo, (g f) (1, 0) = (1, 1) 6= (1, 1) = (f g) (1, 0).
El grupo general lineal
Una funci on cualquiera es biyectiva si y solo si esta tiene inversa. En el captulo
anterior, cuando vimos los isomorsmos de espacios vectoriales, demostramos que si una
TL tiene inversa entonces esta inversa tambien es una TL. En particular, la funcion
inversa de un OL es un operador lineal. Un operador lineal se le llama singular si
este no tiene inverso. En el caso contrario se le llama no singular. A los OLs no
singulares tambien se les llama automorsmos del espacio vectorial. En otras palabras
los automorsmos son los endomorsmos biyectivos.
Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota
por GL(E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la
funci on nula cumple que 0 = ff. Sin embargo, la composici on de OLs no singulares es
74 Captulo 3. Transformaciones lineales
siempre un OL no singular. Luego, la composici on es una operaci on binaria en GL(E)
que ya sabemos que es asociativa y tiene elemento neutro. Adem as, cada elemento tiene
inverso ya que f f
1
= f
1
f = I. Luego, GL(E) es un grupo para la composici on al
cual se llama grupo general lineal del espacio vectorial E.
3.3 Extensiones lineales
Estudiaremos en esta seccion una manera universal de construir TLs. Pero antes,
veamos algunas consideraciones de tipo general acerca de funciones entre conjuntos
arbitrarios.
Extensiones y restricciones
Sean A y B dos conjuntos y A
0
un subconjunto de A. Cada vez que se tiene una
funci on f : A B tambien se tiene una funcion f
0
: A
0
B denida por f
0
(a) =
f (a) para cualquier a A
0
. A la funci on f
0
se le llama restricci on de f a A
0
y la
denotaremos por f
A
0 . Todas las diferentes restricciones de f se obtienen al tomar
diferentes subconjuntos A
0
.
Si h y g son dos funciones tales que h es una restricci on de g entonces se dice que g
es una extensi on de h. Si est a dada una funci on g : A
0
B y A es un sobreconjunto
de A
0
entonces, pueden haber muchas extensiones h : A B de g, ya que podemos
escoger arbitrariamente los valores de h(x) para todos los x A\A
0
.
Es un problema frecuente en matem aticas el encontrar extensiones que cumplan
ciertas propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs.
Formulemos nuestro problema mas precisamente. Sean E y F dos espacios vectoriales
sobre K y N un conjunto de vectores de E. Sea h : E F una TL. Sabemos que
N E y por lo tanto tenemos la restricci on h
N
: N F. Ser a posible para cualquier
funci on g : N F encontrar una extension h : E F de g que sea TL? Ser a unica tal
extension? Veremos que ambas preguntas tienen respuesta positiva si N es una base.
Para demostrar la existencia de la extension debemos construirla. Sea N una base
x 7
X
iN

i
g(i)
de E y g : N F una funci on arbitraria de N en F. Cualquier x E se expresa de
forma unica como combinacion lineal de N o sea x =
P
iN

i
i. A
la funcion h del recuadro a la derecha se le llama extension lineal
de g. Observese que (como debe ser) la restricci on de h a N es igual
a g ya que si x N entonces, la descomposici on de x en la base N
tiene coecientes
i
= 0 para i 6= x y
i
= 1 para i = x.
Las extensiones lineales son transformaciones lineales.
75 Seccion 3.3 Extensiones lineales
Prueba. Tenemos
h(x +y) =
X
iN
(
i
+
i
) g(i) =
X
iN

i
g(i) +
X
iN

i
g(i) = h(x) +h(y)
h(x) =
X
iN

i
g(i) =
X
iN

i
g(i) = h(x)
y esto prueba que h es una TL.
Para demostrar la unicidad de la extension debemos convencernos de que dos TLs
distintas no pueden coincidir en una base.
Las TLs est an predeterminadas por sus valores en una base.
Prueba. Sean f, g : E F dos TLs y N una base de E. Supongamos que f (i) = g(i)
para cualquier i N. Cualquier x E se expresa de forma unica como combinaci on
lineal de N o sea x =
P
iN

i
i. Luego
f (x) = f

X
iN

i
i
!
=
X
iN

i
f (i) =
X
iN

i
g(i) = g

X
iN

i
i
!
= g(x)
y por lo tanto las TLs f y g son iguales.
El isomorsmo entre F
N
y Mor (E, F)
Recordemos ahora de la Seccion 2.2 que el conjunto de todas las funciones de N en
F es el conjunto de las N-adas de vectores de F, que este es un espacio vectorial para
la suma y el producto por escalares denidos por coordenadas y que se denota por F
N
.
Si N es una base de E entonces, hemos construido una correspondencia biunvoca
entre F
N
y Mor (E, F). A cada N-ada h
N
F
N
le corresponde su extensi on lineal
h Mor (E, F) y a cada TL h Mor (E, F) le corresponde h
N
su restriccion a N (que
es una N-ada). Queremos ver que esta correspondencia es un isomorsmo de espacios
vectoriales.
Si N es una base de E entonces, la biyeccion
r : Mor (E, F) 3 h 7h
N
F
N
es un isomorsmo de espacios vectoriales.
Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h
0
Mor (E, F)
y un escalar. Tenemos
r (h +h
0
) = (h +h
0
)
N
= h
N
+h
0
N
= r (h) + r (h
0
)
r (h) = (h)
N
= h
N
= r (h)
que se cumplen por las deniciones de suma y producto por escalares de las N-adas.
76 Captulo 3. Transformaciones lineales
Un criterio de isomorsmo
Al establecer que los espacios Mor (E, F) y F
N
son isomorfos es natural que espere-
(1, 0, 0) 7(1, 0)
(0, 1, 0) 7(0, 1)
(0, 0, 1) 7(0, 1)
mos que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje
de las N-adas de vectores. En este caso queremos hacer la traduci on de la propiedad
de una TL de ser o no un isomorsmo de espacios vectoriales. Ya vimos en el captulo
anterior que un isomorsmo transforma una base del dominio en una base del codo-
minio. Ser a esta propiedad suciente para comprobar que una TL
es un isomorsmo?. La respuesta es NO. Por ejemplo, la extensi on
lineal de la funci on denida en la base can onica de R
3
como en el
recuadro a la derecha transforma a esta base en la base can onica de
R
2
y sin embargo no es inyectiva. Nos falta la propiedad evidentemente necesaria de
que la restricci on de la TL debe ser inyectiva.
Una TL es un isomorsmo si y solo si su restricci on a una
base es inyectiva y la imagen de esta restricci on es una base.
Prueba. Ya hemos probado la necesidad. Para la suciencia sea N una base de E
y h
N
F
N
una N-ada de vectores de F tal que sus coordenadas son todas diferentes
(la inyectividad) y que el conjunto de sus coordenadas (la imagen) es una base M =
h(N) de F. Probemos que la extensi on lineal h : E F de h
N
es un isomorsmo.
Efectivamente, si x =
P
iN

i
i y y =
P
iN

i
i son dos vectores cualesquiera en E y
h(x) = h(y) entonces,
X
iN

i
h(i) =
X
iN

i
h(i)
y como todos los h(i) = h
i
son diferentes, estas son dos combinaciones lineales iguales
de la base M. Por la caracterizacion 2.9.3 de los conjuntos LI los coecientes de estas
combinaciones lineales tienen que coincidir
i
=
i
y por lo tanto x = y. Luego, h es
inyectiva.
Para ver que h es sobreyectiva sea z vector en F. Como M es una base de F existen
coecientes
i
tales que z =
P
iN

i
h(i) y por lo tanto z = h(v) donde v =
P
iN

i
i.
3.4 Coordinatizaci on de transformaciones lineales
Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios
entre los cuales esta denida la TL. Sean N y M bases de E y F respectivamente.
Tenemos los isomorsmos de coordinatizacion E K
{N}
y F K
{M}
. Para cada
f Mor (E, F) tenemos la composici on g : K
{N}
E
f
F K
{M}
que es una TL en
Mor

K
{N}
, K
{M}

.
77 Seccion 3.4 Coordinatizaci on de transformaciones lineales
Recprocamente para cada g Mor

K
{N}
, K
{M}

tenemos la
E
f
F
l l
K
{N}

g
K
{M}
composicion f : E K
{N}
g
K
{M}
F que es una TL en
Mor (E, F). Es f acil ver y es intuitivamente claro que esta co-
rrespondencia biunvoca Mor (E, F) Mor

K
{N}
, K
{M}

es un
isomorsmo de espacios vectoriales.
Ejercicio 56 Sean E E
0
y F F
0
isomorsmos de espacios vectoriales. Construya
un isomorsmo Mor (E, F) Mor (E
0
, F
0
).
Podemos pensar a N como la base can onica de K
{N}
. Luego, aplicando 3.13 obte-
nemos el isomorsmo Mor

K
{N}
, K
{M}



K
{M}

N
= K
{M}N
que es el conjunto de
las MN matrices tales que cada columna es de soporte nito. Para el caso que m as
nos interesa en que N y M son bases nitas obtenemos Mor (E, F)

K
M

N
= K
MN
.
Sea f Mor (E, F). A la matriz
MN
que le corresponde a f mediante el isomorsmo
construido se le llama matriz de la TL f en las bases M y N. Los resultados de la
seccion anterior nos dicen como construir
MN
dada f. Para cada i N la columna

Mi
es el vector f (i) coordinatizado en la base M. O sea f (i) =
P
aM

ai
a.
Ejercicio 57 Pruebe que la funci on K[x] 3
P
n
i=0
a
i
x
i
7
P
n
i=0
a
i
(x +1)
i
K[x] es
un isomorsmo de espacios vectoriales. Construya algunas columnas de la matriz
NN
de esta TL en la base canonica del espacio de polinomios. Demuestre que las entradas
de esta matriz estan denidas por la ecuaci on recursiva
kn
=
k,(n1)
+
(k1),(n1)
con las condiciones de frontera
kn
= 0 si k > n y
kn
= 1 si k = 0 o k = n.
La f ormula f (i) =
P
aM

ai
a nos dice tambien como construir f dada
MN
. Las
imagenes de los i N las calculamos por la formula y a f la construimos por extension
lineal. O sea, si E 3 x =
P
iN

i
i entonces,
F 3 f (x) =
X
iN

i
f (i) =
X
iN

i
X
aM

ai
a =
X
aM

X
iN

ai

i
!
a
La expresi on
P
iN

ai

i
es un escalar y hay uno para cada a M por lo que son las
coordenadas de una M-ada. A esta M-ada se le llama producto de la matriz
MN
por el vector
N
y se denota por
MN

N
.
Observese que este producto lo podemos escribir como en el

MN

N
=
X
iN

Mi

i
recuadro a la izquierda. Esto quiere decir que este producto
se obtiene multiplicando las columnas de
MN
por las corres-
pondientes coordenadas de
N
y sumando los resultados. En otras palabras
MN

N
es
la combinaci on lineal de las columnas de
MN
cuyos coecientes son las coordenadas
de
N
.
En esta secci on estudiaremos m as sistem aticamente el isomorsmo entre las TLs
78 Captulo 3. Transformaciones lineales
y las matrices repitiendo m as detalladamente todo lo dicho en esta introducci on. Si
el lector no entendi o muy bien, le recomiendo seguir adelante y despues releer esta
introducci on.
El producto escalar canonico
Sean
N
y
N
dos N-adas. El producto escalar de estas N-

N
=
X
iN

i
adas es el escalar del recuadro a la derecha. De esta manera, el
producto escalar de dos vectores es un elemento del campo.
No se debe confundir el producto por un escalar con el producto escalar.
El primero es un producto de un escalar por un vector y el segundo es un
producto de dos vectores. M as adelante veremos que hay otros productos
denidos en cualquier espacio vectorial. Por esto a este producto lo llamaremos can onico
y solamente est a denido en el espacio vectorial de las N-adas para cierto conjunto nito
de ndices N.
El producto escalar cumple las siguientes propiedades:
1. xy = yx (conmutatividad)
2. x(y +z) = xy +xz (distributividad a la izquierda)
3. (y +z) x = yx +zx (distributividad a la derecha)
4. x(y) = (x) y = (xy) (conmuta con el producto por escalares)
Ejercicio 58 Pruebe las principales propiedades del producto de N-adas (3.15).
Ejercicio 59 Busque tres vectores x y z en el plano R
2
tales que (xy) z 6= x(yz).
[229]
Ejercicio 60 Pruebe que
N
R
N
se cumple que
2
N
=
N

N
0.
El producto de matrices
Sean
MN
y
NL
dos matrices. Observese que el conjunto de ndices de las columnas
de la primera, coincide con el conjunto de ndices de los renglones de la segunda. As,
tanto un rengl on
iN
como una columna
Nj
son vectores del espacio K
N
de N-adas
y podemos formar su producto
iN

Nj
. Cuando hacemos esto, para todos los i M
y todos los j L obtenemos una ML-matriz formada por todos estos productos. A
esta matriz se le llama el producto de las matrices
MN
y
NL
y se denotar a por

MN

NL
. Resumiendo, si
ML
=
MN

NL
entonces
ij
=
iN

Nj
. Por ejemplo, si los
conjuntos de ndices son M = {1, 2}, N = {1, 2, 3} y L = {1, 2} entonces, en forma gr aca
79
Seccion 3.4 Coordinatizaci on de transformaciones lineales
tenemos


11

12

13

21

22

23


11

12

21

22

31

32

=


1N

N1

1N

N2

2N

N1

2N

N2

y por denici on de producto escalar de vectores tenemos


1N

N1

1N

N2

2N

N1

2N

N2

=
P
3
i=1

1i

i1
P
3
i=1

1i

i2
P
3
i=1

2i

i1
P
3
i=1

2i

i2

.
Productos de matrices y vectores
Sean
MN
y
NL
dos matrices. Si el conjunto de indices L tiene un solo elemento
entonces la matriz
NL
tiene una sola columna. En este caso podemos escribir
NL
=

N1
y diremos que
N1
es un vector columna o una N-ada columna. Obviamente,
podemos pensar que
N1
es una N-ada
N
. En este caso podemos hacer el producto de
matrices
MN

N1
=
MN

N
y este es el producto de una matriz por un vector
denido al principio de esta seccion. Analogamente se dene el producto por el otro
lado. Si el conjunto de indices M tiene un solo elemento entonces la matriz
MN
tiene
un solo renglon. En este caso podemos escribir
MN
=
1N
y diremos que
1N
es
un vector renglon o N-ada renglon. Obviamente, podemos pensar que
1N
es una
N-ada
N
. En este caso podemos hacer el producto de matrices
1N

NL
=
N

NL
y
esta es la denici on del producto de un vector por una matriz.
En este libro, no haremos distinciones entre N-adas, N-adas columna y N-adas
renglon o sea
1N
=
N1
=
N
. Para esto, dimos las deniciones de producto de
una matriz por un vector y al reves. Intuitivamente, el lector debe pensar que cuando
aparesca un vector en un producto de matrices este se convierte en vector la o columna
seg un sea conveniente.
Claro, este abuso de la notaci on aunque es muy comodo puede llevar (si
nos ponemos pedantes) a contradicciones. Por ejemplo, podemos sumar dos
N-adas pero no podemos sumar una N-ada columna con una N-ada renglon.
Observese que, no solo el producto de matrices por vectores y al reves son casos
particulares del producto de matrices, sino tambien el producto escalar de dos vectores
al constatar que
N

N
=
1N

N1
.
Ejercicio 61 Tome dos matrices con entradas enteras y multiplquelas. Repita este
ejercicio hasta que usted comprenda muy bien el concepto de producto de matrices.
La transformacion lineal de una matriz
Sea
MN
una MN-matriz. Esta matriz dene una funcion K
N
3
N

MN

N

K
M
. Esta funci on es una TL como ya vimos al principio de esta secci on utilizando el
isomorsmo Mor

K
N
, K
M

K
MN
. Sin embargo, la prueba directa de este hecho es
80 Captulo 3. Transformaciones lineales
muy sencilla.
El multiplicar una matriz ja por N-adas es una TL.
Prueba. Sea
MN
una matriz cualquiera pero ja. Por las propiedades del producto
de vectores tenemos que para todo i M se cumple que
iN
(
N
+
N
) =
iN

N
+

iN

N
y que
iN
(
N
) = (
iN

N
). Esto signica que son v alidas las igualdades

MN
(
N
+
N
) =
MN

N
+
MN

N
y
MN
(
N
) = (
MN

N
).
La matriz de una transformaci on lineal
En la proposicion anterior vimos que al mutiplicar MN-matrices por N-adas obte-
nemos ejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles,
o sea, que cualquier TL de K
N
en K
M
se obtiene multiplicando por una MN-matriz.
En realidad, esto ya lo probamos al principio de esta secci on al construir el isomors-
mo Mor

K
N
, K
M

K
MN
. Sin embargo, aqu es mas simple ya que tenemos bases
can onicas de K
N
y K
M
. Sea E = {e
i
: i N} la base canonica de K
N
. Recordemos que
e
i
es la N-ada con coordenadas
ji
= 1 si i = j y
ji
= 0 si i 6= j. Sea f : K
N
K
M
una
TL. Denotemos
Mi
= f (e
i
) K
M
. A la matriz
MN
cuyas columnas son las imagenes
de la base canonica mediante la TL f la llamaremos matriz de la TL f.
Sea f : K
N
K
M
una TL y
MN
su matriz. Entonces,
para cualquier
N
K
N
se cumple que f (
N
) =
MN

N
.
Prueba. Sea f
0
:
N
7
MN

N
. Sabemos que f

MN
e
i
=
P
jN

Mj

ji
=
Mi
y f
0
son TLs. Si i N entonces, por denici on de la
base canonica y del producto de una matriz por un vector tenemos la igualdad del
recuadro. Luego f y f
0
coinciden en la base can onica y por extensi on lineal ambas son
la misma funcion.
Ejercicio 62 Halle la matriz de la rotaci on con angulo en R
2
. [229]
Composicion de TLs y producto de matrices
La matriz de la composici on de dos TLs es
igual al producto de las matrices de las TLs.
Prueba. Sean f Mor

K
N
, K
M

y g Mor

K
M
, K
L

dos TLs. Sean


MN
y
LM
las
matrices de f y g respectivamente. Para cualquier
N
K
N
y cualquier i L tenemos
81 Seccion 3.4 Coordinatizaci on de transformaciones lineales

iM
(
MN

N
) =
X
jM

ij
(
jN

N
) =
X
jM

ij
X
kN

jk

k
=
=
X
kN
X
jM

ij

jk

k
=
X
kN
(
iM

Mk
)
k
= (
iM

MN
)
N
y por lo tanto
LM
(
MN

N
) = (
LM

MN
)
N
. Como
N
7
LM
(
MN

N
) es la TL
g f entonces, tenemos (g f) (
N
) = (
LM

MN
)
N
que es lo que se quera probar.
El producto de matrices es asociativo, distribuye por ambos lados
con la suma de matrices y conmuta con el producto por un escalar.
Prueba. Sean f, g y h TLs cuyas matrices son
MN
,
LM
y
KL
respectivamente.
La matriz de (h g) f es (
KL

LM
)
MN
. La matriz de h (g f) es
KL
(
LM

MN
).
Como la composici on de TLs es asociativa tenemos (h g) f = h (g f) y por lo
tanto (
KL

LM
)
MN
=
KL
(
LM

MN
). Esto prueba la asociatividad.
Las demas propiedades se prueban exactamente igual o sea, se desprenden de las
respectivas propiedades de las TLs y de la proposici on 3.18.
Ejercicio 63 Pruebe la asociatividad del producto de matrices directamente de la
denicion de producto o sea, sin usar TLs. [229]
El espacio de todas las NN-matrices
es un algebra isomorfa a End

K
N

.
Prueba. Ya sabemos que K
NN
es un espacio vectorial para la suma de matrices y
el producto de una matriz por un escalar. El resultado anterior hace la mayor parte
del trabajo necesario para mostrar que K
NN
es un algebra. Solo falta el neutro para el
producto que es la matriz de la identidad en K
N
. Esta matriz es I
NN
que cumple que
I
ij
=
ij
(el delta de Kronecker) y que la llamaremos matriz identidad.
Ademas, ya sabemos que la aplicaci on que a un OL en K
N
le hace corresponder su
matriz es un isomorsmo de espacios vectoriales. La proposici on 3.18 completa la tarea
de demostrar que esta aplicaci on es un isomorsmo de algebras.
Matrices inversas
Sea f Mor

K
N
, K
M

y
MN
la matriz de f. La funci on f es biyectiva si y solo si,
existe la TL f
1
tal que ff
1
= I

K
N

y f
1
f = I

K
M

. A la matriz de la TL f
1
se le
llama matriz inversa de
MN
y se denota por
1
MN
. De la proposici on 3.18 obtenemos
que la matriz inversa cumple que
1
MN

MN
= I
NN
y
MN

1
MN
= I
MM
. Observese que
el conjunto de ndices de las columnas de
1
MN
es M y no N. An alogamente, el conjunto
82 Captulo 3. Transformaciones lineales
de ndices de los renglones de
1
MN
es N y no M.
De la denici on es inmediato que una matriz tiene inversa si y solo si su TL es
un isomorsmo de espacios vectoriales. En particular los conjuntos de ndices N y M
tienen que tener el mismo cardinal ya que estos cardinales son las dimensiones del
dominio y el codominio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos
preocuparemos en traducir nuestro criterio de isomorsmo 3.14 al lenguaje de matrices.
Una matriz cuadrada
MN
tiene inversa si y solo si sus
columnas son todas diferentes y son una base de K
M
.
Prueba. Sea
MN
una matriz cuadrada y f Mor

K
N
, K
M

su TL. La resticci on
de f a la base can onica de K
N
es la N-ada de las columnas de la matriz
MN
. Por
3.14 para que f tenga funci on inversa es necesario y suciente que esta restricci on sea
inyectiva (las columnas diferentes) y que su imagen (el conjunto de columnas) sea una
base de K
M
.
Es posible probar un criterio analogo al anterior substituyendo las columnas por
los renglones. Sin embargo, su prueba aqu se nos hara innecesariamente complicada.
Mejor lo dejaremos para el pr oximo captulo donde esto ser a una f acil consecuencia de
un resultado mucho m as importante.
Ejercicio 64 Sean f y g las rotaciones del plano R
2
en los angulos y respectiva-
mente. Use el ejercicio 62 para hallar las matrices en la base canonica de f, g y f g.
Use 3.18 para hallar f ormulas para el seno y el coseno de la suma de dos angulos. [229]
3.5 Cambios de base
Es usual en las aplicaciones que sea conveniente realizar ciertos c alculos en un sis-
tema de coordenadas y despues realizar otros calculos en otro sistema de coordenadas.
En el algebra lineal estos cambios de coordenadas son lineales o sea, la transformaci on
que lleva unas coordenadas a otras es una TL.
Cambios de base en un espacio vectorial
Sean V y N dos bases del espacio E. Conocemos los isomorsmos de coordinati-
zaci on K
V
E K
N
. Nuestro problema ahora es: dado una V-ada
V
que son las
coordenadas del vector x en la base V como hallar las coordenadas
N
de x en la base
N. En este caso las letras V y N tienen el sentido de que V es la base vieja y que N
es la base nueva.
83 Seccion 3.5 Cambios de base
Sea
NV
la matriz cuyas columnas son los vectores de la base V
v =
X
iN

iv
i
expresados en las coordenadas de N. O sea, para cualquier v V
tenemos la f ormula en el recuadro a la derecha. A la matriz
NV
se le
llama matriz de cambio de base (de V a N). Esta matriz no es otra
cosa que la matriz del isomorsmo K
V
E K
N
.
Si
V
es la V-ada de las coordenadas de un vector en la base V entonces,

NV

V
es la N-ada de las coordenadas del mismo vector en la base N.
Prueba. Descompongamos x E en las dos bases. Tenemos, x =
P
vV

v
v =
P
iN

i
i y por lo tanto
x =
X
vV

X
iN

iv
i
!
=
X
iN

X
vV

iv

v
!
i =
X
iN

i
i
De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la
igualdad
P
vV

iv

v
=
i
que es la que se necesitaba demostrar.
Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) R
2
en la
base N = {a
1
, a
2
} donde a
1
= (2, 3) y a
2
= (1, 2). Las coordenadas (x, y) son las
coordenadas de u en la base canonica. Luego, V = {e
1
, e
2
} es la base canonica y para
construir la matriz
NV
de cambio de base necesitamos las coordenadas de V en la
base N. Estas coordenadas se pueden hallar resolviendo dos sistemas de ecuaciones
lineales pero es mas sencillo usar la siguiente argumentacion. Como un cambio de base
es un isomorsmo entonces la matriz
NV
tiene inversa que es la matriz de cambio de
la base N a la base V. Las columnas de esta matriz ya las tenemos, son a
1
y a
2
. Luego,
denotando p y q las coordenadas que buscamos, o sea, u = pa
1
+qa
2
tenemos:

p
q

=

2 1
3 2

x
y

=

2 1
3 2

x
y

=

2x y
2y 3x

.
y en estos calculos lo unico que no conoce el lector es como calcular la matriz inversa.
Pero, esto lo pospondremos hasta el pr oximo captulo.
Cambios de base en el espacio de transformaciones lineales
Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V, N
dos bases del espacio E y W, M dos bases del espacio F. Conocemos los isomorsmos
de coordinatizacion K
WV
Mor (E, F) K
MN
. El problema ahora es: dada una WV-
matriz
WV
que es la matriz de la TL f : E F en las bases V y W como hallar la
matriz
MN
de f en las bases N y M. Nuevamente, V, W son las bases viejas y M, N
son las bases nuevas.
84 Captulo 3. Transformaciones lineales
Sea
NV
la matriz de cambio de base de V a N en E. Sea
MW
la
v =
X
iN

iv
i
w =
X
jM

jw
j
matriz de cambio de base de W a M en F. O sea, para cualquier v V
y cualquier w W tenemos las f ormulas en el recuadro a la derecha.
Estas matrices no son otra cosa que las matrices de los isomorsmos
de coordinatizacion K
V
E K
N
y K
W
F K
M
.
Si
WV
es la matriz de f en las bases V y W entonces,

MW

WV

1
NV
es la matriz de f en las bases N y M.
Prueba. Las columnas de
WV
son las imagenes por f de
f (v) =
X
wW

wv
w
f (i) =
X
jM

ji
j
la base V expresadas en la base W o sea, v V se cumple la
f ormula del recuadro a la derecha. Denotemos por
MN
la matriz
de f en las bases N, M. Las columnas de
MN
son las imagenes por f
de la base N expresadas en la base M. O sea, para cualquier i N se
cumple la f ormula del recuadro a la izquierda.
Substituyendo en la formula de la derecha las f ormulas que denen las matrices

MW
y
NV
obtenemos X
iN

iv
f (i) =
X
jM

X
wW

jw

wv
!
j
y en esta igualdad substituimos f (i) por la f ormula de la izquierda para obtener
X
jM

X
iN

ji

iv
!
j =
X
jM

X
wW

jw

wv
!
j.
De la unicidad de la representaci on de cualquier vector en la base M obtenemos que
para cualesquiera j M y v V se cumple que
P
iN

ji

iv
=
P
wW

jw

wv
y por lo
tanto
MN

NV
=
MW

WV
. Como
NV
es la matriz de un isomorsmo entonces,
NV
tiene inversa por lo que podemos despejar
MN
.
La proposici on anterior la podemos interpretar gr aca-
K
V

WV
K
W

NV

MW
K
N

MN
K
M
mente de la siguiente manera. Las matrices
WV
,
MN
,

NV
, y
MW
son las matrices de TLs entre espacios co-
mo se muestra en el diagrama a la izquierda. Se dice que
un diagrama de funciones es conmutativo si cua-
lesquiera dos caminos dirigidos entre dos cualesquiera conjuntos son funciones iguales.
En nuestro caso, el que el diagrama a la izquierda sea conmutativo lo quiere decir es
que
MN

NV
=
MW

WV
.
Cambios de base en el espacio de operadores lineales
85 Seccion 3.5 Cambios de base
Si f End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases
K
V

VV
K
V

NV

NV
K
N

NN
K
N
diferentes para el dominio y el codominio ya que estos son iguales. Sean V, N dos
bases de E. El problema ahora es: dada una VV-matriz
VV
que es la matriz del
OL f en la base V, hallar la matriz
NN
de f en la base
N. Sea
NV
la matriz de cambio de base de V a N en
E. En este caso, el diagrama es el de la derecha. Ya no
hay que probar la conmutatividad de este ya que el, es un
caso particular del anterior. Luego,
NN

NV
=
NV

VV
y
despejando obtenemos que
NN
=
NV

VV

1
NV
.
Ejemplo. Sea f la TL del plano R
2
que tiene la matriz del re-

cos sin
sin cos

cuadro a la izquierda en la base V = {a


1
, a
2
} donde a
1
= (2, 3) y
a
2
= (1, 2). Cual ser a la matriz de f en la base can onica? La ma-
triz de cambio de base a la base can onica es la que tiene como columnas a los vectores
a
1
y a
2
. Luego, la matriz de f en la base can onica es

2 1
3 2

cos sin
sin cos

2 1
3 2

1
=

cos +8 sin 5 sin
13 sin cos 8 sin

y esto es una advertencia de que un operador lineal puede tener en una base una matriz
que es igual a la de la rotaci on en la base canonica y sin embargo no es una rotacion.
La transformacion lineal tanspuesta
Las f ormulas de cambios de base nos permiten denir propiedades de las transfor-
maciones lineales que est an denidas solo para las matrices. La idea es la siguiente:
para una transformaci on lineal f se encuentra su matriz A en ciertas bases se dene la
propiedad para la matriz A y denimos a esta como propiedad de f. Finalmente,
se prueba que si B es matriz de f en otras bases entonces, la propiedad de la matriz
A es tambien propiedad de la matriz B. Con esto logramos que nuestra denicion de
propiedad de f sea correcta o sea, no depende de las bases en las cuales se deni o.
Ahora seguiremos esta idea para denir la transformaci on lineal transpuesta.
Sea A =
NM
una matriz. A la matriz B =
MN
denida por
ij
=
ji
se le llama la
matriz transpuesta de A y se denotar a por A
T
. Un ejemplo de matrices transpuestas
es el siguiente

1 2 3
6 5 4

T
=

1 6
2 5
3 4

o sea, los renglones de A son las columnas de A


T
y viceversa.
Es comodo pensar en la transpuesta como la operaci on de transposici on que a
una matriz le hace corresponder su transpuesta.
86 Captulo 3. Transformaciones lineales
Las principales propiedades de la transposici on
son las que se muestran en el recuadro a la dere-
cha.
1)

A
T

T
= A
2) (AB)
T
= B
T
A
T
3)

A
1

T
=

A
T

1
Prueba. La propiedad 1 es consecuencia trivial de la denicion. Para convencernos
de la propiedad 2 sean A =
NM
, B =
ML
y
NL
=
NM

ML
= AB. Denotemos
A
T
=
0
MN
, B
T
=
0
LM
y (AB)
T
=
0
LN
. Tenemos que i N y j M

0
ji
=
iM

Mj
=
X
kM

ik

kj
=
X
kM

0
jk

0
ki
=
0
jM

0
Mi
y esto prueba la propiedad 2. Para probar la propiedad 3 vemos que por la propiedad
2 tenemos

A
1

T
A
T
=

AA
1

T
= I
T
= I
y la prueba concluye por la unicidad de los inversos.
Ahora, sea f : E F una TL y A la matriz de f en ciertas bases. Denamos la
TL transpuesta f
T
: F E como la TL de la matriz transpuesta A
T
. Tenemos que
comprobar que esta denicion no depende de como escogimos las bases. Si B es la matriz
de f en otras bases entonces existen matrices invertibles C y D tales que B = CAD y
por la propiedad 2 tenemos B
T
= D
T
A
T
C
T
. Por la propiedad 3 las matrices D
T
y C
T
son invertibles y esto signica que B
T
es la matriz de f
T
en las nuevas bases.
La transpuesta de una inmersi on es una proyeccion y recprocamente.
Prueba. Sea F un subespacio de E y f : F E la inmer-

1 0

0 1
0 0

0 0

sion correspondiente. Sea A una base de F. Por el Teorema de


Existencia de Bases existe una base B de E que contiene a A.
El conjunto de vectores C = B \ A es una base de cierto su-
bespacio complementario G de tal manera que E = F G. Si
coordinatizamos a F con la base A y a E con la base B entonces,
en estas bases, la matriz de f se ve como en el recuadro a la
derecha. O sea, en los renglones correspondientes a A tenemos la matriz identidad y
en los renglones correspondientes a C tenemos una matriz nula.
Si transponemos esta matriz entonces f
T
es la TL que a un vector a+b con a F
y b G le hace corresponder a. Luego f
T
es la proyecci on de E a F a lo largo de G.
El recprocamente se prueba an alogamente.
Ejercicio 65 Pruebe que las propiedades 3.24 son tambien propiedades de la trans-
posici on de TL o sea, son invariantes por cambios de bases. [229]
87 Seccion 3.6El nucleo y la imagen de una transformaci on lineal
Este ultimo ejercicio llama la atenci on. Acaso no es trivial? La respuesta es si, pero con la
transpuesta hay que ser cuidadosos. Por ejemplo, podemos denir para un operador lineal
f = f
T
si en cierta base A = A
T
y de aqu podramos concluir que

BAB
1

T
= BAB
1
para
cualquier matriz invertible B. Esto NO es verdadero. La raz on profunda de esto es que la transpuesta
de un operador vive naturalmente en el espacio dual y para poder denir f = f
T
hay que identicar
el espacio con su dual mediante alg un isomorsmo no canonico.
3.6 El nucleo y la imagen de una transformaci on lineal
En esta seccion queremos ver que para describir todas las transformaciones lineales
nos es suciente conocer las inmersiones, las proyecciones y los isomorsmos. Despues,
veremos interesantes consecuencias de este resultado.
Deniciones
Para esto comenzaremos con dos deniciones fundamentales. Sea f : E F una
TL. Al conjunto {y F | x E f (x) = y} se le llama imagen de la TL. La imagen
de f se denotar a por Imf. Al conjunto {x E | f (x) = 0} se le llama nucleo de la TL.
El nucleo de f se denotar a por ker f. Esta notaci on es debido a que en ingles nucleo es
kernel. Descriptivamente la imagen es el conjunto de los vectores en el codominio que
tienen preimagen y el nucleo es el conjunto de los vectores en el dominio cuya imagen
es el vector 0.
La imagen y el nucleo de una TL son subespacios.
Prueba. Sean x, y vectores en Imf y K. Por denici on existen a, b tales que
f (a) = x, f (b) = y. Como f es lineal tenemos f (a +b) = f (a) + f (b) = x +y y
adem as f (a) = f (a) = x. Esto quiere decir que Imf es un subespacio.
Sean a, b vectores en ker f y K. Tenemos f (a +b) = f (a) +f (b) = 0 +0 = 0
y f (a) = f (a) = 0 = 0. Esto quiere decir que ker f es un subespacio.
El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si
f : E F entonces ker f E e Imf F. Solamente en el caso que la TL
es un OL o sea, cuando E = F el nucleo y la imagen son subespacios del
mismo espacio. Sin embargo, como veremos m as adelante, en este caso pasan cosas
raras ya que, aunque estos subespacios tienen dimensiones complementarias ellos NO
son complementarios en general.
Transformaciones lineales con nucleo trivial
Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector
cero siempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice
que f tiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en
88 Captulo 3. Transformaciones lineales
este caso la preimagen de cualquier vector es unica. Lo importante es que el recproco
tambien es cierto.
Una TL es inyectiva si y solo si su nucleo es trivial.
Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos
(f (x) = f (y)) (f (x) f (y) = 0) (f (x y) = 0) (x y ker f)
y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es
equivalente a la existencia de un vector no nulo en el nucleo de la TL.
Descomposicion de transformaciones lineales
Ahora, demostraremos el resultado prometido al principio de la secci on. Sea f : E
F una TL. Sea K un subespacio complementario cualquiera pero jo del ker f. Sea f
K
la
restriccion de f al subespacio K. Denotemos i : Imf F la inmersi on del subespacio
Imf en F. Por ultimo, denotemos
K
: E K la proyecci on de E a K a lo largo del
ker f.
Teorema de Descomposicion de una TL
f = i f
K

K
y f
K
es un isomorsmo.
Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (p agina 54) existen
unos unicos vectores a K, b ker f tales que x = a +b. De aqu obtenemos
(i f
K

K
) (x) = i (f
K
(
K
(x))) = i (f
K
(a)) = f (a) = f (a) +f (b) = f (x)
y con esto queda probado que f = i f
K

K
.
Para probar que f
K
es un isomorsmo sea f (x) Imf. Por 2.29 existen unos unicos
vectores a K, b ker f tales que x = a +b. Como f
K
(a) = f (a) = f (a) + f (b) =
f (x) entonces f
K
es sobreyectiva. Si f
K
(a) = f
K
(b) entonces, f
K
(a b) = 0. Como
(a b) K ker f entonces, a b = 0 o sea a = b. Luego, f
K
es inyectiva.
Este teorema lo podemos visualizar mas f acilmente si ob-
E
f
F

K
i
K
f
K
Imf
servamos el diagrama de la derecha. La primera armaci on del
Teorema de Descomposici on de una TL (3.28) lo que dice es
que este diagrama es conmutativo.
Para cualquier transformaci on lineal f : E F,
dimE = dimker f + dimImf.
Prueba. Por el teorema anterior Imf es isomorfo a un complementario de ker f.
89
Seccion 3.6El nucleo y la imagen de una transformaci on lineal
La descomposicion de la transpuesta
Veamos una primera aplicaci on del Teorema de Descomposici on de una TL (3.28).
Como veremos en el pr oximo captulo, este resultado es clave para poder encontrar el
conjunto de todas las soluciones de un sistema de ecuaciones lineales.
Para cualquier transformacion lineal f : E F se cumple
que dimImf = dimImf
T
y que dimker f = dimker f
T
.
Prueba. Por 3.29 es suciente demostrar la primera igualdad. Descompongamos f =
i g donde i es una inmersion, g un isomorsmo y una proyeccion. O sea, f es la
composicion
E

K
g
Imf
i
F
Por 3.24.2 tenemos que f
T
=
T
g
T
i
T
. M as detalladamente, f
T
es la composici on
F
i
T
Imf
g
T
K

T
E
De 3.24.3 obtenemos que g
T
es un isomorsmo y de 3.25 obtenemos que
T
es una
inmersion y que i
T
es una proyeccion. Como g
T
i
T
es sobreyectiva Imf
T
= Im
T
y
como
T
es una inmersi on Im
T
= K. El hecho de que K y Imf son isomorfos termina
nuestra prueba.
Un criterio de isomorsmo
Veamos otra aplicaci on. Recordemos un sencillo resultado de teora de conjuntos:
toda funci on inyectiva de un conjunto nito en otro con el mismo n umero de elementos
es biyectiva. De hecho, esto lo usamos en el primer captulo para probar que Z
p
es
un campo para p primo. El objetivo ahora, es mostrar que exactamente el mismo
resultado (simple pero muy util) se cumple para espacios vectoriales de dimension
nita. Esto es una consecuencia del Teorema de Descomposici on de una TL (3.28).
Sean E y F dos espacios de dimensiones nitas e iguales.
Una TL f : E F es inyectiva si y solo si es sobreyectiva.
Prueba. Por 3.29 tenemos dimker f = dimEdimImf. Si f es sobreyectiva entonces,
F = Imf. Por hip otesis dimF = dimE. De aqu, debido a que todas las dimensiones son
nitas, dimker f = 0 y por lo tanto ker f = {0}. De 3.27 concluimos que f es inyectiva.
Si f es inyectiva entonces, la funci on f : E Imf es un isomorsmo y por lo tanto
dimE = dimImf. Por hip otesis dimF = dimE. Como Imf es un subespacio de F
entonces, aplicando 2.17 (pagina 43) obtenemos F = Imf.
Como consecuencia de este resultado probaremos que para comprobar que dos ope-
radores lineales f y g en un espacio de dimensi on nita son el inverso uno del otro, solo
90 Captulo 3. Transformaciones lineales
es necesario comprobar una de las dos igualdades g f = I o f g = I.
Sean f, g : E E dos OLs de un espacio nito dimen-
sional. Entonces, f g = I si y solo si g f = I.
Prueba. La funci on identidad es sobreyectiva. Luego, si f g = I entonces, f es
sobreyectiva. Por 3.31 f es inyectiva y por lo tanto tiene inversa f
1
. Componiendo
con f
1
obtenemos f
1
f g = f
1
I y por lo tanto g = f
1
.
Descomposicion can onica de transformaciones lineales
Para aplicar el Teorema de Descomposicion de una TL (3.28) necesitamos escoger
(ya que hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (vease
2.34) que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir
K por E/ ker f en el Teorema de Descomposici on de una TL (3.28) para as obtener
otra versi on del mismo que no dependa de escoger nada, o sea que sea can onico.
En el Teorema de Descomposicion de una TL (3.28) estan
E
f
F
? i
E/ ker f
?
Imf
involucradas tres funciones: la proyecci on
K
(que es sobre-
yectiva), la restricci on f
K
(que es biyectiva) y la inmersi on i
(que es inyectiva). Esta ultima no depende de K y podemos
quedarnos con ella. As que todas nuestras incognitas estan
representadas en el diagrama de la derecha.
Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas
x 7ker f +x
f (x) 7ker f +x
variantes. El espacio cociente E/ ker f esta formado por todos los subespacios anes
ker f + x. El espacio Imf esta formado por todas las imagenes
f (x). Luego, la unica posible respuesta a nuestra pregunta son
las funciones denidas en el recuadro a la izquierda.
La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama
funci on natural y se denota por nat. La funci on natural es una TL ya que
nat (x +y) = ker f +x +y = ker f +x + ker f +y = nat (x) + nat (y)
nat (x) = ker f +x = ker f +x = (ker f +x) = nat (x)
y adem as es evidentemente sobreyectiva.
La segunda de estas funciones es nuestra preocupacion fundamental ya que tenemos
que probar que es un isomorsmo. Esta funcion tiene dominio Imf, codominio E/ ker f
y la denotaremos por g. La funci on g es una TL ya que
g(f (x) +f (y)) = g(f (x +y)) = ker f +x +y = g(f (x)) +g(f (y))
g(f (x)) = g(f (x)) = ker f +x =(ker f +x) = g(f (x))
y es tambien evidentemente sobreyectiva.
Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios
anes ker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un su-
bespacio afn E paralelo al ker f se cumple que (E = ker f +x) (x E) entonces, la
91 Seccion 3.7 Trasformaciones semilineales y coalineaciones
inyectividad de g es equivalente a que la funci on f sea constante en cualquier subespacio
afn paralelo al ker f. La cadena de equivalencias
(y ker f +x) (a ker f | y = a +x) (f (y x) = 0) (f (y) = f (x))
nos convence de que g es inyectiva independientemente de quien sea f.
Los subespacios anes paralelos a ker f son precisamente
los conjuntos de vectores en que la funci on f es constante.
Luego, g es un isomorsmo y por lo tanto tiene un iso-
E
f
F
nat i
E/ ker f
f
0
Imf
morsmo inverso que denotaremos por f
0
. El isomorsmo f
0
es el que a un subespacio afn ker f +x le hace corresponder
f (x). As completamos nuestro diagrama como en el recua-
dro a la derecha. Solo nos falta demostrar que este es conmu-
tativo. Sin embargo esto es muy f acil porque la composici on
de funciones
x
nat
7ker f +x
f
0
7f (x)
i
7f (x)
es evidentemente igual a la funci on f.
3.7 Trasformaciones semilineales y coalineaciones
Una funci on f : E F de espacios vectoriales sobre K se
f(a +b) = f(a) +f(b)
f (a) =

f (a)
le llama transformaci on semilineal si existe un automors-
mo 7

del campo K tal que para cualesquiera vectores


a, b y cualquier escalar se cumplen las propiedades del
recuadro.
Observese que las trasformaciones lineales son semilineales usando como automor-
smo del campo la funci on identidad. Para construir otras trasformaciones semilineales
necesitamos automorsmos del campo que no sean la identidad. El ejemplo mas im-
portante es la conjugacion a + bi 7 a bi en el campo de los n umeros complejos
(vease el ejercicio 91).
Ejercicio 66 Pruebe que para una transformaci on semilineal no nula f el correspon-
diente automorsmo del campo es unico. [229]
Trasformaciones semilineales reales
En el caso del campo de los n umeros reales no hay trasformaciones semilineales que
no sean lineales debido al siguiente resultado:
92 Captulo 3. Transformaciones lineales
El unico automorsmo de R es la identidad.
Prueba. Sea f un automorsmo de R. Supongamos que x > 0 y sea y =

x entonces,
f (x) = f(y
2
) = f (y)
2
> 0. En particular si x = b a > 0 entonces f (b a) =
f (b) f (a) > 0. En otras palabras, f es monotona b > a f (b) > f (a). Como f
1
tambien es mon otona entonces, f conmuta con el supremo y el nmo (vease el ejercicio
67).
Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la
identidad en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad en Q. Sea
x un irracional y denotemos por A el conjunto de todos los racionales menores que x.
Sabemos que x = sup A y por lo tanto f (x) = f (sup A) = sup f (A) = supA = x.
Ejercicio 67 Sea R un conjunto ordenado y f : R R una isotona (biyecci on tal que
f y f
1
son mon otonas). Pruebe que si sup A existe entonces, f (sup A) = supf (A).
[230]
Ejercicio 68 Sea f 6= I un automorsmo de C. Las siguientes armaciones son equi-
valentes: 1. f es la conjugaci on compleja. 2. f es continua. 3. f es la identidad en R.
[230]
Propiedades de las transformaciones semilineales
Al igual que las TL las transformaciones semilineales preservan subespacios.
Toda trasformacion semilineal trans-
forma subespacios en subespacios.
Prueba. Sea f : E F una trasformaci on semilineal y F un subespacio de E. Sean
a, b F y K. Tenemos f(a +b) = f(a) + f(b) por lo que f (F) es cerrado para
la suma. Sea K tal que

= . Tenemos f (a) =

f (a) = f (a) o sea f (E) es
cerrado para el producto por escalares.
Toda trasformacion semilineal transforma
subespacios anes en subespacios anes.
Prueba. Sea f : E F una trasformaci on semilineal y F un subespacio de E. Si F+x
es un subespacio afn entonces, f (F +x) = f (F) +f (x) que es tambien un subespacio
afn puesto que por el resultado anterior f (F) es un subespacio.
93 Seccion 3.7 Trasformaciones semilineales y coalineaciones
Automorsmos semilineales.
A diferencia de las TL las transformaciones semilineales no forman un espacio vec-
torial. Esto es debido a que si 7 y 7
e
son dos automorsmos del campo
entonces 7 +
e
no necesariamente es un automorsmo. A las transformaciones
semilineales f : E E biyectivas las llamaremos automorsmos semilineales.
La composici on de automorsmos semi-
lineales es un automorsmo semilineal.
Prueba. Sean f y g dos automorsmos semilineales. De la misma manera que para
los operadores lineales se prueba que (f g) (a +b) = (f g) (a) + (f g) (b). Sean
7

y 7

los automorsmos del campo correspondientes a f y g respectivamente.


Tenemos que (f g) (a) = f

=
e

a y la prueba termina al observar que 7


e

siendo una composici on de automorsmos del campo es automorsmo del campo.


Ejercicio 69 Sea 7

un automorsmo del campo K. Pruebe que la transforma-
cion K
n
3 (x
1
, . . . , x
n
) 7 (x
1
, . . . , x
n
) K
n
es un automorsmo semilineal. A tales
automorsmos semilineales los llamaremos estandar. Pruebe que toda transformacion
semilineal de K
n
en K
n
es la composicion de un automorsmo semilineal estandar con
una TL. [230]
La inversa de un automorsmo semi-
lineal es un automorsmo semilineal..
Prueba. Sea f : E E una automorsmo semilineal. Sean K y x, y E. Sean
a, b E tales que f (a) = x , f (b) = y. Tenemos
f
1
(x +y) = f
1
(f (a) +f (b)) = f
1
(f (a +b)) = a +b = f
1
(x) +f
1
(y)
f
1

= f
1

f (a)

= f
1
(f (a)) = a =f
1
(x)
que es lo que se quera demostrar puesto que la funci on

7 es un automorsmo de
K.
Estos dos ultimos resultados signican que el conjunto de todos los automorsmos
semilineales forman un grupo respecto a la composicion de funciones.
Coalineaciones
Una biyecci on f : E E en un espacio vectorial sobre un campo le llama coalinea-
cion si la imagen de cualquier subespacio afn es un subespacio afn y la preimagen de
cualquier subespacio afn es un subespacio afn de E. En otras palabras, tanto f como
94 Captulo 3. Transformaciones lineales
f
1
transforman subespacios anes en subespacios anes. Obviamente, si f es una co-
alineaci on entonces f
1
tambien lo es. El siguiente resultado nos dice que la denici on
de coalineacion es posible hacerla de diversas maneras.
Sea f : E F una biyeccion entre dos espacios anes. Entonces, las
siguientes armaciones son equivalentes:
1. f y f
1
transforman subespacios anes en subespacios anes.
2. f y f
1
transforman generadores anes en generadores anes.
3. f y f
1
transforman bases anes en bases anes.
4. f y f
1
transforman conjuntos AI en conjuntos AI.
5. f y f
1
conmutan con la cerradura afn.
Prueba. (1 2) Sea A un conjunto generador afn de E y B = f (A). Sea C = f
1
[B]
que es un subespacio afn por ser la preimagen de un subespacio. Tenemos, B [B] y
por lo tanto A = f
1
(B) f
1
[B] = C. Luego E = [A] C y por lo tanto C = E. De
aqu f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetra, si
B es generador entonces f
1
(B) tambien lo es.
(2 3) Sea ahora A una base afn de E y B = f (A). Sabemos que B es generador
afn. Si B no fuera AI entonces existira b tal que B\b es generador y por lo tanto,
tendramos que f
1
(B\b) = A\f
1
(b) es generador afn. Esto contradecira que A es
una base afn. Por simetra, si B es una base afn entonces f
1
(B) tambien lo es.
(3 4) Sea ahora A un conjunto AI. Sea A
0
una base afn que lo contiene. Sabemos
que f (A
0
) es una base afn. Como f (A) f (A
0
) tenemos que f (A) es AI. Por simetra,
si B es AI entonces f
1
(B) tambien lo es.
(4 1) Sea A una base afn del subespacio afn [A]. Como A es AI entonces
B = f (A) tambien lo es. Si b [A] entonces A b es AD y por lo tanto B f (b)
tambien lo es. Luego, por el corolario 2.42, tenemos f (b) [B] y por lo tanto f [A] [B].
Si b [B] entonces B b es AD y por lo tanto A f
1
(b) tambien lo es. Luego, por
el corolario 2.42, tenemos f
1
(b) [A] y por lo tanto [B] f [A]. Esto signica que f
transforma el subespacio [A] en el subespacio [B]. Por simetra, f
1
tambien transforma
subespacios en subespacios.
(5 1) Si f [A] = [f (A)] entonces la imagen del subespacio afn [A] es el subespacio
afn [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetra, f
1
tambien
transforma subespacios en subespacios.
(1 5) Sea f una coalineaci on. Sea A un conjunto de puntos. Como f transforma
subespacios anes en subespacios anes la restriccion de f a [A] es una coalineacion del
espacio an [A] en el espacio an f [A]. Como esta restricci on transforma generadores
en generadores tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para
probar de que f
1
conmuta con la cerradura afn usamos que f
1
es una coalineaci on.
95 Seccion 3.7 Trasformaciones semilineales y coalineaciones
Ejercicio 70 Sea A un conjunto con un operador de cerradura y f : A A una
biyeccion. Si f y f
1
conmutan con el operador de cerradura entonces f es una isotona
del conjunto ordenado de cerrados.
Estructura de las coalineaciones
La composicion de coalineaciones de un espacio afn en si mismo es una coalineacion.
Lo mismo sucede con la inversa de una coalineaci on. Luego el conjunto de todas las
coalineaciones de un espacio afn F es un grupo respecto a la composicion de funciones.
Si dimE = 1 entonces cualquier biyecci on de E en E es una coalineacion ya que en
este caso todos los subepacios anes son puntos y la condicion de preservar puntos no
es ninguna restricci on.
Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones
de la forma t
a
: F 3 x 7 x + a F y de estas hay una para cada vector a en el
espacio vectorial F. Como t
a
t
b
= t
a+b
observamos que el subgrupo de traslaciones
es isomorfo al grupo aditivo del espacio vectorial F.
Sea f una coalineacion en E. Denotemos a = f (0) y t
a
la traslacion x 7 x + a.
Observemos que la coalineacion f
0
= t
a
f es tal que f
0
(0) = 0. Luego, cualquier
coalineaci on es la composicion f = t
a
f
0
de una coalineacion que preserva 0 seguida de
una traslacion.
Si f es un automorsmo semilineal entonces f transforma subespacios anes en
subespacios anes y por lo tanto es una coalineacion que preserva 0.
Ahora, comenzaremos a probar el resultado principal de esta seccion: que en dimen-
sion al menos 2 toda coalineacion que preserva 0 es semilineal. En todo lo que sigue,
E es un espacio vectorial de dimensi on al menos 2 sobre el campo K.
Toda coalineacion en E preserva el paralelismo de rectas.
Prueba. Sea f una coalineacion y `, `
0
dos rectas paralelas diferentes. Como f es un
automorsmo del conjunto ordenado de subespacios anes dim[` `
0
] = dimf [` `
0
] =
dim[f (`) f (`
0
)] y por lo tanto f (`) y f (`
0
) son coplanares.
Tambien dim[` `
0
] = dimf [` `
0
] = dim[f (`) f (`
0
)] y por lo tanto f (`) y f (`
0
)
no se intersectan.
Toda coalineacion en E que preserva 0 es un
automorsmo del grupo aditivo de vectores.
Prueba. Sea f una coalineaci on de E que preserva 0. Recordemos que para cualquier
vector x el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva
0 tenemos f hxi = hf (x)i o sea, f tambien conmuta con la cerradura lineal.
96 Captulo 3. Transformaciones lineales
Sean a, b E dos vectores. Tenemos que probar que f (a +b) = f (a) + f (b).
Esto es trivial si {a, b} contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0.
Supongamos primero que {a, b} es LI. Por la regla del paralelogramo sabemos que
a +b = (hai +b) (hbi +a) ,
f (a) +f (b) = (hf (a)i +f (b)) (hf (b)i +f (a)) .
Como f preserva el paralelismo f (hai +b) es una recta paralela a f (hai) = hf (a)i
que pasa por f (b) , o sea f (hai +b) = hf (a)i + f (b). An alogamente, f (hbi +a) =
hf (b)i +f (a). Como f conmuta con la intersecci on (el nmo) tenemos
f (a +b) = f (hai +b)f (hbi +a) = (hf (a)i +f (b))(hf (b)i +f (a)) = f (a)+f (b)
y esto concluye el caso de que {a, b} es LI.
Es claro que si {a, b} es LI entonces, tambien lo es {a b, b} y por lo tanto
f (a) = f (a b +b) = f (a b) +f (b) .
Luego, si {a, b} es LI entonces, f (a b) = f (a) f (b).
Supongamos que {a, b} es LD. Entonces, hai = hbi. Como dimE > 1 existe c / hai
tal que los conjuntos {a, c}, {b, c} son LI.
Si b 6= a entonces, {a +c, b c} es LI y por el caso anterior tenemos que
f (a +b) = f (a +c +b c) = f (a +c) +f (b c) = f (a) +f (b)
y en particular cuando b = a obtenemos f (2a) = 2f (a).
Si b = a entonces, {a +c, b +c} es LI y tenemos que
2f (c) = f (2c) = f (a +c +b +c) = f (a +c) +f (b +c) = f (a) +f (b) +2f (c)
y por lo tanto f (a) +f (b) = 0 = f (0) = f (a +b).
Ejercicio 71 Complete la demostraci on del resultado anterior mostrando que si {a, c}
es LI, b = a y 6= 1 entonces {a +c, b c} es un conjunto LI. [230]
Si f es una coalineacion en E que preserva 0 entonces, existe un automor-
smo 7

del campo K tal que f (a) =



f (a) para todo vector a E.
Prueba. Sea a E\0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos
que a hai y por lo tanto f (a) hf (a)i. Como en hf (a)i estan precisamente los
m ultiplos de f (a) existe un escalar que denotaremos
a
tal que f (a) =
a
f (a). De
esta manera est a denida una funcion K 3 7
a
K que es biyectiva pues f es una
biyeccion de hai en hf (a)i.
Queremos probar que
a
no depende de a. O sea que para cualesquiera a, b E\0
tenemos que
a
=
b
. Supongamos que {a, b} es LI. Usando 3.41 obtenemos que

a
f (a) +
b
f (b) = f (a) +f (b) = f (a +b) =
= f ((a +b)) =
a+b
f (a +b) =
a+b
f (a) +
a+b
f (b)
y como {f (a) , f (b)} es LI obtenemos
a
=
a+b
=
b
.
97 Seccion 3.7 Trasformaciones semilineales y coalineaciones
Supongamos que {a, b} es LD entonces, como dimE > 1 existe c tal que {a, c} y
{c, b} son dos conjuntos LI. Por el caso anterior
a
=
c
=
b
.
Como
a
no depende de a denotaremos =
a
. Sabemos que para cualquier vector
a E tenemos f (a) = f (a). Solo falta probar que 7 es un automorsmo de
K.
Sea a un vector no nulo. Usando 3.41 obtenemos que
( +)f (a) = f (( +) a) = f (a +a) = f (a) +f (a) =

+

f (a)
()f (a) = f (a) = f (a) =

f (a)
y como f (a) es no nulo obtenemos + = +

y =

.
Resumiendo los dos ultimos resultados obtenemos:
Caracterizacion de las coalineaciones
Si dimE 2 entonces, cualquier coalineaci on en
E que preseva 0 es un automorsmo semilineal.
Combinando esto con 3.34 vemos que el caso de los reales es m as sencillo.
Toda coalineaci on en un espacio vectorial real de dimension dos o
m as es un automorsmo lineal seguido por una traslaci on.
98
os determinantes son una funci on que a cada matriz cuadrada le hace correspon-
der un elemento del campo. Todo lo que se digamos acerca de la importancia
de los determinantes en las matem aticas es poco. Este es uno de los conceptos
sin los cuales realmente no se puede entender nada en las matem aticas superiores. En
este captulo daremos la denici on de los determinantes, estudiaremos sus propieda-
des, metodos de calculo y seremos capaces, gracias a ellos, de resolver los sistemas de
ecuaciones lineales de forma general.
4.1 Permutaciones
La denici on de determinante de una matriz pasa inevitablemente por la denici on
del signo de una permutacion. El lector debe entender bien esta seccion para poder
pasar al estudio de los determinantes.
El grupo simetrico
Sea N un conjunto nito. Una permutacion de N es una biyecci on de N en N.
Al conjunto de todas las permutaciones de N lo denotaremos por S
N
. La composici on
de biyecciones es una biyeccion y toda biyeccion tiene inversa, por lo tanto, S
N
es un
grupo respecto a la composici on. Al grupo (S
N
, ) se le llama el grupo simetrico
de N. Denotaremos por I
N
a la funci on identidad que es el neutro de S
N
. Es impor-
tante recordar nuestra notaci on de la composici on ( ) (a) = ((a)) ya que la
composicion no es conmutativa.
Si |M| = |N| entonces los grupos S
M
y S
N
son isomorfos.
Prueba. Sean M y N son dos conjuntos del mismo
M

M

1
N

1
N
cardinal. Si : MN es una biyecci on entonces j ando-
nos en el diagrama conmutativo del recuadro a la derecha
obtenemos una funci on : S
M
3 7
1
S
N
. Ob-
servemos, que tiene inversa S
N
3 7
1
S
M
.
100 Captulo 4. Determinantes
Ademas, () =
1
=
1

1
= () () y por lo tanto, es
un isomorsmo de los grupos S
M
y S
N
.
El lector debe interpretar este resultado como que, en el grupo S
M
podemos cam-
biarle el nombre a los elementos de M mediante la biyecci on : MN y obteniendo
el grupo S
N
. En particular, el n umero de elementos de S
N
solo depende del n umero de
elementos en N.
El n umero de permutaciones de un conjunto con n elementos es n!.
Prueba. Para la prueba es mas claro encontrar (n) el n umero de biyecciones f :
M N donde |M| = |N| = n. Si n = 1 entonces (n) = 1 = 1!. Hagamos inducci on
en n. Si i M entonces, el conjunto de biyecciones lo podemos partir en n partes
disjuntas seg un cual sea j = f (i). Cada parte tiene tantos elementos como biyecciones
f : M\i N\j y por hip otesis de inducci on este n umero es (n 1) !. Luego, (n) =
n(n 1) ! = n!.
Ciclos
Sea M = {x
0
, . . . , x
n1
} N. A la permutaci on
(y) =

x
i+1 modn
si y = x
i
y si y / M
mostrada en el recuadro a la derecha se le lla-
ma ciclo de orden n. A esta permutaci on se le
denotar a por (x
0
, . . . , x
n1
). . Dos ciclos (x
0
, . . . , x
n1
) y (y
0
, . . . , y
m1
) se les llama
disjuntos si ning un x
i
es igual a alg un y
j
.
Es importante notar que la composici on de ciclos disjuntos es conmutativa pero la
composicion de ciclos en general no lo es. Tambien debemos notar que debido a las
propiedades de la funci on modn se tiene que (a, . . . , b, c) es la misma permutaci on
que (c, a, . . . , b) en otras palabras, siempre podemos escoger el principio del ciclo.
Sea S
N
una permutaci on. La relaci on en N denida
por n Z tal que a =
n
(b) es de equivalencia.
Prueba. Tenemos a =
1
(a) y por lo tanto es reexiva. Si a =
n
(b) y b =
m
(c)
entonces a =
n+m
(c) y por lo tanto es transitiva. Si a =
n
(b) entonces, b =
n
(a)
por lo que la relaci on es simetrica.
A las clases de equivalencia de esta relacion se le llaman orbitas de la permutaci on.
La restriccion de una permutaci on a una orbita es un ciclo.
Prueba. Supongamos que Mes una orbita. Sea a M. Tenemos M = {
n
(a) | n Z}.
El conjunto M no puede ser innito por lo que existe un natural p m as peque no tal que
101 Seccion 4.1 Permutaciones

p
(b) ya aparecio antes en la sucesi on a, (a) , . . .. Observemos que
p
(a) = a por-
que si no, habra un n umero k mayor que cero y menor que p tal que
p
(a) =
k
(a)
o sea,
k
(a) tendra dos preimagenes diferentes
k1
(a) 6=
p1
(a) y esto no pue-
de ser ya que es una biyeccion. Dividiendo con resto cualquier entero n entre p
tenemos que n = kp + r con 0 r < p. Luego,
n
(a) =
r

kp
(a)

=
r
(a)
y M = {
n
(a) | n Z
p
}. Esto quiere decir que la restricci on de a M es el ciclo

a, (a) , . . . ,
p1
(a)

.
Supongamos que la restricci on de a M es el ciclo

a, (a) , . . .
p1
(a)

. Como
(M) = M tenemos que
p
(a) M y de la misma manera que antes vemos que

p
(a) = a y que M = {
n
(a) | n Z} es una orbita.
Toda permutacion es composici on de ciclos disjuntos.
Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las orbitas y
componerlos en cualquier orden.
Observese que la descomposici on en ciclos disjuntos de una permutacion es unica
salvo el orden de la composicion.
El grupo alternante
Una permutaci on se le llama par si en su descomposici on en ciclos disjuntos hay
un n umero par de ciclos de orden par. En otro caso se le llama impar. A los ciclos de
orden 2 se les llama transposiciones. Las transposiciones son impares. La inversa de
cualquier transposici on es ella misma.
La composici on de una permutacion con una trans-
posici on cambia la paridad de la permutacion.
Prueba. Sea una permutaci on y = (a, b) una transposici on. Distingamos dos
casos: que a y b estan en una misma orbita de o que no.
Si estan en la misma orbita M entonces escogiendo el principio del ciclo en M y
renumerando los elementos de N podemos lograr que = (1, k) con k > 1 y que la
restriccion de a M es (1, 2, . . . , n) con n k. Como ((k 1)) = 1 y ((n)) = k,
obtenemos
(1, k) (1, 2, . . . n) = (1, . . . , k 1) (k, . . . , n) .
Si n es par entonces, k 1 y n k +1 tienen la misma paridad por lo que la paridad
de cambia. Si n es impar entonces k 1 y n k +1 tienen diferente paridad por lo
que la paridad de cambia.
Si est an en diferentes orbitas M
1
y M
2
entonces escogiendo los principios de los
ciclos en M
1
, M
2
y renumerando los elementos de N podemos lograr que = (1, k)
con k > 1 y que la restricci on de a M
1
es (1, . . . , k 1) y la restricci on de a M
2
102 Captulo 4. Determinantes
es (k, . . . , n). Como ((k 1)) = k y ((n)) = 1, obtenemos que
(1, k) (1, . . . , k 1) (k, . . . , n) = (1, 2, . . . n)
y ya vimos que (1, . . . , k 1) (k, . . . , n) tiene paridad diferente que (1, 2, . . . n).
Con esto hemos demostrado que la paridad de es diferente a la de . La
demostracion de que a paridad de es diferente a la de es an aloga.
Toda permutacion es composici on de transposiciones.
Prueba. Se comprueba f acilmente que (x
0
, . . . , x
n1
) = (x
n1
, x
0
) . . . (x
2
, x
0
)
(x
1
, x
0
) y esto demuestra que todo ciclo se descompone en composici on de transpo-
siciones. La prueba se completa porque toda permutaci on es composicion de ciclos.
Una consecuencia directa de 4.6 y 4.7 es que una permutaci on es par si y solo si es
composici on de un n umero par de transposiciones. Al conjunto de todas las permuta-
ciones pares de N se le denotar a por A
N
. La composici on de dos permutaciones pares
es par y la inversa de una permutaci on par es tambien par. Luego A
N
es un grupo para
la composici on y se le llama grupo alternante. Al conjunto de las permutaciones im-
pares lo denotaremos por A

N
y lo llamaremos la clase lateral de las permutaciones
impares. Observese que A
N
y A

N
tienen la misma cantidad de permutaciones e igual
a n!/2 ya que el componer con una transposici on ja es una biyecci on entre A
N
y A

N
.
El signo de una permutaci on
En todo campo K hay dos elementos notables, 1 y 1. El primero es el neutro para
el producto y el segundo es el opuesto para la suma del primero. Observese que estos
dos elementos son diferentes si y solo si la caracterstica del campo es diferente de 2.
El signo de una permutaci on es la funcion sgn : S
N
K que es 1 si la permutaci on es
par y es 1 si la permutaci on es impar.
sgn ( ) = sgn sgn
sgn
1
= sgn
Prueba. La composici on de dos permutaciones de la misma paridad es una permu-
taci on par. La composici on de dos permutaciones de diferente paridad es impar. Las
orbitas de una permutaci on no cambian al tomar la inversa.
La funci on sgn jugar a un papel vital en todo lo que sigue. En particular, en la
denicion de determinante de una matriz los signos de los sumandos est an denidos
precisamente mediante la funci on sgn. Por esto, el lector debe familiarizarse muy bien
con la denicion de esta funci on y sus propiedades.
103 Seccion 4.2 Propiedades b asicas de los determinantes
Ejercicio 72 Pruebe que sgn

= sgn

= sgn

.
El resultado 4.8 lo que quiere decir es que la funcion sgn : S
N
K es un morsmo del
grupo S
N
al grupo multiplicativo del campo. Su imagen es {1, 1} y su nucleo es A
N
si el
campo es de caracterstica diferente de dos.
4.2 Propiedades basicas de los determinantes
Resolvamos el sistema de ecuaciones lineales de la
x =
d b

y =
a c

ax +by = 1
cx +dy = 1
izquierda. Denotemos = ad bc. Despejando x
en la primera ecuaci on y substituyendo en la se-
gunda obtenemos y. Substituyendo este y en alguna de las ecuaciones
obtendremos x. Esta soluci on es la del recuadro a la derecha.
Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R
2
0
y
d
b
c a
x
p
q
v
u
R
2
0
y
x p
q
R
2
v
u
u +v como se muestra en la gura a la izquierda. Estos dos vecto-
res denen un paralelogramo cuyos vertices son 0, u, u +v, v.
Queremos calcular el area de este paralelogramo. Para esto,
sea q el punto de intersecci on de la recta u, u +v con la recta
paralela al eje x que pasa por v. Sea p el punto de intersecci on
de la recta u, u +v con el eje x. Es facil ver que el tri angu-
lo v, q, u +v es igual al tri angulo 0, p, u. Luego, el paralelogramo 0, u, u +v, v tiene
area igual a la del paralelogramo 0, v, q, p. En la gura a la
derecha los tri angulos p, a, u y 0, v,d tienen dos angulos igua-
les o sea son congruentes. De esto, por el Teorema de Tales
obtenemos
(b (a p) = d c) (pd = ad cb)
Sabemos que, pd es el area (base por altura) del paralelo-
gramo 0, v, q, p. Luego, hemos demostrado que el area del
paralelogramo 0, u, u +v, v es igual a = ad bc.
Estos dos ejemplos nos dan una idea de la importancia del n umero = ad bc
para la soluci on de sistemas de dos ecuaciones lineales y para el c alculo de areas en R
2
.
Los determinantes son la generalizacion de este n umero a dimensiones arbitrarias.
Denicion de los determinantes
Sea N un conjunto nito. Recordemos que S
N
es el conjunto de todas las las per-
mutaciones de N. Si S
N
e i N entonces, denotaremos por
i
la imagen de i por
la permutaci on , o sea
i
es una forma corta de escribir (i). Recordemos tambien
que el signo de una permutacion sgn es 1 si es par y es 1 si es impar.
104 Captulo 4. Determinantes
El determinante de una matriz
NN
es por de-
det
NN
=
X
S
N
sgn
Y
iN

i
i
nicion el elemento del campo denido por la formula
en el recuadro de la derecha. A esta f ormula se la co-
noce como f ormula de Leibniz.
Recalquemos que los determinantes estan denidos solo cuando los conjun-
tos de ndices de renglones y columnas coinciden y es un conjunto nito.
Por este motivo en este captulo todos los espacios seran nito dimensio-
nales y todos los conjuntos de ndices ser an nitos.
Determinantes de matrices peque nas
Interpretemos esta denici on para conjuntos N con pocos elementos. Si |N| = 1
entonces la matriz
NN
consta de una sola entrada y su determinante es precisamente
esta entrada.
Si, digamos N = {1, 2} entonces tenemos 2 permutaciones de N que

11

12

21

22

son I y (1, 2). A la primera le corresponde el sumando


11

12
y a
la segunda el sumando
12

21
. Gr acamente, cuando N = {1, 2}
un determinante es la suma de los dos productos que se muestran en el recuadro a la
izquierda.
Pongamos ahora N = {1, 2, 3}. Hay 6 permutaciones de N y estas son I, (1, 2, 3),

11

12

13

21

22

23

31

32

33

(1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden
con los tres sumandos
11

22

33
,
12

23

31
y
13

21

32
. Gr aca-
mente, estos tres sumandos se pueden representar por la diagonal
principal de la matriz y los dos triangulos con lados paralelos
a esta diagonal como se muestra en el recuadro de la derecha.
Las otras tres permutaciones tienen signo negativo y se corresponden con los suman-

11

12

13

21

22

23

31

32

33

dos
11

23

32
,
12

21

33
y
13

22

31
. Gracamente, estos
tres sumandos se pueden representar por la diagonal alterna de la
matriz y los dos triangulos con lados paralelos a esta diagonal
como se muestra en el recuadro de la izquierda.
El n umero de sumandos en la denici on del determinante es S
N
= |N| !. Este n umero
crece rapidamente con |N| como se ve en la siguiente tabla
n 1 2 3 4 5 6 7 8 9 10
n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800
Por esto, calcular determinantes con el uso directo de su denici on es muy ineciente
para matrices de m as de tres renglones y columnas.
El determinante de la identidad
105 Seccion 4.2 Propiedades b asicas de los determinantes
Ya vimos que el conjunto de matrices
NN
es un algebra respecto al producto y

ij
=

1 si i = j
0 si i 6= j

1 0
0 1

suma de matrices y multiplicacion por elementos del campo. El elemento neutro para
el producto lo llamamos matriz identidad, denotamos I
NN
y
es la matriz cuyas entradas son iguales al delta de Kronecker

ij
denido en el recuadro a la derecha. Cuando el conjunto de
ndices est a ordenado, la matriz identidad se puede representar gr aca-
mente como una que tiene unos en la diagonal y ceros en todas las demas
entradas como se muestra en el recuadro a la izquierda para una matriz
de dos renglones y columnas.
El determinante de la matriz identidad es 1.
det I
NN
= 1
Prueba. Si la permutaci on S
N
no es la identidad entonces hay un i N tal que
i 6=
i
y por lo tanto
Q
iN

i
i
= 0. Luego,
det I
NN
=
X
S
N
sgn
Y
iN

i
i
= sgn(I
N
)
Y
iN

ii
= 1.
Matrices con las nulas
Si una matriz tiene una columna o un ren-
glon nulo entonces, su determinante es cero.
Prueba. Cada sumando de los determinantes
Q
iN

i
i
contiene como factor una
entrada de cada rengl on. Si un rengl on es nulo entonces, todos estos sumandos tienen
un factor cero y por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las
columnas.
El determinante de la transpuesta
Recordemos del captulo anterior que dada una ma-

11

12

13

14

21

22

23

24

31

32

33

34

41

42

43

44

T
triz
MN
su transpuesta se dene como la matriz

NM
=
T
MN
tal que
ij
=
ji
. Gr acamente la ope-
raci on de transponer una matriz es hacer una ree-
xion con respecto a la diagonal de la matriz. Obser-
vese que el conjunto de ndices de los renglones de la
matriz
T
NM
es M y no N como se podra pensar de
los subndices. La notaci on es as porque pensamos la transpuesta como la aplicacion
de la operacion de transposici on.
106 Captulo 4. Determinantes
El determinante no se altera al transponer una matriz.
det A = det A
T
Prueba. Tenemos que demostrar que det
NN
= det
T
NN
. Efectivamente, por la
denici on
det
T
NN
=
X
S
N
sgn
Y
iN

i
i
=

cambio de variable
=
1

=
X
S
N
sgn
Y
iN

1
(i)i
=
=

cambio de variable
j =
1
(i)

=
X
S
N
sgn
Y
jN

j
j
= det
NN
.
Matrices con las iguales
Si una matriz tiene dos columnas o dos renglo-
nes iguales entonces su determinante es cero.
Prueba. Supongamos que para
NN
se tiene que
jM
=
kM
o sea, las columnas j y
k son iguales. Todo sumando del determinante depende exactamente de una entrada
en la columna j y de otra en la columna j. Luego, podemos escribir
det
NN
=
X
S
N

j
j

k
k
sgn
Y
iN\{j,k}

i
i
.
Denotemos la transposici on (j, k). La funci on : S
N
3 7 S
N
es una
biyeccion y el sumando correspondiente a es igual a

j
k

k
j
sgn ( )
Y
iN\{j,k}

i
i
pero como
jM
=
kM
entonces,
j
k

k
j
sgn( ) =
j
j

k
k
sgn . Esto signica
que es una biyecci on que transforma a un sumando en su negativo y por lo tanto el
determinante es cero. La prueba para los renglones se obtiene transponiendo la matriz.
Permutaciones de columnas y renglones
Dada una matriz
MN
y una permutacion S
N
denimos la operacion de per-

11

12

13

14

21

22

23

24

31

32

33

34

41

42

43

44

mutar las columnas de


MN
mediante la permutaci on como la que resulta en
la matriz
M(N)
cuyas columnas son
M
1
(i)
(observese el uso de la permutaci on
inversa
1
! ). Gr acamente esta operaci on resulta en cam-
biar el orden de las columnas. As por ejemplo, el aplicar el
ciclo (1, 2, 4) resulta en el intercambio de columnas repre-
sentado en el recuadro a la izquierda. An alogamente se dene
la operacion de permutar los renglones, para una permu-
taci on S
M
la matriz
(M)N
es aquella cuyos renglones
son

1
(j)N
.
107 Seccion 4.2 Propiedades b asicas de los determinantes
Al permutar las columnas o los renglones de
una matriz con la permutaci on el determi-
nante se altera por un factor igual a sgn .
det
N(N)
= sgn det
NN
Prueba. Sea S
N
una permutaci on. Hay que demostrar det
N(N)
= sgndet
NN
.
Efectivamente, por la denici on tenemos
det
N(N)
=
X
S
N
sgn
Y
iN

i
1
(
i
)
=

cambio de variable
=
1

=
=
X
S
N
sgn ( )
Y
iN

i
i
= sgn
X
S
N
sgn
Y
iN

i
i
= sgndet
NN
Con esto demostramos la proposici on para las columnas. La demostraci on para los
renglones se obtiene transponiendo la matriz.
El determinante del producto
La ultima propiedad basica de los determinantes es probablemente la m as impor-
tante para el algebra lineal. Como la demostraci on de esta propiedad es complicada, le
recomiendo al lector omitirla en una primera lectura. La complejidad de esta demostra-
cion es el precio que tenemos que pagar por dar una denici on directa del determinante.
El determinante del producto de dos matrices es igual
al producto de los determinantes de las dos matrices.
det AB = det Adet B
Prueba. Sean A =
NN
y B =
NN
. Para el objeto de esta demostraci on denotemos
por F
N
el conjunto de todas las funciones de N en N. Claramente S
N
F
N
. Denotemos
adem as T
N
al conjunto F
N
\ S
N
que es el de todas las funciones no biyectivas de N en
N.
Por la denici on de determinante y de producto de matrices tenemos
det AB =
X
S
N
sgn
Y
iN
X
jN

ij

j
i
y usando la f ormula
Q
iN
P
jN

ij
=
P
F
N
Q
iN

i
i
(Sec. 1.6, p ag. 23) obtenemos
det AB =
X
S
N
sgn
X
T
N
Y
iN

i
i

i
+
X
S
N
sgn
X
S
N
Y
iN

i
i

i
Denotando por el primer sumando nuestro determinante se convierte en
108 Captulo 4. Determinantes
= +
X
S
N
sgn
X
S
N
Y
iN

i
i

i
=

cambio de variable
=

=
= +
X
S
N
X
S
N
sgn( )
Y
iN

i
i
Y
jN

j
(
j )
=

cambio de var
k =
j

=
= +

X
S
N
sgn
Y
iN

i
i
!
X
S
N
sgn
Y
kN

k
k
!
= + det Adet B
O sea, para completar la demostracion tenemos que probar que = 0. Para esto
recordemos que A
N
es el subgrupo de las permutaciones pares e A

N
es la clase lateral
de todas las permutaciones impares. Si observamos detenidamente la denicion de
=
X
T
N
X
S
N
sgn
Y
iN

i
i

i
vemos que para probar = 0 es suciente construir para cada T
N
una biyecci on
f : A
N
A

N
tal que si = f () entonces,
Y
iN

i
i

i
=
Y
iN

i
i

i
Esto nos garantizar a que cada sumando positivo se cancele con otro negativo.
Sea T
N
arbitraria pero ja. Como no es una biyeccion existen j, k N
tales que (j) = (k) . Sea t A

N
la transposici on que intercambia j y k. Sea
f : A
N
3 7 t A

N
. La funci on f es biyectiva ya que su inversa es 7 t.
Ademas, tenemos
Y
iN

i
i

i
(t)
i
=
j
j

k
k

j
Y
iN\{j,k}

i
i

i
=
Y
iN

i
i

i
donde la ultima igualdad es v alida porque
j
=
k
.
Matrices de permutaciones
Ahora queremos ver que 4.13 es un caso particular de 4.14. Esta es una buena
disculpa para introducir las matrices de permutaciones. Sea I
N(N)
la matriz identidad
a la que se le han permutado las columnas con la permutaci on S
N
. A I
N(N)
se le
llama matriz de la permutaci on . Lo interesante de las matrices de permutaciones
es que al multiplicar por ellas se permutan renglones o columnas.
El resultado del producto
MN
I
N(N)
(de I
M(M)

MN
) es la
matriz
MN
a la que se le han permutado las columnas (los
renglones) usando la permutaci on (la permutacion
1
).
Prueba. Sea
MN
=
MN
I
N(N)
. Tenemos
ij
=
P
kN

ik

k
1
(j)
. Cada sumando es
cero a no ser que
1
(j) = k. Luego
ij
=
i
1
(j)
lo que prueba la proposici on para
las columnas. La demostraci on para los renglones es igual.
109 Seccion 4.3 Expansi on de Laplace
Observemos que det I
N(N)
= sgn . Efectivamente, en la denici on de determi-
nante cada producto
Q
iN

i
1
(
i
)
es cero para cada 6= . Para = tenemos
Q
iN

ii
= 1 que esta multiplicado por sgn . De aqu, 4.14 y 4.15 dan una nueva
prueba de 4.13.
Ejercicio 73 Haga la mutiplicacion de matrices

11 12 13
21 22 23

0 0 1
1 0 0
0 1 0

del recuadro a la derecha. La matriz de que permu-


taci on es la de m as a la derecha? Concuerdan o no
sus calculos con el resultado 4.15?
Denotemos M() = I
N(N)
. No es difcil probar que M( ) = M() M() y que
cualquier matriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : S
N

GL

K
N

es un morsmo de grupos que es inyectivo. Esto signica que las matrices de


permutaciones son un subgrupo de GL

K
N

que es isomorfo a S
N
. Esto es v alido para cualquier
campo K.
4.3 Expansi on de Laplace
En esta secci on encontraremos una descomposici on de los determinantes como una
combinaci on lineal de determinantes de matrices mas peque nas. Despues veremos dos
importantes consecuencias de esta expansi on: que los determinantes son funcionales
multilineales y que una matriz tiene inversa si y solo si esta tiene determinante diferente
de cero.
Cambios de ndices
Sea
MN
y : N L una biyeccion. Podemos construir una matriz
ML
=
M(N)
por la f ormula
ij
=
i
1
(j)
(observese el uso de la inversa
1
! ). A esta operacion
la llamaremos cambio de ndices de las columnas de la matriz
MN
mediante la
biyeccion . De la misma manera se denen los cambios dendices de los renglones.
Observese que las permutaciones de las columnas y los renglones son un caso particular
de los cambios de ndices ya que una permutaci on no es m as que una biyeccion de un
conjunto en si mismo.
Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas
coinciden. A este n umero com un se le llama orden de la matriz. Necesitaremos los
cambios de ndices para denir los determinantes de las matrices cuadradas. As, si
: N M es una biyecci on entonces, podramos denir det
MN
= det
M(N)
. El
unico pero es que, en principio, esta denici on no solo depende de la matriz
NM
sino tambien de la biyeccion . El cuanto depende esta denici on de lo responde la
siguiente proposici on.
110 Captulo 4. Determinantes
Si y son dos biyecciones de N en M en-
tonces, det
M(N)
= sgn

det
M(N)
.
Prueba. Observese que =
1
es una permutaci on de M y que las matrices

M(N)
y
M(N)
solo se diferencian en la permutaci on de las columnas . Aplquese
4.13.
No podemos poner la conclusion de este resultado como sgn det
M(N)
=
sgn det
M(N)
ya que como y son biyecciones de N en M ninguna de
las dos tiene signo.
Como el signo de cualquier permutaci on es o 1 o 1 esto quiere decir que el deter-
minante det
NM
esta denido salvo signo o sea, que hay un elemento a K tal que
el determinante es a o es a. En un campo de caracterstica dos esto es irrelevante ya
que en este caso 1 = 1. Sin embargo en los casos m as importantes (R y C) de que
el campo sea de caracterstica diferente de dos tenemos una ambig uedad al denir el
determinante det
NM
.
Esta ambig uedad se resuelve en diferentes casos de varias maneras. En muchos casos
no nos interesa el valor concreto det
MN
sino solamente saber si es cierto o no que
det
MN
= 0. Si este es el caso entonces, en realidad no nos importa que biyecci on
se escogi o para calcular el determinante. Por ejemplo, una matriz cuadrada
MN
se
le llama singular si det
MN
= 0, en el caso contrario se le llama no singular. Es
claro, que el ser singular o no singular NO depende de la biyecci on escogida para denir
det
MN
. Otro ejemplo, es que si una matriz tiene una columna o rengl on nulo entonces
su determinante es cero.
En otros casos lo importante no es el valor de alg un determinante sino una igualdad
entre estos. Al cambiar los ndices en ambos lados de la igualdad los determinantes
cambian en el mismo signo y la igualdad es cierta independientemente de los cambios de
ndices escogidos. Por ejemplo, las igualdades det
MN
= det
T
MN
y det (
LM

MN
) =
det
LM
det
MN
son validas independientemente de los cambios de ndices usados para
denir los determinantes.
Ejercicio 74 Pruebe que det

(L)M

M(N)

= det
(L)M
det
M(N)
, . [230]
En otros casos hay una biyeccion natural que nos dice cual debe ser el valor de
det
MN
. Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales.
En este caso podemos siempre escoger la unica biyeccion que conserva el orden. Por
ejemplo si N = {2, 3, 7} y M = {1, 4, 5} entonces la biyecci on adecuada es 2 1, 3 4,
7 5.
111 Seccion 4.3 Expansi on de Laplace
Y por que no escoger de los dos posibles valores aquel que sea mayor que ce-
ro? Primero, a veces se necesita el valor del signo del determinante y segundo
que quiere decir que 0 < x Z
5
? La desigualdad 0 < x solo tiene sentido si
en el campo est a dada una relaci on de orden. Este es el caso de R pero no el de Z
p
ni
el de C.
En muchos de los textos de algebra lineal esta ambig uedad se resuelve postulando que los
conjuntos de ndices siempre tienen que ser conjuntos de naturales. Esto no solamente es
innecesario, sino que tambien hace la exposici on mas compleja y conceptualmente menos
clara. Por ejemplo, las matrices de cambio de bases est an naturalmente indexadas por conjuntos de
vectores que no poseen un orden natural. M as a un, en algunos textos, las pruebas son incompletas
ya que inevitablemente hay que renumerar los renglones y/o columnas y no se demuestra que los
resultados son independientes de la renumeraci on.
Complementos algebraicos
Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual
todo es m as f acil. Sea
NN
una matriz y sean i, j N. La matriz
N\i N\j
se obtiene
de la matriz
NN
eliminando el rengl on i y la columna j. Habr a una manera natural
de denir el determinante de
N\i N\j
?. Veremos que si.
Sea : N\j N\i. una biyeccion cualquiera. Podemos denir (j) = i y de esta
sgndet
N\i (N\j)
manera se convierte en una permutacion de N. Denamos
el determinante det
N\i N\j
con la expresi on del recuadro a la
derecha. Parecera que no hemos hecho nada ya que en principio esta denicion depende
de .
La expresi on sgn det
N\i (N\j)
no depende de .
Prueba. Sea otra permutaci on de N tal que (j) = i. Aqu hay que tener cui-
dado. Por un lado es una biyecci on de N\j en N\i y por otro es una permutaci on
de N. Otro tanto ocurre con . Para evitar confuciones, a las permutaciones de N
las denotaremos en esta demostraci on por ^ y ^ respectivamente. Por 4.16 tenemos
que det
N\i (N\j)
= sgn

det
N\i (N\j)
. Observese que
1
es una per-
mutaci on de N\i. Que pasa con ^ ^
1
? Pues, en todo elemento de N\i coincide
con
1
y adem as ^ ^
1
(i) = i. Luego sgn

= sgn

^ ^
1

y por
las propiedades de la funci on signo se tiene que sgn

^ ^
1

= sgn ^ sgn ^ . Luego


det
N\i (N\j)
= sgn ^ sgn ^ det
N\i (N\j)
y pasando sgn ^ al otro lado de la igualdad
terminamos la prueba.
Ahora, podemos dar la siguiente denicion. Si
ij
es una entrada de la matriz A =

NN
entonces el complemento algebraico de
ij
es

ij
= sgn det
N\i (N\j)
donde
es cualquier permutaci on de N tal que (j) = i. A los complementos algebraicos
tambien se les llama cofactores. La matriz

NN
cuyas entradas son los complemento
algebraicos

ij
es la matriz de los complementos algebraicos de
NN
o matriz
de cofactores de
NN
.
112 Captulo 4. Determinantes
La expansi on de un determinante por sus renglones
Teorema de Expansi on de Laplace
Sea
iN
un renglon arbitrario de la matriz

NN
. El determinante de
NN
es igual a la
suma de las entradas del renglon por sus co-
factores.
det
NN
=
iN

iN
=
X
jN

ij

ij
Prueba. Si i N entonces tenemos la partici on del grupo simetrico en el
[
jN
S
ij
N
recuadro a la derecha donde S
ij
N
= { S
N
| (i) = j} . Luego, aplicando
la denicion de determinante y sacando factor com un obtenemos
det
NN
=
X
jN

ij
X
S
ij
N
sgn
Y
nN\i

n
n
Sea una permutaci on de N tal que (j) = i. Hagamos el cambio de variable
= en la sumatoria interior. Tenemos (i) = i o sea, S
ii
N
= S
N\i
. Luego,
det
NN
=
X
jN

ij
sgn
X
S
N\i
sgn
Y
nN\i

n
1
(
n
)
=
X
jN

ij

ij
donde la ultima igualdad se obtiene por la denici on de

ij
.
Como es natural hay un teorema exactamente igual a este correspondiente a las
columnas.
La expansi on de Laplace en forma graca
El Teorema de expansion de Laplace es la primera herramienta (aparte de la de-
nicion) de que disponemos para calcular determinantes. Este reduce el problema a
calcular varios determinantes de matrices m as peque nas. Es especialmente util cuando
hay renglones (o columnas) con muchos ceros.
Sin embargo, todava debemos precisar el como calcular los cofactores en forma
gr aca. Si bien, la denici on de estos es sencilla necesitamos encontrar una biyeccion
simple de N\i en N\j que facilite los calculos cuando N esta ordenado o sea N =
{1, ..., n}.
Sea por ejemplo i = 2 y j = 7. En este caso la biyec-
1 3 4 5 6 7 8 ... n

1 2 3 4 5 6 8 ... n
cion natural de N\2 en N\7 es la que se muestra en el
recuadro a la izquierda y la llamaremos . Tenemos
que denir (2) = 7 para completar una permutaci on
de N.
Sabemos que transforma 7 76 75 74 73 72 77 y que deja jos a todos
los dem as elementos de N. Luego, es un ciclo de longitud j i +1 (si i > j entonces
es un ciclo de longitud i j +1).
113 Seccion 4.3 Expansi on de Laplace
Como todo ciclo de longitud par tiene signo negativo y to-

+ +
+ +
+ +
+ +

do de longitud impar tiene signo positivo obtenemos sgn =


(1)
i+j
lo que es muy sencillo ya que es la regla del tablero
de ajedrez. A la derecha se muestra el sgn para una matriz
con 4 renglones y columnas. Observese el parecido con el tablero.
Con estas permutaciones, los complementos algebraicos tienen una interpretacion
det

11

12

13

14

21

22

23

24

31

32

33

34

41

42

43

44

gr aca muy sencilla. Si se quiere sacar el complemento algebraico de


ij
entonces
t achese el renglon i, t achese la columna j, saquese
el determinante de la matriz que queda y nalmen-
te multiplquese por el signo de la regla del tablero
de ajedrez. As por ejemplo, en el recuadro a la iz-
quierda se muestra una matriz de orden cuatro en la
cual estamos calculando el complemento algebraico
de
23
.
Al matem atico y fsico Pierre-Simon Laplace (Francia 1749-
1827) se le conoce fundamentalmente por sus trabajos en mec ani-
ca celeste, ecuaciones diferenciales y teora de las probabilida-
des. El publico la demostraci on del Teorema de Expansion de
Laplace (4.18) en 1772 en un artculo donde estudiaba las orbi-
tas de los planetas interiores del sistema solar. En este artculo,
Laplace analizo el problema de soluci on de sistemas de ecua-
ciones lineales mediante el uso de determinantes.
Ejercicio 75 T ome una matriz y calcule su determinante usando el teorema de des-
composicion de Laplace. Repita hasta que usted este satisfecho.
Ejercicio 76 Demuestre que el determinante de la matriz
ij
=
Y
1i<jn
(x
j
x
i
)
x
i1
j
es igual a la expresi on en el recuadro a la derecha. A este de-
terminante se le conoce como determinante de Vandermonde.
[230]
La expansi on de Laplace reduce el calculo del determinante de una matriz al calculo de de-
terminantes de matrices mas peque nas. Por esto es tambien usada para dar la denici on de
determinante mediante inducci on. En este caso, la f ormula de Leibniz es una consecuencia
de esta denici on.
Multinearidad de los determinantes
114 Captulo 4. Determinantes
El determinante se puede ver como una funci on del espacio de matrices en el cam-
A =

1 0
0 0

B =

0 0
0 1

po. Ser a el determinante una TL? Se cumplira que det (A+B) =


det A+det B? La respuesta es NO. Para probar que no, basta ver un
ejemplo. Consideremos las matrices A y B denidas a la izquierda.
Tenemos det A + det B = 0 6= 1 = det (A+B). Sin embargo, los
determinantes cumplen una propiedad bastante parecida.
Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama
funcionales lineales del espacio E. En esta terminologa vemos que la propiedad
det (A+B) 6= det A + det B lo que quiere decir es que el determinante NO es un
funcional lineal del espacio vectorial de las matrices. Pasemos a considerar una funci on
f con valor en Kde dos variables x, y que toman sus valores en E o sea, f : E
2
3 (x, y) 7
f (x, y) K. Como E
2
es un espacio vectorial sobre K entonces podra suceder que f
sea un funcional lineal. Sin embargo, hay una propiedad un poco mas sutil que podra
cumplir la funci on f y es que sea lineal en la primera variable. En otras palabras,
que y E se cumple que f (a +b, y) = f (a, y) + f (b, y) y f (a, y) = f (a, y).
An alogamente, se dene la propiedad de que f sea lineal en la segunda variable.
Si f es lineal en las dos variables entonces, se dice que f es un funcional bilineal (el
bi es porque son dos variables).
Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo
caso nos referiremos a los funcionales multilineales. Mas rigurosamente, sea f :
E
N
K una funci on donde N es un conjunto de variables. Sea i N una variable.
Podemos pensar a f como una funcion de dos variables f : E
N\i
E K. Si y E
N\i
la funcion E 3 x 7 f (y, x) K es un funcional lineal entonces, diremos que f es
lineal en la variable i. Diremos que f es un funcional multilineal si f es lineal en
todas sus variables. Por ejemplo, la funcion f : R
3
3 (x, y, z) 7 x + y + z R es un
funcional lineal. La funci on g : R
3
3 (x, y, z) 7 xyz R es un funcional multilineal
porque (x +x
0
) yz = xyz + x
0
yz y tambien para las otras variables. Observese que f
no es multilineal y que g no es lineal.
Ahora queremos ver que los determinantes son funcionales multilineales. El espacio
de matrices K
NN
es isomorfo a

K
N

N
. Un isomorsmo de estos es el que a cada matriz
le hace corresponder la N-ada de sus renglones. Luego, podemos pensar el determinante
como un funcional cuyas variables son los renglones y que toma valores en el campo.
El determinante es un funcional multilineal de los renglones.
Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en
cada variable. Sea i N arbitrario pero jo en toda esta prueba. Sea A =
NN
una
matriz tal que su i-esimo rengl on es la suma de dos N-adas x
N
y y
N
. Sea B la misma
matriz que A excepto que su i-esimo rengl on es x
N
. Sea C la misma matriz que A
excepto que su i-esimo renglon es y
N
. Tenemos que probar que det A = det B+det C.
(Si el lector no entiende porque entonces, debe regresar al principio de esta secci on y
115 Seccion 4.3 Expansi on de Laplace
volver a pensar la denici on de funcional multilineal y el porque el determinante es
un funcional de los renglones.) Usando la descomposici on de Laplace por el rengl on i
obtenemos
det
NN
=
iN

iN
= (x
N
+y
N
)

iN
= x
N

iN
+y
N

iN
= det B + det C
donde la ultima igualdad se cumple porque los cofactores de las matrices B y C de las
entradas del rengl on i son los mismos que los de la matriz
NN
.
Sea ahora A =
NN
una matriz tal que su i-esimo rengl on es x
N
. Sea B la misma
matriz que A excepto que su i-esimo rengl on es x
N
. Usando la descomposici on de
Laplace por el rengl on i obtenemos det
NN
=
iN

iN
= x
N

iN
= det B.
Por transposici on el determinante es tambien un funcional multilineal de las colum-
nas.
Los determinantes son los unicos funcionales multilineales de los renglones que son iguales
a 1 en la matriz identidad y que cambian por un factor de sgn cuando se permutan
los renglones con la permutaci on . Esto permite dar una denici on alternativa de los
determinantes. El primer problema aqu es demostrar la existencia del determinante.
La inversa de una matriz
Recordemos que, dada una matriz
MN
decimos que
NM
=
1
MN
es la matriz
inversa de
MN
si se cumple que
MN

1
MN
= I
MM
y
1
MN

MN
= I
NN
. Mediante el
isomorsmo de las matrices con las TLs concluimos que
MN
y
1
MN
son la matrices
de dos TLs una la inversa de otra y por lo tanto estas TLs son isomorsmos. Luego, si

MN
tiene inversa entonces, ella es cuadrada.
Sea : N M cualquier biyecci on. Es f acil ver usando la denici on de cambio
de ndices que
NM
=
1
MN
si y solo si
(N)M
=
1
M(N)
. O sea, cualquier cambio de
ndices apropiado reduce el c alculo de matrices inversas al caso en que el conjunto de
columnas coincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de
los ndices para poder enunciar m as f acilmente nuestros resultados.
La siguiente proposicion nos dice que para probar que una matriz es inversa de otra
es suciente comprobar una de las dos igualdades involucradas en la denici on. Aqu,
la clave es que las matrices son nitas y cuadradas lo que signica que sus TLs son
entre espacios de la misma dimension nita.
Si AB = I entonces, BA = I.
Prueba. Sea f, g : K
M
K
M
las TLs de las matrices A y B respectivamente.
Mediante el isomorsmo de las matrices con las TLs concluimos que f g = I. De 3.32
(p agina 90) obtenemos que g f = I y por lo tanto BA = I.
116 Captulo 4. Determinantes
Si una matriz tiene inversa entonces ella es
no singular. Adem as, det A
1
= (det A)
1
.
Prueba. Por denicion de matriz inversa tenemos 1 = det I = det

AA
1

= det Adet A
1
y por lo tanto det A 6= 0 y det A
1
= (det A)
1
.
Para probar que el recproco de esta armacion tambien es cierto, lo que haremos
es construir la matriz inversa en el caso de que el determinante sea diferente de cero.
Si A es una matriz no singular entonces, su
inversa es la transpuesta de la matriz de sus
cofactores dividida por el determinante de A.
A
1
=
A
T
det A
Prueba. Para hacer la demostraci on lo que hay que hacer es multiplicar. Sea
MM
=
A y B =
MM
= (det A)
1
A
T
. Tenemos
Mj
= (det A)
1

jM
y de la denici on
de producto de matrices obtenemos que la entrada ij de la matriz AB es igual a

iM

Mj
= (det A)
1

iM

jM
. Si i = j entonces
iM

jM
es la expansi on de Laplace del
det A por el rengl on i de lo que obtenemos que
iM

Mj
= 1.
Solo queda probar que
iM

jM
= 0 si i 6= j. Si nos jamos atentamente, vemos que
esta es la expansi on de Laplace por el rengl on j del determinante de la matriz C obtenida
de la matriz A substituyendo el rengl on j por el rengl on i. Como la matriz C tiene dos
renglones iguales entonces, su determinante es cero y necesariamente
iM

jM
= 0.
El determinante de un operador lineal
Sea f End E un OL. Si escogemos una base de E entonces en esta base el OL f
tiene por coordenadas una matriz A. Podramos denir det f = det A. Sin embargo, no
nos queda claro si esta denici on depende o no de como hallamos escogido la base.
Si A y B son las matrices de f End E
en dos bases entonces, det A = det B.
Prueba. Sean A =
MM
y B =
NN
las matrices de f en las bases M y N respectiva-
mente. Por la f ormula del cambio de bases para matrices (3.23) tenemos B =
NM
A
1
NM
donde
NM
es la matriz de cambio de la base M a la base N. Tenemos
det
NN
= det

NM

MM

1
NM

= det
NM
det
MM
det
1
NM
= det
MM
ya que por 4.21 la igualdad det
NM
(det
NM
)
1
= 1 es cierta e independiente del
cambio de ndices que se utilize para denir el determinante de
NM
.
Luego, el determinante del OL f es por denici on del determinante de su matriz
en alguna base y esto no depende de la base escogida.
117 Seccion 4.4 La expansi on generalizada de Laplace
4.4 La expansi on generalizada de Laplace
Ahora generalizaremos dram aticamente el teorema de expansi on de Laplace. Sea

NN
una matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnos
mucha escritura, denotemos I
0
= N\I y J
0
= N\J. Adem as, denotemos por
IJ
=
det
IJ
el determinante de la matriz cuyas columnas son las de J y cuyos renglones
son los de I. Claro, este determinante est a denido solo salvo signo. De los signos
no nos preocuparemos ahora sino solo mas adelante. Por otro lado, denotemos por

IJ
= det
I
0
J
0 el determinante de la matriz cuyas columnas son las que no est an en
J y cuyos renglones son los que no estan en I (no nos preocupemos por los signos).
En estas notaciones, un sumando del Teorema de expansion de Laplace es de la forma

IJ

IJ
donde I y J son subconjuntos de cardinal 1. Nos gustara tener un teorema de
expansi on donde los subconjuntos sean de un cardinal jo pero arbitrario.
Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la
(x) =


1
(x) si x J

2
(x) si x L
siguiente proposici on nos dice que esto realmente no
es un problema. Sean
1
: J I y
2
: J
0
I
0
dos
biyecciones. Denotemos =
1

2
la permutaci on
de N denida en el recuadro a la derecha.
La expresi on sgn det
I
1
(J)
det
I
0

2
(J
0
)
no depende de las biyecciones
1
y
2
.
Prueba. Sean
1
y
2
otras dos biyecciones y =
1

2
. Por 4.16 tenemos
det
I
1
(J)
= sgn

1

1
1

det
I
1
(J)
y det
I
0

2
(J
0
)
= sgn

2

1
2

det
I
0

2
(J
0
)
. Mul-
tiplicando estas dos igualdades vemos que solo nos queda probar que
sgn

1

1
1

sgn

2

1
2

= sgn

.
Para esto, denotemos
1
=
1

1
1
,
2
=
2

1
2
y =
1
. De las deniciones es
inmediato que (y) =
1
(y) si y I y (y) =
2
(y) si y I
0
. Como
1
S
I
,
2
S
I
0 ,
S
N
y los conjuntos I, I
0
son complementarios en N entonces, =
1

2
=
2

1
y esto implica la igualdad de los signos que necesitabamos.
Ahora, para I, J subconjuntos de N denamos
IJ
y
IJ

IJ
= det
I(J)

IJ
= sgn det
I
0
(J
0
)
con las f ormulas de la derecha donde denota una permuta-
ci on (arbitraria pero la misma para las dos deniciones) tal
que (J) = I (y en consecuencia (J
0
) = I
0
). Esta denici on no es correcta en el sentido
de que ambos
IJ
y
IJ
dependen de . Sin embargo
IJ

IJ
no depende de y esto
es lo importante.
118 Captulo 4. Determinantes
Expansion Generalizada de Laplace
Si I un conjunto de p renglones de la matriz
NN
en-
tonces, det
NN
=
P

IJ

IJ
donde la suma recorre to-
dos los subconjuntos de columnas J de cardinalidad p.
det
NN
=
X
|J|=p

IJ

IJ
Prueba. Si I N y |I| = p entonces, tenemos la partici on del gru-
[
|J|=p
S
IJ
N
po simetrico a la derecha donde S
IJ
N
= { S
N
| (I) = J}. Aplicando la
denicion de determinante obtenemos
det
NN
=
X
|J|=p
X
S
IJ
N
sgn
Y
nN

nn
Sea una permutaci on de Ntal que (J) = I. Hagamos el cambio de variable = .
Entonces,
det
NN
=
X
|J|=p
sgn
X
S
II
N
sgn
Y
nN

i
1
(
n
)
Como (I) = I entonces, (I
0
) = I
0
. Luego se puede descomponer en la composici on
de dos permutaciones donde S
I
y S
I
0 . Substituyendo por la
suma se convierte en suma doble y si sacamos factores comunes obtendremos:
det
NN
=
X
|J|=p
sgn

X
S
I
sgn
Y
nI

i
1
(
n
)
!

X
S
I
0
sgn
Y
nI
0

i
1
(
n
)

Lo contenido en el primer parentesis es det


I(J)
=
IJ
. Lo contenido en el segundo
parentesis es det
I
0
(J
0
)
y este determinante multiplicado por sgn es
IJ
.
Como ya es costumbre tediosa, hagamos la observaci on de que tambien es valida la
Expansi on Generalizada de Laplace cuando la hacemos por un conjunto de columnas.
Matrices diagonales y triangulares por bloques
Sea
MM
una matriz. Supongamos que existe una partici on M
1
M
t
= M
y que
ij
= 0 si i y j pertenecen a bloques diferentes. Entonces decimos que
MM
es diagonal por bloques. Si cada M
i
contiene un solo ndice entonces decimos que

MM
es diagonal.
Supongamos ahora que, para la partici on M
1
M
t
= M se cumple que si
i M
p
, j M
q
y p < q entonces
ij
= 0. En este caso, decimos que
MM
es
triangular por bloques. Si cada M
i
tiene un solo ndice entonces decimos que
MM
es triangular. Es claro de las deniciones que toda matriz diagonal por bloques es
triangular por bloques. En particular, toda matriz diagonal es triangular.
Si
MM
es una matriz triangular por bloques entonces,
det
MM
=
Q
t
i=1
det
M
i
M
i
.
Prueba. Haremos la prueba por inducci on en el n umero de bloques t. Para t = 1 la
proposici on es trivial. Denotemos M
0
= M\M
1
. Aplicando la expansion generalizada
119 Seccion 4.4 La expansi on generalizada de Laplace
de Laplace al conjunto de renglones I = M
1
obtenemos det
MM
=
P
|J|=|I|

IJ

IJ
.
Si J 6= I entonces, en
IJ
hay una columna j / M
1
y por lo tanto j M
q
con 1 < q.
Luego, por denicion de matriz triangular, i I = M
1
se tiene que
ij
= 0. O sea, la
columna j es cero en
IJ
e independientemente de la biyecci on que se escoja para calcular
el deteminante tenemos
IJ
= 0. Luego, det
MM
=
II

II
= det
M
1
M
1
det
M
0
M
0 . La
matriz M
0
es triangular por bloques con un bloque menos y por hipotesis de inducci on
det
M
0
M
0 =
Q
t
i=2
det
M
i
M
i
.
Ejercicio 77 Cuales de las siguentes matrices son triangulares?
A =

a 0 0
1 b 0
1 1 c

B =

a 1 1
0 b 1
0 0 c

C =

a 1 1
0 b 0
0 1 c

[231]
Ejercicio 78 Sean M = {1, . . . , 5} y
MM
una matriz triangular por los bloques
M
1
= {1, 2}, M
2
= {3} y M
3
= {4, 5}. Cual es el aspecto de
MM
en forma gr aca?
[231]
La expansi on generalizada de Laplace en forma gr aca
Ahora, precisaremos los signos de las biyecciones en la expansion generalizada de
Laplace cuando la matriz est a dada en forma gr aca. Como esto es util solo para
calcular el determinante de matrices concretas y hacerlo as es por lo general extre-
madamente ineciente y complicado, recomiendo omitir en una primera lectura lo que
resta de esta secci on.
Si N = {1, . . . , n} entonces, entre dos cualesquiera subconjuntos I, J N del mismo
cardinal hay una biyecci on natural que conserva el orden. Para esto, introduscamos la
notaci on {m
1
, m
2
, . . . , m
t
}
<
para se nalar que p {2, . . . , t} se tiene que i
p1
< i
p
.
Ahora, si I = {i
1
, . . . , i
t
}
<
y J = {j
1
, . . . , j
t
}
<
entonces, la biyecci on es
1
: I 3 i
p
7
j
p
J. Tambien, tenemos una biyecci on natural entre los complementos de I y J.
Para esto sean K = N\I = {k
1
, . . . , k
s
}
<
y L = N\J = {`
1
, . . . , `
s
}
<
y denamos

2
: K 3 k
p
7 `
p
L. Luego, para cualesquiera subconjuntos I, J N del mismo
cardinal la permutaci on
J
I
=
1

2
cumple lo necesario para calcular el signo de un
sumando de la expansi on generalizada de Laplace, o sea
J
I
(I) = J y
J
I
(N\I) = N\J.
Observese, que la biyeccion
1
es la natural de renglones a columnas que se obtiene
si en una matriz
NN
tachamos todos los renglones con ndices en K y todas las colum-
nas con ndices en L. De la misma manera
2
es la biyeccion de renglones a columnas
si tachamos todos los renglones con ndices en I y todas las columnas con ndices en J.
Calculemos el signo de
J
I
. Al estudiar la expansi on (normal) de Laplace en forma
(j, j 1, , i +1, i) si j > i
(j, j +1, , i 1, i) si j < i
gr aca vimos que si I = {i} y J = {j} entonces,

J
I
=
j
i
es el ciclo que se muestra a la derecha y
por lo tanto sgn
j
i
= (1)
i+j
(la regla del tablero
de ajedrez).
120 Captulo 4. Determinantes
sgn
J
I
= sgn
j
1
i
1
sgn
J\j
1
I\i
1
.
Prueba. Sea =

J
I

1

J\j
1
I\i
1
. Tenemos que demostrar que sgn = (1)
i
1
+j
1
.
(k
p
, k
p+1
, , k
q1
, i
1
) si p < q
(k
p1
, k
p2
, , k
q
, i
1
) si p > q
I si p = q
Para esto, recordemos que K = N\I = {k
1
, . . . , k
s
}
<
y L = N\J = {`
1
, . . . , `
s
}
<
. Sea p el
menor ndice tal que i
1
< k
p
y sea q el menor ndice tal que j
1
< `
q
(es admisible que
p = s+1 y/o q = s+1). Usando la denicion de
calculamos que esta permutacion es igual a la
del recuadro a la izquierda. Luego, es siempre
un ciclo de longitud |p q| + 1 y por lo tanto
sgn = (1)
p+q
.
Como i
1
y j
1
son los elementos m as peque nos de I y J respectivamente entonces, te-
nemos que {k
1
, . . . , k
p1
, i
1
}
<
= {1, . . . , p 1, p} y {`
1
, . . . , `
q1
, j
1
}
<
= {1, . . . , q 1, q}
y de aqu nalmente, p = i
1
y q = j
1
.
Iterando este resultado obtenemos sgn
J
I
= sgn
j
1
i
1
sgn
j
2
i
2
sgn
j
t
i
t
. Observese
que
i
r
j
r
son las entradas en la diagonal de la submatriz
IJ
de
NM
. Luego, para
hallar sgn
J
I
lo que hay que hacer es multiplicar los signos de la regla del tablero de
ajedrez de los elementos en la diagonal de
IJ
. Tambien se puede hacer, calculando la
paridad de
P
iI
i +
P
jJ
j.
Ejemplo. Calculemos el determinante de una matriz
NN
del re-

4 5 1 1
1 2 3 2
4 5 2 3
1 2 3 4

cuadro a la izquierda haciendo la expansi on generalizada de Laplace


por el conjunto I del segundo y cuarto renglones. Tenemos que re-
correr todos los subconjuntos J de dos columnas.
Observese, que si la columna 4 no esta en J entonces la matriz
IJ
tiene dos renglones
iguales por lo que todos los sumandos correspondientes en la expansi on ser an cero.
Ademas, para J = {3, 4} la matriz
N\I N\J
tiene dos renglones iguales por lo que
tambien el correspondiente sumando es cero.
Solo nos quedan dos sumandos cuando J = {1, 4} y
J = {1, 4} J = {2, 4}

+
+

+ +
+ +

cuando J = {2, 4}. Para ellos podemos extraer del table-


ro de ajedrez las submatrices del recuadro a la derecha
y multiplicando los signos en las diagonales obtenemos
sgn
{1,4}
I
= 1 y sgn
{2,4}
I
= 1. Luego, por la expansi on generalizada de Laplace el
determinante de nuestra matriz es igual a

2 2
2 4

4 1
4 2

1 2
1 4

5 1
5 2

= 4 4 2 5 = 6
donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.
121 Seccion 4.5 El rango de una matriz
4.5 El rango de una matriz
En esta seccion deniremos las bases de una matriz como las submatrices m as
grandes con determinante diferente de cero. Probaremos que las bases de una matriz
denen y estan denidas por las bases de los espacios de columnas y renglones. Esto
es el fundamento de los diversos metodos de solucion de los sistemas de ecuaciones
lineales.
Matrices no singulares
Agrupemos en un solo resultado lo que hemos probado para las matrices no singu-
lares.
Caracterizacion de Matrices No Singulares
Para cualquier matriz cuadrada A las
siguientes armaciones son equivalentes:
1. A tiene inversa, 3. los renglones de A son LI,
2. A es no singular, 4. las columnas de A son LI.
Prueba. La implicaci on 12 es el resultado 4.21. La implicacion 21 es el resultado
4.22. La equivalencia 14 es el resultado 3.21 (p agina 82). De aqu, 24 y como los
determinantes no cambian por transposicion obtenemos 23.
Espacios de columnas y renglones
Al subespacio de K
N
generado por los renglones de la matriz
MN
se le llama
espacio de renglones de la matriz. Aqu tenemos un peque no problema: es posible
que halla renglones iguales y los conjuntos no distinguen elementos iguales. Por esto,
diremos que un conjunto de renglones es LI si ellos son distintos dos a dos y es LI en
el espacio de renglones de la matriz. Un conjunto de renglones distintos dos a dos que
es una base del espacio de renglones lo llamaremos base de los renglones de
MN
.
An alogamente se dene el espacio de columnas de una matriz, los conjuntos de
columnas LI y las bases de las columnas.
Reformulemos el resultado 3.30 (p agina 89) en el lenguaje de matrices.
Las dimensiones del espacio de columnas y del
espacio de renglones de una matriz coinciden.
Prueba. Sea
MN
una matriz. Observemos que la TL de esta matriz denida por
f : K
N
3
N
7
MN

N
K
M
tiene como imagen al espacio de columnas de la
matriz
MN
ya que f evaluada en los vectores de la base can onica de K
N
resulta en las
columnas de
MN
. Por lo mismo, la TL transpuesta f
T
tiene como imagen al espacio
122 Captulo 4. Determinantes
de renglones de
MN
. Por 3.30 las dimensiones de estos espacios coinciden.
A la dimensi on de los espacios de renglones y columnas se le llama rango de la
matriz.
Lema de aumento de matrices no singulares
El siguiente lema es parte importante de las demostraciones de los que siguen. Su
demostracion es cl asica e ingeniosa. Este lema es en cierta manera analogo al lema de
aumento de conjuntos LI que vimos en el Captulo 2.
Lema de Aumento de Submatrices No Singulares
Sea
IJ
una submatriz cuadrada no singular de
MN
. Sea m M\I
tal que el conjunto de renglones indexado por I m es LI.
Entonces, existe n N tal que la matriz
Im Jn
es no singular.
Prueba. Denotemos B
n
=
Im Jn
. Al absurdo, supongamos que n N\J se
B
n
=


IJ

In

mJ

mn

cumple que det B


n
= 0. Si n J entonces, denotemos por B
n
la matriz
Im J
a la
que articialmente le agregamos otra columna n. En este caso B
n
tiene dos columnas
iguales y por lo tanto tambien det B
n
= 0. Para cualquier n, podemos pensar la matriz
B
n
gr acamente como se muestra en el recuadro. Sean B
in
los
cofactores de las entradas de la ultima columna en la matriz
B
n
. Observemos que en la denici on de los B
in
no estan invo-
lucradas las entradas de la ultima columna. Luego, B
in
no depende de n y podemos
denotar B
in
=
i
K. De la expansion de Laplace por la ultima columna en la matriz
B
n
obtenemos:
0 = det B
n
=
X
iM

in
B
in
=
X
iM

in

i
.
Como esto es valido n N concluimos que
M

MN
= 0
N
. Como
m
= det
IJ
6= 0
esto signica que los renglones de
MN
estan en una combinaci on lineal nula con
coecientes no todos nulos. Esto contradice la hipotesis de que sus renglones son LI.
Bases de una matriz
Sea
MN
una matriz. Entre las submatrices cuadradas no singulares de
MN
tene-
mos la relaci on de contenci on
(
I
0
J
0
IJ
) (I
0
I y J
0
J)
Una base de
MN
es una submatriz no singular maximal por contenci on.
123 Seccion 4.5 El rango de una matriz
Caracterizacion de las Bases de una Matriz
Una submatriz
IJ
es una base de una matriz si y solo si el con-
junto de renglones indexado por I es una base de los renglones y el
conjunto de columnas indexado por J es una base de las columnas.
Prueba. Sea
IJ
una submatriz de
MN
. Es conveniente

MN
=


IJ

IY

XJ

XY

denotar X = M \ I y Y = N \ J y pensar que


MN
es de
la forma en el recuadro a la derecha. Supongamos que
IJ
es cuadrada y que es una base de
MN
. Entonces, por la Caracterizaci on de Matrices
No Singulares (4.28) los renglones y las columnas de
IJ
son LI y con m as raz on los
renglones de
IN
y las columnas de
MJ
son LI .
Si estos renglones de
IN
no son una base de los renglones de
MN
entonces, existe
otro rengl on indexado por m X tal que el conjunto de renglones indexado por I m
es LI y por el Lema de Aumento de Submatrices No Singulares (4.30) existe n Y
tal que
Im Jn
es no singular y esto contradice la suposici on de que
IJ
es una base.
Luego, los renglones de
IN
son una base de los renglones y por 4.29 las columnas de

MJ
son una base del espacio de columnas.
Recprocamente, supongamos que los renglones de
IN
y las columnas
MJ
son
bases de los renglones y las columnas de
MN
respectivamente. Por 4.29, la submatriz

IJ
es cuadrada. Sabemos que los renglones de
IN
son LI. Las columnas de
MJ
es un
generador del espacio de columnas de
MN
y con m as raz on las columnas de
IJ
son un
generador del espacio de columnas de
IN
. Aplicando 4.29 a la matriz
IN
obtenemos
que las columnas de
IJ
son un generador con la misma cantidad de vectores que la
dimensi on del espacio y por lo tanto son LI. Por la Caracterizaci on de Matrices No
Singulares (4.28) la matriz
IJ
es no singular.
Si hubiera una submatriz
Im Jn
no singular entonces por la Caracterizaci on de
Matrices No Singulares (4.28) sus renglones seran LI y con m as raz on los renglones de

Im N
seran LI. Esto contradice que los renglones de
IN
es una base de los renglones
de
MN
. Luego,
IJ
es una base de la matriz
MN
.
Una consecuencia importante de la Caracterizaci on de las Bases de una Matriz
(4.31) es que todas las bases de una matriz tienen orden igual al rango de la matriz.
Ejercicio 79 Sean E = F G espacios vectoriales y x
i
= (y
i
, z
i
) vectores donde
x
i
E, y
i
F y z
i
G. Pruebe que si los y
i
son LI entonces los x
i
son LI. Pruebe
que si los x
i
son generadores entonces los y
i
son generadores. Esto es lo que se usa en
la prueba de la Caracterizaci on de las Bases de una Matriz (4.31) cada vez que se usa
la frase con m as raz on.
124 Captulo 4. Determinantes
4.6 Sistemas de ecuaciones lineales
Sea A =
NM
una matriz y x
M
= x
M1
una columna. El producto
X
jM

ij
x
j
= b
i
de estas matrices es nuevamente una columna
NM
x
M1
= b
N1
= b
N
.
Si desarrollamos este producto por la denici on de producto de ma-
trices entonces obtenemos para cada i N la igualdad en el recuadro
a la derecha.
Como ya es usual podemos interpretar la columna x
M
como un vector x en el
espacio vectorial K
M
y a b
N
como un vector b en el espacio K
N
y en estas notaciones
la igualdad se escribe en una forma m as simple Ax = b. Supongamos que A es una
matriz ja. Si hacemos variar x en K
N
entonces esta igualdad la podemos pensar
como una TL de K
M
en K
N
. Como es logico, si conocemos x entonces como sabemos
multiplicar matrices hallamos b = Ax. M as difcil es el problema inverso, si se conoce
b entonces, como hallar x tal que Ax = b?
A una igualdad de la forma Ax = b donde A y b son conocidos y x es incognita
se le llama sistema de ecuaciones lineales. Oh, gran confusi on! porque sistema?
porque ecuaciones en plural si nada m as tenemos UNA?. La respuesta a estas pregun-
tas no es gran misterio, es un problema hist orico. Cuando sobre la faz de la Tierra a un
no vivan las matrices y los vectores, los humanos necesitaban encontrar unos numeri-
tos x
j
tales que para cualquier i N se cumpla que
P
jM

ij
x
j
= b
i
. Observese que
se necesitan encontrar |M| numeritos. En el caso de que |N| = 1 se deca que tenemos
que resolver una ecuaci on lineal. Para el caso |N| > 1 los numeritos x
j
deberan de
cumplir todas y cada una de las ecuaciones (para cada i N) y entonces, se deca que
se necesitaba resolver un sistema (conjunto, coleccion, cualquier cosa que signique
que hay muchas) de ecuaciones lineales. De hecho, para acercarnos m as a la verdad,
debemos substituir en todo lo dicho los se deca por se dice en presente. Luego,
hay dos formas de ver los sistemas de ecuaciones lineales:
Tenemos que encontrar |M| elementos del campo x
j
tales
que para cualquier i, se cumple la igualdad
P
jM

ij
x
j
=
b
i
,
Tenemos que encontrar un vector x K
M
tal que Ax = b.
Ambas formas son en esencia la misma ya que encontrar un vector x es lo mis-
mo que encontrar todas sus coordenadas x
j
. Sin embargo, la elegancia de la segun-
da forma hace que nuestra manera de pensarlo sea mucho m as simple y sistemati-
ca (a costo de aprender sobre matrices y vectores). Por ejemplo, si ocurre que la
matriz A es no singular entonces multiplicando por A
1
a la izquierda obtenemos
Ax = b A
1
Ax = A
1
b x = A
1
b y como ya sabemos encontrar la matriz
inversa y sabemos multiplicar matrices la soluci on del sistema de ecuaciones lineales
est a a la mano. Esto no signica que ya sepamos resolver todos los sistemas de ecua-
ciones lineales ya que para que una matriz sea no singular se necesita primero que sea
cuadrada y que adem as el determinante sea diferente de cero.
125 Seccion 4.6 Sistemas de ecuaciones lineales
Regla de Cramer
Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz
del sistema y al vector b lo llamaremos vector de coecientes libres. Denotaremos
por A(j) la matriz obtenida de la matriz del sistema substituyendo la j-esima columna
por el vector de coecientes libres. Un ejemplo de esta substitucion es el siguiente
A =

1 2 3
4 5 6

, b =

7
8

, A(2) =

1 7 3
4 8 6

.
Regla de Cramer
Si la matriz A es no singular entonces, la j-esima
coordenada x
j
del vector x es igual al determi-
nante de A(j) dividido entre el determinante de A.
x
j
=
det A(j)
det A
Prueba. Sea
NM
es una matriz no singular. Ya observamos que en este caso ne-
cesariamente x =
1
NM
b. Denotemos por
ij
las entradas de
1
NM
entonces, tenemos
x
j
=
jN
b
N
. Por 4.22 tenemos que
jN
=

Nj
/ det
NM
y de aqu x
j
det
NM
= b
N

Nj
.
Para terminar la demostraci on basta observar que la expresi on a la derecha de la igual-
dad es la expansi on de Laplace de A(j) por la columna j.
Gabriel Cramer (Suiza 1704-1752) public o su famosa regla en
el artculo Introducci on al an alisis de las curvas algebraicas
(1750). Esta surgi o del deseo de Cramer de encontrar la ecuaci on
de una curva plana que pasa por un conjunto de puntos dado. El
escribe su regla en un apendice del artculo y no da prueba algu-
na para ella. Este es uno de los orgenes hist oricos del concepto
de determinante. Es curioso (y educativo) ver con que palabras
Cramer formula su regla:
Uno encuentra el valor de cada indeterminada formando n
fracciones el com un denominador de las cuales tiene tantos termi-
nos
como las permutaciones de n cosas.
Cramer contin ua explicando como se calculan estos terminos como productos de
ciertos coecientes de las ecuaciones y como se determina el signo. El tambien se nala
como los numeradores de las fracciones se pueden encontrar substituyendo ciertos co-
ecientes de los denominadores por los coecientes libres del sistema.
Para nosotros, con m as de dos siglos de ventaja, es mucho m as f acil. Las n frac-
ciones son det A(j) / det A y el com un denominador es det A (que tiene tantos
sumandos como las permutaciones de n cosas).
126 Captulo 4. Determinantes
La Regla de Cramer (4.32) tiene fundamentalmente un interes historico por ser
uno de los orgenes del concepto de determinante. Es necesario recalcar que esta regla
solo funciona para el caso de que la matriz es no singular. O sea, cuando en el sistema
se tienen tantas incognitas como ecuaciones y el determinante de la matriz del sistema
no es nulo.
Existencia de soluciones
Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:
Existe una solucion?
Como encontrar una soluci on en el caso de que exista?
Como encontrar TODAS las soluciones?
La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz
no singular: la soluci on existe, es unica y se halla por la Regla de Cramer. Ahora
responderemos en general la primera pregunta.
Primero, una denici on. Si Ax = b es un sistema de ecuaciones lineales entonces
la matriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la
matriz del sistema a nadiendo el vector columna de coecientes libres b.
Teorema de Existencia de Soluciones
El sistema Ax = b tiene una soluci on si y solo si el rango de la
matriz del sistema coincide con el rango de la matriz ampliada.
Prueba. Por denici on de rango de una matriz siempre se tiene que rank A
rank (A|b) . Que coincidan es equivalente por la Caracterizaci on de las Bases de una
Matriz (4.31) a que b sea combinaci on lineal de las columnas de A. El que b sea com-
binacion lineal de las columnas de A es equivalente a la existencia de escalares x
j
tales
que
iN
x
N
= b
i
o sea a que Ax = b tenga al menos una soluci on.
Eliminaci on de ecuaciones dependientes
Lema de Eliminacion de Ecuaciones Dependientes
Sea I el conjunto de ndices de una base de renglones de la ma-
triz ampliada (
MN
|b
M
). Entonces, el conjunto de soluciones de

MN
x
N
= b
M
es exactamente el mismo que el de
IN
x
N
= b
I
.
Prueba. Como
MN
x
N
= b
M
tiene mas ecuaciones que
IN
x
N
= b
I
entonces cada
soluci on de
MN
x
N
= b
M
es solucion de
IN
x
N
= b
I
.
127 Seccion 4.6 Sistemas de ecuaciones lineales
Recprocamente, sea x
N
tal que
IN
x
N
= b
I
y m M\I. El rengl on (
mN
|b
m
)

mN
=
I

IN
b
m
=
I
b
I
es combinaci on lineal de los indexados por I. Luego existen escalares

i
tales que se cumplen las igualdades a la derecha. Multiplicando
la primera igualdad por x
N
y usando la denici on de x
N
obtenemos

mN
x
N
=
I

IN
x
N
=
I
b
I
= b
m
y por lo tanto x
N
satisface todas las ecuaciones del
sistema
MN
x
N
.
Otra manera, m as algortmica, de ver este lema es que si tenemos un sistema de
ecuaciones
MN
x
N
= b
M
y un rengl on de este sistema es combinacion lineal de los
demas entonces, debemos eliminar la ecuacion correspondiente a este rengl on. El Lema
de Eliminacion de Ecuaciones Dependientes (4.34) nos garantiza que esta operaci on
no altera el conjunto de soluciones. Repitiendo esta operaci on una cierta cantidad de
veces, obtenemos una matriz ampliada con renglones LI.
El nucleo y la imagen de una matriz
Sea
MN
una MN-matriz. Ella es la matriz de la TL f : K
N
3 x
N
7
MN
x
N

K
M
. Luego, podemos denir la imagen de la matriz
MN
como Im
MN
= Imf y
el nucleo de la matriz
MN
como ker
MN
= ker f. Pasemos ahora a analizar la
imagen. Por denicion de imagen tenemos Im
MN
= {
M
| x
N

MN
x
N
=
M
}. O
sea, Im
MN
es el conjunto de vectores
M
tales que el sistema de ecuaciones lineales

MN
x
N
=
M
tiene al menos una soluci on. Tenemos
MN
x
N
=
P
iN

Mi
x
i
que es una
combinaci on lineal de las columnas. Luego, Im
MN
es el subespacio generado por las
columnas de la matriz
MN
. Adem as, si
N
es una solucion de
MN
x
N
=
M
entonces,
3.33 (pagina 91) nos dice que el conjunto de todas sus soluciones es el subespacio afn

N
+ ker
MN
. Resumamos todo lo dicho en 4.35 para referencias futuras.
El subespacio ker
MN
es el conjunto de soluciones de
MN
x
N
= 0
M
.
El subespacio Im
MN
es el generado por las columnas de
MN
.
Si
N
es una soluci on de
MN
x
N
=
M
entonces, el conjunto de todas
sus soluciones es el subespacio afn
N
+ ker
MN
.
Bases del subespacio afn de soluciones
Ahora daremos la soluci on general de los sistemas de ecuaciones lineales. Sea
MN
x
N
=
b
M
un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema

MN
tiene el mismo rango que la matriz ampliada [
MN
|b
M
] porque si no entonces,
el conjunto de soluciones es vaco. Segundo, podemos suponer que la matriz ampliada
[
MN
|b
M
] tiene renglones linealmente independientes porque si no, entonces podemos
descartar aquellos que son combinacion lineal de otros.
128 Captulo 4. Determinantes
Luego existe un conjunto de columnas J M tal que
MJ
es una base de la matriz

MJ
x
J
+
MY
x
Y
= b
M
ampliada [
MN
|b
M
]. Denotando por Y al conjunto de columnas que no est an en la base
podemos representar nuestro sistema de ecuaciones lineales
como se muestra en el recuadro a la izquierda.
Aqu las incognitas x
J
y x
Y
son aquellas que se corresponden con las columnas en J
y Y respectivamente. Por ejemplo, en el sistema de ecuaciones
2x
1
+1x
2
+1x
3
+0x
4
= 5
3x
1
+2x
2
+0x
3
+1x
4
= 5
podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera
y cuarta columnas. Luego a este sistema lo podemos escribir como

2 1
3 2

x
1
x
2

1 0
0 1

x
3
x
4

=

5
5

.
Ahora, como la matriz
MJ
tiene inversa, lo que hacemos es simplemente despejar
x
J
y obtenemos x
J
=
1
MJ
b
M

1
MJ

MY
x
Y
. En nuestro ejemplo obtenemos

x
1
x
2

=

5
5

2 1
3 2

x
3
x
4

=

2x
3
x
4
+5
3x
3
+2x
4
5

Esto describe en forma par ametrica el conjunto de todas las soluciones, para cual-
quier vector x
Y
hay una solucion

1
MJ
b
M

1
MJ

MY
x
Y
, x
Y

del sistema. Otra manera


de describir el conjunto solucion es ponerlo en la forma descrita en 4.35. Para encontrar
una solucion ponemos x
Y
= 0 y en nuestro ejemplo el vector soluci on es (5, 5, 0, 0).
Para encontrar el nucleo de la matriz del sistema ponemos b
M
= 0. Para encontrar
una base del nucleo recorremos con x
Y
a la base can onica de K
Y
. En nuestro ejemplo
(x
3
, x
4
) = (1, 0) (x
1
, x
2
) = (7, 8)
(x
3
, x
4
) = (0, 1) (x
1
, x
2
) = (4, 3)
y nalmente obtenemos que el conjunto de soluciones (x
1
, x
2
, x
3
, x
4
) es el subespacio
afn
(5, 5, 0, 0) +(1, 0, 7, 8) + (0, 1, 4, 3)
donde y son escalares cualesquiera.
4.7 Metodo de eliminacion de Gauss
La idea del metodo de eliminaci on de Gauss es realizar ciertas transformaciones de
las matrices que no cambian lo que se pretende calcular y que convierte a las matrices en
otras con muchas entradas iguales a cero. Este es el metodo m as universal y eciente (al
menos manualmente) para calcular los determinantes, el rango, el nucleo, las matrices
inversas, etc. Aqu, estudiaremos brevemente este metodo.
Transformaciones elementales
Sea
MN
una matriz. Sean
iN
,
jN
dos renglones de
MN
y K un escalar.
Denotemos
jN
=
iN
+
jN
y sea
MN
la matriz obtenida de
MN
reemplazando
129 Seccion 4.7 Metodo de eliminaci on de Gauss
el rengl on
jN
por la N-ada
jN
. A la operacion que dados
MN
, i, j y obtenemos

MN
se le llama transformaci on elemental de los renglones. Otra manera util
de pensar las transformaciones elementales de los renglones es que en la matriz
MN
al rengl on
jN
le sumamos el rengl on
iN
multiplicado por . De forma an aloga, se
denen las transformaciones elementales de las columnas. Una transformacion
elemental es de renglones o de columnas.
Las transformaciones elementales no cambian los determinantes.
Prueba. Sean
MM
,
MM
y
MM
matrices que se diferencian solo en el rengl on inde-
xado por j para el cual se tiene que
jM
=
iM
+
jM
y
jM
=
iM
. Como el determi-
nante es un funcional lineal de los renglones tenemos det
MM
= det
MM
+det
MM
y como la matriz
MM
tiene dos renglones iguales entonces, det
MM
= det
MM
.
La prueba termina al recordar que el determinante no cambia por transposici on de la
matriz.
Las bases y el rango de una matriz dependen exclusivamente de los determinantes
de sus submatrices y por lo tanto no son afectados por las transformaciones elementales.
Sin embargo, las trasformaciones elementales de las columnas cambian los nucleos y el
subespacio afn soluci on de un sistema de ecuaciones lineales. Para las transformaciones
elementales de los renglones la situaci on es diferente.
Las transformaciones elementales de los renglones de la matriz ampliada no
cambian el subespacio afn soluci on de un sistema de ecuaciones lineales.
Prueba. Sea
MN
x
N
= b
M
un sistema de ecuaciones lineales. Sea
MN
x
N
= c
M
otro
sistema que se diferencia solo en la ecuaci on j para la cual se tiene
jN
=
iN
+
jN
y
c
j
= b
i
+b
j
. Si
N
es una solucion del primer sistema entonces,
jN

N
=
iN

N
+

jN

N
= b
i
+b
j
= c
j
por lo que
N
es una solucion del segundo sistema. Si
N
es una
soluci on del segundo sistema entonces,
jN

N
=
jN

iN

N
= c
j
b
i
= b
j
por
lo que
N
es una soluci on del primer sistema.
Ejemplo
El metodo de Gauss se puede precisar en todo detalle para convertirlo en un algo-
ritmo programable en una computadora. Pero como tratamos de ense nar a humanos y
no a computadoras la mejor manera no es dar todos los detalles sino dejar a la crea-
tividad individual y a la imitacion de ejemplos el como aplicar las transformaciones
elementales.
La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecua-
ciones lineales. Despues de las 4 transformaciones elementales de los renglones que se
muestran obtenemos la matriz de abajo a la derecha. La soluci on del sistema de esta
130 Captulo 4. Determinantes
ultima es obvia.

1 1 0
2 3 4
3 3 1

3
2
1
!
r
2
:=r
2
2r
1

1 1 0
0 1 4
3 3 1

3
4
1
!
r
3
:=r
3
3r
1

1 1 0
0 1 4
0 0 1

3
4
8
!
r
2
:=r
2
4r
3

1 1 0
0 1 0
0 0 1

3
28
8
!
r
1
:=r
1
r
2

1 0 0
0 1 0
0 0 1

25
28
8
!
Aqu las transformaciones elementales realizadas est an marcadas en las echas. Por
ejemplo, la primera es r
2
:= r
2
2r
1
lo que signica que al segundo rengl on le sumamos
el primero multiplicado por 2. Observese que despues de dos transformaciones ya
vemos que el determinante de la matriz del sistema es 1 porque en una matriz triangular
el determinante es el producto de las entradas diagonales.
El caso general
Para el c alculo de los determinantes no hay mucho mas que decir. Podemos utilizar
transformaciones elementales de columnas y renglones para convertir nuestra matriz
cuadrada en matriz triangular. Si en el proceso nos aparece un rengl on o columna cero
entonces el determinante es cero.
Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada
y solo podemos realizar transformaciones elementales de los renglones. Podemos ademas
multiplicar un rengl on por un escalar porque esto no afecta la ecuaci on correspondiente
al rengl on. Si nos aparece un rengl on cero podemos descartarlo como combinaci on lineal
de los otros. Si nos aparece un renglon que es cero en la matriz del sistema pero su
coeciente libre no es cero entonces el sistema no tiene solucion porque el rango de
la matriz ampliada es mayor que el rango de la matriz del sistema. Finalmente, si en
alg un momento nos aparece una conguracion del tipo

a
0 b

0 0 c

donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una
base de la matriz y tenemos mas inc ognitas que ecuaciones. En este caso debemos
seguir diagonalizando la parte correspondiente a las primeras columnas hasta obtener

1 0 0
0 1 0

0 0 1

.
Para este sistema procedemos como en la secci on anterior y pasamos restando las
incognitas que sobran como par ametros hacia la parte derecha del sistema de ecuacio-
131 Seccion 4.7 Metodo de eliminaci on de Gauss
nes. Tomemos el mismo ejemplo de la secci on anterior

2 1 1 0
3 2 0 1

5
5

r
2
:=3r
2
2r
1


2 1 1 0
0 1 3 2

5
5

r
1
:=
r
1
r
2
2


1 0 2 1
0 1 3 2

5
5

y por lo tanto la soluci on de este sistema es x


1
= 5 2x
3
+ x
4
y x
2
= 5 + 3x
3
2x
4
donde x
3
y x
4
pueden tomar cualquier valor.
Aqu es cuando el lector se preguntara Para que diagonalizar la primera y segunda
columna si ya la tercera y cuarta est an en forma diagonal? Pues tiene toda la raz on,
simplemente esta escogiendo otra base de la matriz. La soluci on del sistema se obtiene
directamente de la matriz ampliada original en la forma x
3
= 52x
1
x
2
y x
4
= 53x
1

2x
2
donde x
1
y x
2
pueden tomar cualquier valor. Que es mejor es cuestion de gustos
u otras necesidades. Por ejemplo, si se necesita substituir x
1
y x
2
en otras f ormulas
entonces, la mejor solucion es la primera. Si por el contrario se necesita substituir x
3
y
x
4
en otras f ormulas entonces, la mejor solucion es la segunda.
Solucion de ecuaciones matriciales, matriz inversa
Si tenemos varios sistemas de ecuaciones lineales
MN
x
N1
= b
M1
, . . . ,
MN
x
N`
=
b
M`
todos con la misma matriz del sistema
MN
entonces, podemos denotar L =
{1, . . . , `} y escribirlos todos en la forma
MN
x
NL
= b
ML
. Esta ecuacion matricial
tiene la matriz ampliada [
MN
|b
ML
] y podemos aplicarle a esta matriz la eliminaci on
de Gauss para resolver todos nuestros sistemas al mismo tiempo. Esto lo podremos
hacer porque en la eliminaci on de Gauss no se reordenan columnas y solo se aplican
transformaciones elementales a los renglones, as que no nos importa cuantas columnas
halla despues de la barra vertical.
En particular, si M = N entonces, la unica solucion posible (si existe) a la ecuaci on
matricial
MM
x
MM
= I
MM
sera x
MM
=
1
MM
. Esta es la forma en que con el metodo
de eliminacion de Gauss se calculan las matrices inversas. Por ejemplo:

1 1 0
2 3 4
3 3 1

1 0 0
0 1 0
0 0 1
!
r
2
:=r
2
2r
1

r
3
:=r
3
3r
1

1 1 0
0 1 4
0 0 1

1 0 0
2 1 0
3 0 1
!
r
2
:=r
2
4r
3

1 1 0
0 1 0
0 0 1

1 0 0
10 1 4
3 0 1
!
r
1
:=r
1
r
2

1 0 0
0 1 0
0 0 1

9 1 4
10 1 4
3 0 1
!
y por lo tanto

1 1 0
2 3 4
3 3 1
!
9 1 4
10 1 4
3 0 1
!
=

1 0 0
0 1 0
0 0 1
!
.
132 Captulo 4. Determinantes
Ejercicio 80 Tome un sistema de ecuaciones lineales y resuelvalo por el metodo de
eliminaci on de Gauss. Repta cuantas veces le sea necesario.
No esta de m as recalcar aqu que el metodo de eliminaci on de Gauss funciona
en espacios vectoriales sobre cualquier campo sea este Q, R, C, Z
p
u otro campo
cualquiera. Solo hay que realizar las operaciones de suma, producto y divisi on como
est an denidas en el campo en particular.
pesar de que tecnicamente, el estudio de los polinomios no es parte del

Algebra
Lineal, ellos son una herramienta ineludible para la clasicaci on de las trans-
formaciones lineales y de los productos bilineales. Es por esto que necesitamos
aprender algunas de las cosas mas basicas sobre ellos.
5.1 Polinomios sobre campos
Hay muchas maneras de ver los polinomios. La manera mas sencilla de
n
X
i=0
a
i
x
i
verlos es que un polinomio de grado n en la literal x es una expresion
formal del tipo en el recuadro a la derecha donde los coecientes a
0
, ..., a
n
son elementos de cierto campo K y a
n
6= 0. Al coeciente a
n
se le llama
coeciente principal del polinomio. Todos los elementos del campo son polinomios
de grado cero. Dos polinomios se consideran iguales solo cuando todos sus coecientes
son iguales.
Suma y producto de polinomios
Aunque el lector seguramente conoce las deniciones de suma y producto de poli-
nomios, nos parece apropiado recordar el porque de las mismas. Si interpretamos a x
como un elemento del campo K entonces,
P
a
i
x
i
tambien es un elemento del campo
K. Esto quiere decir que un polinomio dene una funci on K 3 x 7
P
a
i
x
i
K y en
esta interpretaci on x no es una literal sino una variable. Siendo esta interpretacion de
los polinomios fundamental, necesitamos que la suma y producto de polinomios con-
cuerde con la denici on de suma y producto de funciones (f +g) (x) = f (x) + g(x),
(fg) (x) = f (x) g(x). Por esto, tenemos
n
X
i=0
a
i
x
i
+
n
X
i=0
b
i
x
i
=
n
X
i=0

a
i
x
i
+b
i
x
i

=
n
X
i=0
(a
i
+b
i
) x
i
donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por
distributividad. O sea, interpretamos al polinomio como la imagen por la funci on de
evaluaci on de la variable x que toma sus valores en el campo. Para el producto, usando
134 Captulo 5. Polinomios
la forma general de la ley distributiva tenemos

n
X
i=0
a
i
x
i
!
m
X
j=0
b
j
x
j
!
=
n
X
i=0
m
X
j=0
a
i
b
j
x
i+j
=
n+m
X
k=0

mn(n,k)
X
i=max(0,km)
a
i
b
ki

x
k
donde la segunda igualdad se obtiene haciendo el cambio de variable k = i+j y usando
asociatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar
polinomios sin saberse estas formulas. Lo importante es saber aplicar sistem aticamente
asociatividad, conmutatividad y distributividad para obtener el resultado deseado.
El conjunto de todos los polinomios sobre un campo arbitrario K forma un anillo
conmutativo (para ser campo solo le falta la existencia de inversos multiplicativos). A
este anillo se lo denota por K[x].
La funci on de evaluacion
Sea p(x) =
P
n
i=0
a
i
x
i
un polinomio en K[x] . Sea b un elemento arbitrario del
campo. Obviamente
P
n
i=0
a
i
b
i
es tambien un elemento del campo ya que la suma, la
multiplicaci on y las potencias est an bien denidas en un campo arbitrario. Es natural
denotar p(b) =
P
n
i=0
a
i
b
i
. Esto nos da una funcion K 3 b 7 p(b) K llamada la
funcion de evaluacion del polinomio p.
Recprocamente, diremos que una funci on f : K K es polinomial si existe un
polinomio p(x) K[x] tal que f es la funcion de evaluacion del polinomio p, o sea que
b K se tiene que f (b) = p(b).
Identicar los polinomios con las funciones polinomiales es un craso error. As por
ejemplo, hay solo 4 funciones de Z
2
en Z
2
pero hay una cantidad innita de polinomios
en Z
2
[x]. Sin embargo, si el campo es innito esto no sucede.
Un polinomio de grado n esta predeterminado por su
evaluacion en n+1 diferentes elementos del campo.
Prueba. Sea p(x) =
P
n
i=0
a
i
x
i
y b
0
, . . . , b
n
diferentes elementos del campo entonces,
en forma matricial tenemos

b
n
0
b
n1
0
b
0
1
b
1
b
1
b
1
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
n
b
n
b
n
1

a
n
a
n1
.
.
.
a
0

p(b
0
)
p(b
1
)
.
.
.
p(b
n
)

.
Si conocemos las evaluaciones p(b
0
) , . . . , p(b
n
) entonces, para encontrar los coecien-
tes a
0
, ..., a
n
tenemos que resolver este sistema de ecuaciones lineales. La matriz de
este sistema es una matriz de Vandermonde cuyo determinante es diferente de cero
si y solo si todos los b
i
son diferentes (vease el ejercicio 76). Esto quiere decir que el
sistema tiene una solucion unica, o sea los a
i
est an predeterminados por los p(b
i
).
De este resultado se deduce facilmente, que en el caso de campos innitos, la corres-
pondencia entre funciones polinomiales y polinomios es biyectiva y m as a un, que esta
135
Seccion 5.1 Polinomios sobre campos
correspondencia es un isomorsmo de anillos. Por esto, es frecuente que se identiquen
los polinomios reales con las funciones polinomiales reales.
Un problema que frecuentemente aparece en aplicaciones de las matematicas es que se
tiene una funcion real de la cual no se sabe mucho salvo su valor en n puntos. Entonces
esta funcion se aproxima con el unico polinomio de grado n 1 que pasa por estos
puntos. Hay diferentes formulas para esto pero todas son equivalentes a sacar la matriz inversa de
la matriz de Vandermonde. Estas formulas se diferencian en que tan buenas y/o estables son
computacionalmente.
Divisi on de polinomios
Divisi on con Resto de Polinomios
Sea q un polinomio de grado al menos 1 y sea p otro polinomio.
Existen polinomios c y r tales que:
1. p = cq +r
2. El grado de r es estrictamente menor que el grado de q.
Prueba. Sea p =
P
a
i
x
i
un polinomio de grado n y q =
P
b
i
x
i
un polinomio de
grado m 1. Si n < m entonces poniendo c = 0 y r = p terminamos.
Supongamos m n. Entonces, sacando cuentas nos podemos con-
r
1
=
n1
P
i=0
a
i
x
i
c
1
m1
P
i=0
b
i
x
i
c
1
=
x
nm
a
n
b
m
vencer de que p = c
1
q + r
1
donde c
1
y r
1
son los polinomios en
los recuadros. El grado de r
1
es estric-
tamente menor que el grado de p. Si el
grado de r
1
es menor que el grado de q entonces ya ter-
minamos, si no entonces, haciendo los mismos c alculos
podemos escribir r
1
= c
2
q+r
2
y vamos disminuyendo el grado de r
i
hasta que este sea
menor que el grado de q.
Luego, existe un i tal que p = (c
1
+... +c
i
)q +r
i
y el grado de r
i
es estrictamente
menor que el grado de q.
Al polinomio c se le llama cociente de la division de p entre q. Al polinomio r se
le llama resto de la division de p entre q.
Factores y raices
Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces
se dice que q divide a p, o que q es un divisor de p, o que p es un m ultiplo
de q. Obviamente, cualquier polinomio no cero de grado cero divide a cualquier otro
polinomio (en un campo hay inversos). Diremos que q es un factor de p si q divide a
p y el grado de q es al menos uno.
Los ceros de la funcion de evaluacion son las raices del polinomio p, o sea son los
elementos del campo b tales que p(b) = 0. Al conjunto de todas las raices de p lo
llamaremos nucleo de p y lo denotaremos por ker p (en ingles nucleo es kernel).
136 Captulo 5. Polinomios
Las raices y los factores de un polinomio est an enlazados por el siguiente resultado:
Para que b sea una raz de p es necesario
y suciente que (x b) sea un factor de p.
Prueba. Dividamos con resto p entre (x b). Sean c y r tales que p(x) = c (x) (x b)+
r. Como (x b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtene-
mos p(b) = c (b) (b b) +r = r. Luego, si b es raz entonces, r = 0 y recprocamente.
Sea b una raz del polinomio p. Si n 1 es el mayor natural tal que (x b)
n
es
factor de p entonces a n se le llama multiplicidad de la raz b. Es muy incomodo
trabajar con el concepto de multiplicidad. Por ejemplo, tomemos la armaci on: Si b
1
y b
2
son dos raices del polinomio p entonces (x b
1
) (x b
2
) es un factor de p. Esta
armacion es cierta no solo para cuando b
1
6= b
2
sino tambien cuando son iguales pero
la raz tiene multiplicidad mayor que 2.
Es mucho m as comodo pensar que si una raz tiene multiplicidad n en-
tonces hay n diferentes raices todas del mismo valor. Este abuso del
lenguaje ser a com un en este libro y a partir de ahora no tendremos necesi-
dad de usar continuamente el concepto de multiplicidad. Le dejamos al lector interesado
la desagradable tarea, de ajustar los hechos expuestos a un lenguaje mas riguroso.
Ahora el nucleo de un polinomio no es exactamente un conjunto sino una colecci on
de elementos del campo en la cual puede haber elementos repetidos. As por ejemplo
tenemos Ker

x
3
6x
2
+9x 4

= {1, 1, 4}. Ajustada nuestra terminologa, podemos


establecer una importante consecuencia del resultado anterior.
Todo polinomio de grado n 1 tiene a lo mas n
raices.
Prueba. Si el polinomio p tiene como raices a b
1
, . . . , b
n+1
entonces p tiene, por 5.4,
como factor a
Q
n+1
i=1
(x b
i
) que es un polinomio de grado n+1. Esto contradice que
p tiene grado n.
Ideales de polinomios
Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propie-
dades:
Si p, q I entonces p +q I.
Si p I y r K[x] entonces rp I.
En otras palabras, la suma es una operacion binaria dentro del ideal y cualquier
m ultiplo de un elemento del ideal tambien est a en el ideal. Los ideales mas sencillos
137 Seccion 5.1 Polinomios sobre campos
son los que se forman tomando todos los m ultiplos de un polinomio jo p. Si qp y q
0
p
son dos tales m ultiplos entonces qp + q
0
p = (q +q
0
) p tambien es un m ultiplo de p.
Esto demuestra la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se
les llama ideales principales. Lo asombroso es que todo ideal es as.
Todo ideal de polinomios es principal.
Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado mnimo tal
que m I y denotemos por el conjunto de todos los m ultiplo de m o sea, I
m
=
{m | K[x]}. Por denicion de ideal se tiene que I
m
I. Probemos que I
m
I.
Efectivamente, si g I entonces dividiendo g entre m obtenemos polinomios c, r tales
que g = cm+r donde el grado de r es menor que el grado de m. Tenemos r = gcm
y por denici on de ideal r I. De la minimalidad del grado de m obtenemos r = 0. y
por lo tanto g = cm I
m
. Esto prueba que I
m
= I o sea, que I es principal.
Observese que facilmente podemos denir los ideales en cualquier anillo conmuta-
tivo. Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo,
para el anillo de polinomios de dos variables K[x, y].
Una primera consecuencia de 5.5 es el Teorema de Bezout, el cual tendremos mu-
chsimas oportunidades para utilizarlo.
Teorema de Bezout
Sean p y q dos polinomios sin factores comunes.
Existen polinomios y tales que p +q = 1.
Prueba. Denotemos por I
pq
= {p +q | , K[x]}. Probemos que I
pq
es un ideal.
Veamos primero que la suma de elementos de I
pq
est a en I
pq
. Efectivamente,
(p +q) + (
0
p +
0
q) = ( +
0
) p + ( +
0
) q =
00
p +
00
q
donde
00
= ( +
0
) y
00
= ( +
0
). Ahora, comprobemos que los m ultiplos de los
elementos de I
pq
est an en I
pq
. Tenemos, (p +q) = p+q =
0
p+
0
q donde

0
= y
0
= y con esto concluimos que I
pq
es un ideal.
Como todo ideal de polinomios es principal, existe m tal que I
pq
= {m | K[x]}.
Como p, q I
pq
, existen polinomios y tales que p = m y q = m. Como p
y q no tienen factores comunes, esto signica que m es de grado cero y por lo tanto
I
pq
= K[x]. En particular, 1 I
pq
.
138 Captulo 5. Polinomios
Etienne Bezout (Francia, 1730-1783). Famoso en su epoca sobre to-
do por los seis vol umenes de su libro de texto Cours complet de
mathematiques ` a lusage de marine et de lartillerie que por muchos
a nos fueron los libros que estudiaban los que aspiraban a ingresar a
la

Ecole Polytechnique. Su investigacion matem atica la dedic o al


estudio de los determinantes y de las soluciones de ecuaciones polino-
miales.
Ejercicio 81 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin
factores comunes. Entonces, existen dos enteros y tales que p +q = 1. [231]
Ejercicio 82 Demuestre que si p y q son dos polinomios tales que el maximo com un
divisor de p y q es r entonces, existen polinomios y tales que p+q = r. [231]
Unicidad de la factorizaci on en irreducibles.
Al descomponer un polinomio en factores causan muchos problemas de escritura los
divisores que no son factores o sea, los polinomios de grado cero. Por esto es convenien-
te introducir la siguiente denici on. Un polinomio se le llama m onico si su coeciente
principal es 1. La ventaja de trabajar con polinomios m onicos es que cualquier poli-
nomio p se descompone como p
0
donde es su coeciente principal y p
0
es monico.
Luego, para descomponer p en factores, solamente nos tenemos que jar en los factores
m onicos de p
0
. Diremos que un factor q es factor propio del polinomio m onico p, si
q es monico y p 6= q.
Un polinomio se le llama irreducible si este es monico, tiene grado al menos 1 y no
tiene factores propios. En otras palabras, cuando no se puede descomponer no trivial-
mente en producto de dos factores. Cualquier polinomio p se puede descomponer como
p
1
p
2
. . . p
n
donde es su coeciente principal y p
1
p
n
son polinomios irreducibles.
La prueba de esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en
producto de dos factores. Si estos factores no son irreducibles puedo descomponer en
factores cada uno de ellos y as sucesivamente llegamos a factores irreducibles.
Si p y q son dos polinomios y r es un factor irre-
ducible de pq entonces r es un factor de p o de q.
Prueba. Supongamos que r no es un factor de p y probemos que es un factor de
q. Como r es irreducible p y r no tienen factores comunes. Por el teorema de Bezout
existen polinomios y tales que r +p = 1. Multiplicando por q obtenemos que
rq +pq = q. Como la parte izquierda de esta igualdad se divide entre r entonces r
es un factor de q.
139
Seccion 5.1 Polinomios sobre campos
Sea p = p
1
p
n
una descomposicion en factores irreducibles de p. Si q
es cualquier factor irreducible de p entonces, q es igual a alguno de los p
i
.
Prueba. Por inducci on en n. Si n = 1 entonces q divide a p
1
y como p
1
y q son
irreducibles obtenemos que p
1
= q. Sea n > 1. Por 5.7 o q es un factor de p
n
o q es
un factor de p
1
p
n1
. En el primer caso q = p
n
y en el segundo el resultado se sigue
por hip otesis de inducci on.
Teorema de Factorizacion de Polinomios
Cualquier polinomio p se descompone como p
1
p
2
. . . p
n
donde
es su coeciente principal y p
1
p
n
son polinomios irreducibles.
Esta descomposici on es unica salvo el orden de los factores.
Prueba. Solamente debemos probar la unicidad. Adem as, sacando como factor el
coeciente principal podemos suponer que p es monico. Si p es de grado 1 entonces no
hay nada que probar ya que entonces p es irreducible y la unica descomposicion de p
es el mismo.
Supongamos que el teorema es cierto para cualquier polinomio de grado estric-
tamente menor que k. Sea p m onico de grado k que tiene dos descomposiciones en
irreducibles p
1
. . . p
n
= p
0
1
. . . p
0
m
. Como p
n
es irreducible entonces de 5.8 obtenemos
que tiene que existir un j tal que p
n
es un factor de p
0
j
. Como p
0
j
es irreducible p
0
j
= p
n
.
Luego, para p/p
n
= p/p
0
j
tenemos dos descomposiciones que por hip otesis de induccion
son iguales salvo orden.
El conjunto ordenado de polinomios monicos
Sea p = p
j
1
1
p
j
2
2
. . . p
j
m
m
la descomposici on factores irreducibles
del polinomio monico p. Entonces, todos los divisores monicos
de p son de la forma p
k
1
1
p
k
2
2
. . . p
km
m
con 0 k
i
j
i
.
Prueba. Sea q un divisor m onico de p. Si el grado de q es cero entonces todos los k
i
son cero. Por el resultado 5.8 y la transitividad de la relaci on de divisibilidad cualquier
factor irreducible de q es factor irreducible de q y por lo tanto q = p
k
1
1
p
k
2
2
. . . p
k
m
m
para
ciertos k
i
0. Supongamos que para cierto i se tiene que k
i
> j
i
. Entonces como por
irreducibilidad de los factores, p
i
no divide a p/p
j
i
i
obtenemos que p
k
i
i
no divide a p.
Esto contradice que q divide a p.
Es muy facil ver que la relaci on de divisibilidad entre polinomios es reexiva y
transitiva. Sin embargo no es antisimetrica ya que por ejemplo dos polinomios cuales-
quiera de grado cero se dividen el uno al otro. Una consecuencia inmediata de 5.10 es
140 Captulo 5. Polinomios
la siguiente:
La relacion de divisibilidad entre polinomios monicos es antisimetrica.
Prueba. Sean p = p
j
1
1
p
j
2
2
. . . p
j
m
m
y q = p
k
1
1
p
k
2
2
. . . p
k
m
m
dos polinomios m onicos des-
compuestos en producto de irreducibles. Si q divide a p entonces por 5.10 obtenemos
que k
i
j
i
. Si p divide a q entonces por la misma razon k
i
j
i
. Luego, k
i
= j
i
y por
lo tanto p = q.
Este simple hecho sera fundamental para nosotros ya que frecuentemente usaremos
la antisimetra para probar que dos polinomios son iguales.
Ademas, este resultado signica que el conjunto de polinomios con la relaci on de
divisibilidad es un conjunto parcialmente ordenado y por lo tanto a el se aplican los
conceptos tales como m aximo y mnimo; cotas superiores e inferiores; elementos maxi-
males y minimales; supremos e nmos (vease el glosario).
Especial interes tienen el supremo y el nmo los cuales para este caso se traducen
como el mnimo com un m ultiplo y el maximo com un divisor. Si p = p
j
1
1
. . . p
j
m
m
y
q = p
k
1
1
. . . p
k
m
m
son dos polinomios monicos descompuestos en producto de irreducibles
entonces, es facil ver que p
max(j
1
,k
1
)
1
. . . p
max(j
m
,k
m
)
m
es el mnimo com un m ultiplo de p y
q; y que p
mn(j
1
,k
1
)
1
. . . p
mn(j
m
,k
m
)
m
es el maximo com un divisor de p y q.
Este mismo argumento se puede usar para convencernos de que cualquier conjunto
nito de polinomios tiene mnimo com un m ultiplo y m aximo com un divisor.Este asunto
es un poco m as complejo cuando el conjunto de polinomios es innito. As por ejemplo,
el conjunto de polinomios

x, x
2
, x
3
,

no tiene mnimo com un m ultiplo. Sin embar-


go, cualquier conjunto de polinomios (nito o innito) si tiene m aximo com un divisor.
La prueba de este hecho es en esencia la misma que la anterior, solo hay que observar
que cualquier conjunto de naturales tiene mnimo.
Ejercicio 83 Pruebe que cualquier conjunto de polinomios m onicos tiene maximo
com un divisor.
Desarrollo de Taylor
141 Seccion 5.1 Polinomios sobre campos
Brook Taylor (Inglaterra 1685-1731). Entre las contribuciones de este
matematico, se destacan: La invenci on de la rama de las matematicas
que hoy en da se conoce como C alculo en Diferencias, la invenci on
de la integracion por partes, y la formula llamada por su nombre. En
1772 Lagrange proclamo esta f ormula como el principio b asico del
calculo diferencial. A esta formula, enunciada en la siguiente propo-
sicion, se le llama Desarrollo de Taylor alrededor del punto x
0
.
Como el lector sabe de los cursos de c alculo, este desarrollo es mucho
m as general y se cumple en cierta clase de funciones. Sin embargo para polinomios,
su demostraci on es independiente del campo y puramente algebraica (no requiere del
concepto de continuidad).
Desarrollo de Taylor
Para cualquier polinomio p(x) y cualquier elemento del campo
x
0
existen unos unicos coecientes
0
,
1
, . . . ,
n
tales que
p(x) =
0
+
1
(x x
0
) + +
n
(x x
0
)
n
.
Prueba. Sea p(x) =
P
a
k
x
k
un polinomio de grado n. Si x
0
= 0 entonces,
k
= a
k
.
Supongamos que x
0
6= 0. Por el binomio de Newton tenemos
n
X
j=0

j
(x x
0
)
j
=
n
X
j=0

j
j
X
k=0

j
k

x
k
(x
0
)
jk
=
n
X
k=0

n
X
j=k

j
k

(x
0
)
jk

j
!
x
k
y para encontrar los coecientes
j
tenemos el sistema de ecuaciones lineales a
k
=
P
n
j=k
b
kj

j
donde b
kj
=

j
k

(x
0
)
jk
. Observese que b
kk
= 1 por lo que la matriz de
nuestro sistema de ecuaciones es triangular con unos en la diagonal y por lo tanto su
determinante es distinto de cero. Luego, el sistema tiene soluci on unica.
En otras palabras el desarrollo de Taylor para polinomios lo que arma es que

1, (x x
0
) , (x x
0
)
2
, . . .

es una base del espacio vectorial de polinomios. Esto no


es algo notable. Lo que s es notable es la forma que toman los coecientes
i
en
terminos de las derivadas del polinomio (veanse los ejercicios que siguen).
Ejercicio 84 Pruebe que si P = {p
0
, p
1
, p
2
, . . .} es un conjunto de polinomios tales que
i N el grado de p
i
es i entonces, P es una base del espacio vectorial de polinomios.
Ejercicio 85 Demuestre que la expresion
P
i
j=k
(1)
jk

j
k

i
j

es igual a la funci on
delta de Kronecker
ik
o sea, es cero si i 6= k y es uno si i = k. [231]
Ejercicio 86 Demuestre que los coecientes
j
del Desarrollo de Taylor (5.12) del
polinomio
P
a
k
x
k
son iguales a
j
=
P
n
i=j

i
j

a
i
x
ij
0
. [232]
142 Captulo 5. Polinomios
Ejercicio 87 Pruebe que los coecientes
j
del Desarrollo de Taylor (5.12) del po-
linomio p(x) son iguales a p
(j)
(x
0
) /j! donde p
(j)
(x) denota el polinomio derivado j
veces. [232]
5.2 Polinomios complejos. Teorema de Gauss
Johann Carl Friedrich Gauss (Alemania 1977-1855) fue el m as grande
matem atico de su epoca. Este teorema que lleva su nombre fue de-
mostrado por primera vez en su tesis doctoral (1799). Este teorema
es conocido como el teorema fundamental del algebra. En este libro
hemos mencionado otros resultados de Gauss y cualquiera que se de-
dique a estudiar matematicas, estadsticas, fsica o astronoma oir a de
este cientco en m as de una ocasi on.
En esta seccion demostraremos que el campo de los n umeros complejos es algebrai-
camente cerrado. Como esta demostraci on no es algebraica sino analtica necesitaremos
introducir algunos conceptos basicos de an alisis complejo. Para esto, presupondremos
que el lector conoce los correspondientes conceptos de analisis real.
Si bien, el contenido de esta secci on no es b asico para la comprensi on del algebra
lineal, por otro lado, si es fundamental que el lector conosca a la perfeccion el enunciado
del teorema de Gauss: todo polinomio complejo de grado al menos 1 tiene una raz.
Forma polar. Igualdad de Moivre
Todo n umero complejo z se puede representar en la forma
r cos
r sin
r

polar z = r (cos +i sin ) donde r es la longitud del vector

0z en el plano complejo y es el angulo que forma dicho vector


con el eje real de este plano (vease la gura). Al n umero r se le
llama modulo del n umero complejo y es com un que se denote por
kzk. Al angulo se le llama argumento del n umero complejo.
La forma polar hace mucho m as f acil calcular el producto y las
potencias de n umeros complejos.
Para hallar el producto de dos n umeros complejos hay
que multiplicar sus modulos y sumar sus argumentos.
Prueba. Sean r (cos +i sin) y (cos +i sin) dos complejos. Tenemos
r (cos +i sin ) (cos +i sin ) =
r((cos cos sinsin ) + (cos sin + cos sin) i) =
r(cos (+) +i sin(+))
143 Seccion 5.2 Polinomios complejos. Teorema de Gauss
que es lo que se necesitaba probar.
Aplicando este resultado al caso de la potencia de n ume-
z
n
= r
n
(cos n+i sinn)
ros complejos obtenemos la igualdad mostrada en el re-
cuadro a la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de
sus consecuencias mas importantes es el siguiente resultado.
Los polinomios z
n
a tienen exactamente n raices complejas.
Prueba. Sea a = r
n
(cos n+i sinn). Para k {0, 1, ..., n 1} denotemos x
k
el n umero complejo con m odulo
n

r y argumento (+2k) /n. Por la Igualdad de


Moivre tenemos
x
n
k
=

n

n

cos n
+2k
n
+i sin n
+2k
n

= r (cos +i sin) = a
que es lo que se necesitaba probar.
Abraham de Moivre (Francia 1667-1754). Uno de los fundadores de la
Geometra Analtica y de la Teora de las Probabilidades. A pesar de
su exelencia cientca, nunca tuvo la oportunidad de tener un puesto
en alguna universidad. Sus ingresos provenan de dar clases privadas
de Matematicas y murio en la pobreza. Moivre tambien es famoso por
haber predicho el da de su muerte. Descubri o que dorma 15 minutos
m as cada noche y sumando la progresi on aritmetica calculo que morira
en el da que dormira 24 horas. Tuvo raz on!
Ejercicio 88 Pruebe que el conjunto de raices complejas del polinomio z
n
1 es un
grupo para el producto. Que grupo es este? [232]
Continuidad
Una funci on f : C C es continua en el punto z
0
si para todo real positivo
existe otro real positivo tal que se cumple que (kz z
0
k < ) (kf (z) f (z
0
)k < ).
Una funci on continua en todo punto del plano complejo se le llama continua.
La funci on m odulo z 7kzk es continua.
Prueba. Veamos la desigualdad kz z
0
k kkzk kz
0
kk. Esta desigualdad es equi-
valente a la siguiente: En un tri angulo el valor absoluto de la diferencia de dos de
sus lados siempre es menor o igual que el tercero. La prueba de esta la dejaremos
en calidad de ejercicio. Por esta desigualdad, tenemos que > 0 = tal que si
kz z
0
k < entonces, kkzk kz
0
kk kz z
0
k < y esto prueba nuestra tesis.
144 Captulo 5. Polinomios
Ejercicio 89 Pruebe que en un triangulo el valor absoluto de la diferencia las lon-
gitudes de dos de sus lados siempre es menor o igual que la longitud del tercero.
[232]
La suma y el producto de funciones continuas
en un punto z
0
son continuas en el punto z
0
.
Prueba. Sean f y g funciones continuas en z
0
. Con el objetivo de ahorrar espacio
denotemos f
z
= f (z), f
0
= f (z
0
), g
z
= g(z) y g
0
= g(z
0
). Para todo > 0 existen
1
y
2
tales que
(kz z
0
k <
1
) (kf
z
f
0
k < )
(kz z
0
k <
2
) (kg
z
g
0
k < )
y en particular para el mnimo (que llamaremos ) de
1
y
2
se cumplen las dos des-
igualdades a la derecha. Sumando y aplicando la desigualdad del tri angulo obtenemos:
= 2 > kf
z
f
0
k + kg
z
g
0
k kf
z
f
0
+g
z
g
0
k = k(f +g) (z) (f +g) (z
0
)k
Luego, para todo > 0 existe tal que (|z z
0
| < ) |(f +g) (z) (f +g) (z
0
)| <
con lo que se prueba que la suma de continuas es continua.
Por otro lado, por la desigualdad del tri angulo y 5.13 tenemos
k(fg) (z) (fg) (z
0
)k = kf
z
g
z
f
0
g
0
k =
k(f
z
f
0
) (g
z
g
0
) + (f
z
f
0
) g
0
+ (g
z
g
0
) f
0
k
kf
z
f
0
k kg
z
g
0
k + kf
z
f
0
k kg
0
k + kg
z
g
0
k kf
0
k <
<
2
+ |g
0
| + |f
0
| < (1 +|g
0
| +|f
0
|) = c =
donde la ultima desigualdad se da para < 1. Como c es una constante que no
depende de z obtenemos que para todo > 0 existe tal que (|z z
0
| < )
|(fg) (z) (fg) (z
0
)| < lo que prueba que el producto de continuas es continua.
Para cualquier polinomio complejo p la funci on
de evaluacion C 3 z 7 p(z) C es continua.
Prueba. La funci on de evaluaci on de un polinomio se obtiene usando sumas y pro-
ductos de funciones constantes y la funci on identidad f (z) = z. Estas funciones son
continuas y de 5.16 obtenemos la prueba.
Sea g una funci on continua en el punto z
0
y f una funci on continua en
el punto g(z
0
) entonces, la composici on f g es continua en el punto z
0
.
Prueba. Por la continuidad de f en g(z
0
) tenemos que > 0 (kz g(z
0
)k < )
kf (z) f (g(z
0
))k < . Por otro lado, de la continuidad de g en z
0
sabemos que >
145 Seccion 5.2 Polinomios complejos. Teorema de Gauss
0
0
(ky z
0
k <
0
) kg(y) g(z
0
)k < . Componiendo estas dos propiedades
obtenemos > 0
0
(ky z
0
k <
0
) kf (g(y)) f (g(z
0
))k < que es lo que
necesitabamos.
El m odulo de un polinomio es una funci on continua.
Prueba. Por 5.18 y porque los polinomios y el m odulo son funciones continuas.
Lmite de sucesiones complejas
Una sucesi on de n umeros complejos {z
j
} = {a
j
+b
j
i} tiene lmite z = a +bi si las
sucesiones reales {a
j
} y {b
j
} tienen lmites a a y b respectivamente. Esto es equivalente
a que los m odulos y los argumentos de la sucesion converjan al modulo y al argumento
del lmite. Tambien, esto es equivalente a que > 0 N tal que k > N kz
k
zk < .
Una sucesion es convergente si esta tiene lmite. Por una propiedad an aloga para
las sucesiones reales se tiene que toda subsucesion de una sucesi on convergente es
convergente y converge al mismo lmite. Una sucesi on {z
j
} = {a
j
+b
j
i} es acotada
si ambas sucesiones {a
j
} y {b
j
} son acotadas. Esto es equivalente a que la sucesi on
real {kz
j
k} sea acotada. Es claro que una sucesi on no acotada no puede tener lmite.
Tambien, que toda sucesi on acotada tiene una subsucesi on convergente pues esta misma
propiedad se cumple para sucesiones reales. Expongamos otras dos propiedades que son
un poco m as difciles de probar.
Sea f una funci on continua en z
0
y {z
k
} una sucesi on de n ume-
ros complejos que converge a z
0
. Entonces, lmf (z
k
) = f (lmz
k
).
Prueba. Como f es continua en z
0
y lmz
k
= z
0
entonces tenemos que
> 0 (kz z
0
k < ) (kf (z) f (z
0
)k < )
> 0 N (k > N) (kz
k
z
0
k < )
.
Por la transitividad de la implicaci on obtenemos que
> 0 N (k > N) kf (z
k
) f (z
0
)k <
y esto quiere decir que lmf (z
k
) = f (z
0
).
Si {z
k
} es no acotada y p es un polinomio de grado al
menos 1 entonces, la sucesion {kp(z
k
)k} es no acotada.
Prueba. Sea p(z) un polinomio de grado n > 1. Por la desigualdad triangular,
146 Captulo 5. Polinomios
tenemos
kp(z)k
n
X
i=0

a
i
z
i

=
n
X
i=0
ka
i
k kzk
i
= ka
n
k kzk
n
+
n1
X
i=0
ka
i
k kzk
i
ka
n
k kzk
n
Como {z
k
} no es acotada, tampoco lo son {ka
n
k kz
k
k
n
} y {kp(z
k
)k}.
Teorema de Gauss
Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un
resultado preliminar que hace la mayora del trabajo.
Sea p un polinomio complejo de grado al menos 1. Si z
0
no es
una raz de p entonces, existe z C tal que kp(z)k < kp(z
0
)k.
Prueba. Hagamos el desarrollo de Taylor de p(z) alrededor del punto z
0
. Tenemos
p(z) =
n
X
j=0

j
(z z
0
)
j
= p(z
0
) +
n
X
j=1

j
(z z
0
)
j
ya que
0
= p(z
0
) . Sea
k
el primero de los {
j
| j > 0} diferente de cero y escojamos
z = z
0
+t donde es una (veease 5.14) de las raices de la ecuacion x
k
+p(z
0
) /
k
= 0
y t es un real tal que 0 < t < 1 que deniremos despues. Por la denici on de , z y k
tenemos
p(z) p(z
0
) =
k

k
t
k
+
n
X
j=k+1

j
t
j
= p(z
0
) t
k
+
n
X
j=k+1

j
t
j
y por lo tanto, de la desigualdad del tri angulo obtenemos:
kp(z)k

1 t
k

kp(z
0
)k +
n
X
j=k+1

t
j
= kp(z
0
)k +t
k
q(t)
donde q(t) denota el polinomio (con coecientes
kp(z
0
)k +
n
X
j=k+1

t
jk
reales) del recuadro a la derecha. Observemos que se
cumple la desigualdad q(0) = kp(z
0
)k < 0.
Por continuidad (de los polinomios reales) existe un t
0
> 0 sucientemente peque no
tal que q(t
0
) < 0. Luego, kp(z
0
+t
0
)k kp(z
0
)k +t
k
0
q(t
0
) < kp(z
0
)k.
Ejercicio 90 Donde se usa en la demostraci on anterior que t < 1? [232]
Teorema de Gauss
Todo polinomio de grado mayor que
cero tiene al menos una raz compleja.
147 Seccion 5.3 Factorizaci on de polinomios complejos y reales
Prueba. Sea p un polinomio. Denotemos A = {kp(z)k : z C}. El conjunto A es
un conjunto de reales acotado inferiormente pues kp(z)k 0. Luego (por un teorema
clasico de analisis matem atico), A tiene un nmo que denotaremos por .
Demostremos que es el mnimo o sea, que A. Como es nmo hay una suce-
sion {a
j
} de elementos de A que converge a y por lo tanto hay una sucesi on de comple-
jos {z
j
} tales que lmkp(z
j
)k = . Si la sucesion {z
j
} no estuviera acotada entonces, por
5.21 la sucesion {kp(z
j
)k} tampoco lo sera lo que contradice que esta sucesi on converge
a . Luego, {z
j
} es acotada y podemos escoger una subsucesi on convergente que pode-
mos suponer la misma. Denotemos y = lmz
j
. Como el m odulo de un polinomio es una
funci on continua entonces, por 5.20 tenemos = lmkp(z
j
)k = kp(lmz
j
)k = kp(y)k.
Luego, A.
Si 6= 0 entonces, por 5.22 existira un y
0
tal que kp(y
0
)k < kp(y)k = lo que
contradice que es el mnimo de A. Luego, kp(y)k = 0 y por lo tanto p tiene una
raz.
5.3 Factorizaci on de polinomios complejos y reales
En esta secci on utilizaremos el teorema de Gauss para averiguar cuales son todos
los polinomios irreducibles con coecientes complejos y los polinomios irreducibles con
coecientes reales. Esto nos dara la posibilidad de encontrar la descomposici on en
factores ( unica salvo orden de los factores) de los polinomios complejos y reales.
Caso Complejo
Clasicacion de los polinomios complejos irreducibles
Los polinomios complejos irreducibles son
exactamente los m onicos de grado uno.
Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor
que uno. Por el Teorema de Gauss (5.23) este polinomio tiene una raz . Por 5.3 el
polinomio se divide entre (x ) y esto contradice que el polinomio es irreducible.
Este resultado nos da la posibilidad de factorizar completamente los
a
n
k
Q
j=1
(x
j
)
n
j
polinomios complejos. Por el Teorema de Factorizaci on de Polino-
mios (5.9) cada polinomio complejo p(x) se tiene que descomponer
como en el recuadro a la izquierda. En esta f ormula, a
n
es el coe-
ciente principal del polinomio. Los complejos
j
son las diferentes raices de p(x). El
natural n
j
es la multiplicidad de la raz
j
y n =
P
n
i
es el grado de p(x). Nuevamen-
te, por el Teorema de Factorizacion de Polinomios (5.9) esta descomposici on es unica
salvo orden de los factores.
148 Captulo 5. Polinomios
Caso real
Recordemos que si a+bi es un n umero complejo entonces su
1. z R z = z
2. z +u = z + u
3. zu = z u
complejo conjugado es abi. Denotaremos por z el complejo
conjugado del n umero complejo z. Es f acil comprobar que la
operaci on de conjugaci on cumple las propiedades del recuadro
a la derecha.
Las propiedad 1 es trivial de la denici on. Las propiedades 2 y 3 signican que la
conjugaci on compleja es un automorsmo del campo de los n umeros complejos.
Ejercicio 91 Demuestre que la conjugaci on es un automorsmo. [232]
Sea p un polinomio con coecientes reales y una raz
compleja de p. Entonces es tambien una raz de p.
Prueba. Como es raz de p =
P
a
i
x
i
y por las propiedades de la conjugacion
tenemos
0 =

0 =
X
a
i

i
=
X
a
i

i
=
X
a
i

i
que es lo que se quera probar.
Clasicacion de los polinomios reales irreducibles
Si p es un polinomio real irreducible entonces p es de la
forma x o es de la forma (x a)
2
+ b
2
con b 6= 0.
Prueba. Si p es de grado 1 entonces necesariamente es igual a x para cierto
n umero real . Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor
x para cierto complejo. Si fuera real esto contradecira que p es irreducible.
Luego, = a + bi con b 6= 0. Por la proposici on anterior a bi tambien es una raz
de p por lo que
p(x) = (x (a +bi)) (x (a bi)) = (x a)
2
+b
2
Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una raz
compleja . Si fuera real entonces x sera un factor de p. Si = a+bi con b 6= 0
entonces (x a)
2
+b
2
sera un factor de p. En ambos casos se contradice la suposici on
de que p es irreducible.
Ahora, ya podemos descomponer completamente en factores los polinomios con
coecientes reales. Cada polinomio real p(x) se tiene que expresar como:
149 Seccion 5.4 Campos de fracciones. Funciones racionales
p(x) = a
n
k
Y
j=1
(x
j
)
n
j
k
Y
`=1

(x a
`
)
2
+b
2
`

m
`
En esta f ormula, a
n
es el coeciente principal del polinomio. Los n umeros reales
j
son
las diferentes raices reales de p(x). El n umero natural n
j
es la multiplicidad de la raz

j
. Los n umeros complejos (a
`
+b
`
i) y (a
`
b
`
i) son las diferentes raices complejas
de p(x). El n umero natural m
`
es la multiplicidad de la raz compleja (a
`
+b
`
i).
Obviamente, n =
P
n
i
+ 2
P
m
`
es el grado de p(x). Nuevamente, por el Teorema
de Factorizacion de Polinomios (5.9) esta descomposici on es unica salvo orden de los
factores.
La diferencia fundamental entre los n umeros reales y los n umeros complejos se
expresa de manera muy evidente en los resultados de esta secci on. Esta diferencia
har a que posteriormente nos sea mucho mas f acil clasicar los operadores lineales en un
espacio vectorial complejo que en un espacio vectorial real. En general, todo es mas facil
para los campos que cumplen el Teorema de Gauss o sea, los campos algebraicamente
cerrados.
5.4 Campos de fracciones. Funciones racionales
Sea (A, +, ) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el
neutro multiplicativo respectivamente . Queremos construir un campo que contenga a
A. Esta es una situaci on analoga a cuando construimos el campo de los racionales Q
para que contenga al anillo conmutativo Z . Funcionar a esta misma construccion en
el caso general? Investiguemos para lograr una respuesta.
Campos de fracciones
Lo primero es denir las fracciones. Consideremos con-
a
b
=
c
d

(ad = bc) junto de todas las fracciones a/b donde a A y b


A\{0}. Dos fracciones las consideraremos iguales si se cum-
ple la igualdad en el recuadro a la derecha.
Ejercicio 92 Pruebe que la igualdad de fracciones es una relacion de equivalencia.
[232]
150 Captulo 5. Polinomios
Ahora, necesitamos denir las operaciones entre fracciones. Primero el
a
b
c
d
=
ac
bd
producto porque es el mas f acil. Denamos el producto por la f ormula
en el recuadro a la izquierda. Nos tenemos que convencer primero de que
esta denici on es correcta. O sea que si las fracciones son iguales sus productos son
iguales. Mas precisamente, necesitamos ver que se cumple lo siguiente:

a
b
=
a
0
b
0
y
c
d
=
c
0
d
0

ac
bd
=
a
0
c
0
b
0
d
0

y efectivamente de las hip otesis de esta implicaci on tenemos ab


0
= a
0
b , cd
0
= c
0
d y
multiplicando estas dos igualdades obtenemos acb
0
d
0
= a
0
c
0
bd, lo que es equivalente a
la tesis de la implicaci on.
Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen
en los numeradores y en los denominadores. La fraccion 1/1 es neutro para el
producto y cualquier fracci on a/b donde a 6= 0 tiene inverso multiplicativo b/a ya
que ab/ba = 1/1 por la conmutatividad del producto en A. Todo esto signica que el
conjunto de fracciones con numerador distinto de cero forman un grupo conmutativo.
Denamos ahora la suma de fracciones por la f ormula en el
a
b
+
c
d
=
ad +cb
bd
recuadro a la derecha. Para convencernos que la denicion es
correcta tenemos que probar que las sumas de fracciones iguales
son iguales. O sea que:

a
b
=
a
0
b
0
y
c
d
=
c
0
d
0

ad +cb
bd
=
a
0
d
0
+c
0
b
0
b
0
d
0

y efectivamente haciendo algunos c alculos inteligentes obtenemos

ab
0
= a
0
b
cd
0
= c
0
d

0 = (ab
0
a
0
b) dd
0
=
= (c
0
d cd
0
) bb
0
= 0

(ad +cb) b
0
d
0
=
= (a
0
d
0
+c
0
b
0
) bd

que era lo que se necesitaba probar.


La comprobacion de que esta suma es conmutativa es obvia. La asociatividad se
comprueba calculando que a
b
+
c
d
+
u
v
=
adv +cbv +ubd
bdv
independientemente del orden en que se haga la suma. La fracci on 0/1 es neutro para
la suma y cualquier fracci on a/b tiene opuesto a/b (para esto ultimo es necesario
observar que 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es
un grupo abeliano respecto a la suma.
Solo nos falta la distributividad para comprobar que las fracciones con las opera-
ciones denidas forman un campo y esto se comprueba con los siguientes c alculos:
u
v

a
b
+
c
d

=
uad +ucb
vbd
=
uad
vbd
+
ucb
vbd
=
ua
vb
+
uc
vd
=
u
v
a
b
+
u
v
c
d
.
Por ultimo observemos que si identicamos al elemento a A con la fracci on a/1
podemos pensar que el anillo A es un subconjunto de las fracciones ya que que la suma
y el producto de estas fracciones coinciden con la suma y el producto dentro de A.
Hemos hecho todas estas pruebas detalladamente para no equivocarnos al ar-
mar que esto que hemos demostrado sirve para cualquier anillo conmutativo. El lector
151 Seccion 5.4 Campos de fracciones. Funciones racionales
debera analizar cuidadosamente cada igualdad en los razonamientos anteriores para
convencerse de que todas ellas se desprenden de los axiomas de anillo conmutativo y
de las deniciones de las operaciones entre fracciones. Al conjunto de todas las frac-
ciones con las operaciones as denidas se le llama el campo de fracciones del anillo
conmutativo A.
MENTIRA, no hay tal campo de fracciones para cualquier anillo conmu-
tativo. Puede usted encontrar el error? Si cree que puede regrese arriba
y b usquelo, si no, siga leyendo.
El problema es el siguiente. Al denir el producto (a/b) (c/d) = (ac/bd) con b y
d distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto
no es cierto en cualquier anillo conmutativo, por ejemplo en Z
6
tenemos 2 3 = 0.
Si en el anillo hay tales elementos no podemos denir adecuadamente el producto de
fracciones (tampoco la suma). Ya vimos, que si un anillo conmutativo es tal que para
cualesquiera b y d distintos de cero se tiene que bd es distinto de cero entonces, se dice
que este anillo es un dominio de integridad. Ahora si, todo dominio de integridad tiene
su campo de fracciones. El ejemplo evidente de dominio de integridad es Z. Su campo
de fracciones es Q.
Funciones racionales
El ejemplo por el cual hemos escrito esta seccion es el siguiente:
Todo anillo de polinomios con coecientes
en un campo es un dominio de integridad.
Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero
es diferente de cero (recuerdese que un polinomio es cero cuando todos sus coecientes
son cero).
Sean p(x) =
P
n
i=0
a
i
x
i
y q(x) =
P
m
i=0
b
i
x
i
dos polinomios cualesquiera de grados n
y m respectivamente. Denotemos p(x) q(x) =
P
n+m
i=0
c
i
x
i
. Por la f ormula del producto
de polinomios, tenemos c
n+m
= a
n
b
m
. Como a
n
6= 0, b
m
6= 0 y todo campo es dominio
de integridad obtenemos c
n+m
6= 0 y por lo tanto p(x) q(x) 6= 0.
Observese que en la demostraci on no se uso el hecho de que en el campo K hay inversos
multiplicativos. Eso quiere decir que de hecho, hemos demostrado algo mucho mas fuerte:
Los anillos de polinomios con coecientes en un dominio de integridad son dominios de
integridad.
Como el anillo de polinomios K[x] es un dominio de integridad este tiene su campo
de fracciones que se denota por K(x) . N otese la diferencia entre K[x] y K(x). A los
elementos de K(x) se les llama funciones racionales (en la variable x). Las funciones
racionales son fraciones de polinomios p(x) /q(x) que se suman y multiplican mediante
las reglas a las que todos estamos acostumbrados.
152 Captulo 5. Polinomios
Ejercicio 93 Conoce usted un campo innito de caracterstica 2? [233]
Ejercicio 94 Que pasa si construimos el campo de fracciones de un campo? [233]
5.5 Formas
Esta es una secci on que es practicamente solo de deniciones. El objetivo de esta
es familiarizar al lector con el concepto de forma como cierto tipo de polinomios de
muchas variables. De las distintas propiedades de las formas nos acuparemos cuando
en el captulo 7 estudiemos los funcionales. Las formas son en cierto sentido el caso
particular de los funcionales cuando en un espacio vectorial de dimension nita se se
escoge una base.
Polinomios de muchas variables
Denamos los polinomios de muchas variables. Sea K un campo y {x, y, . . . , z} un
conjunto nito de variables (hay muchas maneras de interpretarlas: indeterminadas, le-
tras, etc). Un monomio es una expresi on del tipo x
i
y
j
. . . z
k
donde K y i, j, . . . , k
son n umeros naturales. Al n umero se le llama coeciente del monomio y puede ser
cero. Dos monomios se consideran iguales al reordenar sus factores, o sea se asume
que el producto de variables es conmutativo. Dos monomios se multiplican mediante
la regla

x
i
y
j
. . . z
k

x
`
y
m
. . . z
n

= () x
i+`
y
j+m
. . . z
k+m
la cual es consecuencia de la conmutatividad (asumida por denici on) de las variables.
Si 6= 0 entonces el grado del monomio x
i
y
j
. . . z
k
es por denicion i +j + +k.
Un polinomio es la suma formal de un conjunto nito de monomios.
El producto de polinomios se dene postulando que este es asociativo, conmutativo
y distributivo respecto a la suma. Esto reduce el calculo del producto de polinomios
al c alculo de productos de monomios. El grado de un polinomio es el maximo de los
grados de sus monomios.
De esta manera el conjunto de todos los polinomios K[x, y, . . . , z] en las variables
{x, y, . . . , z} con coecientes en K es por denici on un anillo conmutativo. Las reglas
mediante las cuales se suman y multiplican polinomios son las que todos estamos
acostumbrados desde ya hace mucho tiempo.
Los anillos de polinomios en muchas variables comparten muchas propiedades con
el anillo de polinomios en una sola variable. En particular K[x, y, . . . , z] es un dominio
de integridad y en K[x, y, . . . , z] se cumple la unicidad de la descomposici on en factores
irreducibles. Sin embargo, K[x, y] es esencialmente mucho mas complicado que K[x] y
esto se debe fundamentalmente a que no todo ideal en K[x, y] es principal.
153 Seccion 5.5 Formas
Ejercicio 95 Encuentre un ideal de K[x, y] que no es principal. [233]
La evaluaci on de un polinomio
Cada polinomio p(x) en K[x] nos da una funci on p : K 3 7p() K substitu-
yendo la variable x por el escalar . Ya vimos como se hace esto. De la misma manera
cada polinomio p(x, y) K[x, y] nos da una funci on p : K
2
3 (, ) 7 p(, ) K
substituyendo la variable x por el escalar y substituyendo la variable y por el escalar
. En general, si p es un polinomio de n variables entonces, este dene una funcion de
K
n
en K substituyendo cada una de las variables por un elemento del campo. A esta
funci on se le llama la evaluacion del polinomio en una n-ada.
Aqu lo importante es notar que la funci on de evaluacion de un polinomio toma
valores en el espacio vectorial de las n-adas. As por ejemplo, las raices del polinomio
x
2
+y
2
1 R[x, y] son el crculo de radio 1 con centro en el origen de R
2
.
Formas lineales
Una forma lineal es un polinomio tal que todos sus monomios tienen grado 1.
Las formas lineales son las combinaciones lineales no nulas de las variables. Las formas
lineales son un subespacio del espacio de polinomios ya que la suma de dos de ellas es
una forma lineal y tambien el producto por un escalar. La funci on
n
X
i=1

i
x
i
7(
1
, . . . ,
n
)
es evidentemente un isomorsmo canonico entre el espacio de las formas lineales y K
n
.
A la funcion de evaluaci on de una forma lineal se le llama funcional lineal. Cual-
quier funcional lineal f : K
n
K es una transformaci on lineal (TL). Recprocamente,
nuestro viejo teorema de que cualquier TL es la multiplicaci on por una matriz se con-
vierte en este caso en que cualquier TL f : K
n
K es un funcional lineal. Esto nos
d a un isomorsmo can onico entre el espacio de formas lineales y el espacio Mor (K
n
, K).
Formas cuadraticas
Una forma cuadratica es un polinomio tal que todos sus monomios tienen grado
2. Las formas cuadr aticas son las combinaciones lineales no nulas de los productos de
dos variables. Si agregamos el polinomio cero entonces, las formas cuadr aticas son un
subespacio del espacio de polinomios ya que la suma de dos de ellas es una forma
cuadr atica y tambien el producto por un escalar. La funci on
n
X
i=1
n
X
j=i

ij
x
i
x
j
7


11

1n
.
.
.
.
.
.
.
.
.
0
nn

es evidentemente un isomorsmo can onico entre el espacio de las formas cuadr aticas y
el espacio de matrices triangulares superiores. La forma triangular es una consecuencia
154 Captulo 5. Polinomios
de la conmutatividad de las variables.
Formas bilineales
Una forma bilineal es una forma cuadr atica para la cual existe una particion
del conjunto de variables en dos partes {x
1
, . . . , x
n
}

{y
1
, . . . , y
m
} tal que cualquier
monomio es de la forma
ij
x
i
y
j
. Si agregamos el polinomio cero entonces, las formas
bilineales (respecto a una partici on ja) son un subespacio del espacio de las formas
cuadr aticas ya que la suma de dos de ellas es una forma bilineal y tambien el producto
por un escalar. La funci on
n
X
i=1
m
X
j=1

ij
x
i
y
j
7


11

1m
.
.
.
.
.
.
.
.
.

n1

mn

es evidentemente un isomorsmo can onico entre un espacio de matrices y el espacio de


las formas bilineales (respecto a una partici on ja).
Formas multilineales
Una forma de grado n es un polinomio tal que todos sus monomios tienen grado
n. Las formas de grado n son las combinaciones lineales no nulas de los productos de
n variables. Si agregamos el polinomio cero entonces, las formas de grado n son un
subespacio del espacio de polinomios ya que la suma de dos de ellas es una forma de
grado n y tambien el producto por un escalar.
Sea X

Y



Z una partici on del conjunto de variables en n partes. Una forma
n-lineal (respecto a esta partici on) es una forma de grado n tal que cada monomio es
de la forma
xyz
xy z donde x X, y Y, . . . , z Z. Si agregamos el polinomio
cero entonces, las formas n-lineales (respecto a una partici on dada) son un subespacio
del espacio de las formas formas de grado n ya que la suma de dos de ellas es una
forma n-lineal y tambien el producto por un escalar. La funci on
X
xX
X
yY

X
zZ

xyz
xy z 7
XY...Z
es evidentemente un isomorsmo can onico entre un espacio de tensores de grado n y
el espacio de las formas n-lineales (respecto a una partici on dada).
Aqu, un tensor es un arreglo multidimensional de elementos del campo. En otras
palabras una funcion
X Y Z 3 (x, y, . . . , z) 7
xyz
K
o lo que es lo mismo un conjunto de elementos del campo indexado con muchos
ndices. Los tensores de grado cero son los elementos del campo. Los de grado 1 son las
n-adas y los de grado 2 son las matrices. No hay nombres especiales para los tensores
de grado 3.
Ejemplo. Veamos que los determinantes son formas multilineales Tenemos
det

x
11
x
12
x
21
x
22

= x
11
x
22
x
21
x
12
155 Seccion 5.5 Formas
y observamos que si tomamos la partici on dada por las columnas {x
11
, x
21
}

{x
12
, x
22
}
entonces, este determinante es una forma bilineal. Tambien, si tomamos la particion
dada por los renglones {x
11
, x
12
}

{x
21
, x
22
} entonces, este determinante es una forma
bilineal. Esto muestra que una forma puede ser multilineal respecto a diferentes parti-
ciones.
Esto tambien se cumple para matrices de cualquier tama no. Para probar esto solo
hay que observar que en cualquier monomio del determinante aparece una y solo una
variable de cada columna y lo mismo para los renglones.
156
Descomposicin de
Operadores Lineales
ay dos teoremas que son muy conocidos por el lector y que son muy parecidos.
El primero es que todo n umero natural se descompone de forma unica salvo
orden de los factores en producto de n umeros primos. El segundo es que todo
polinomio se descompone de forma unica salvo orden de los factores en producto de
polinomios irreducibles. Para los operadores lineales hay un teorema parecido todo
operador lineal se descompone en suma directa de OLs irreducibles, el tipo de tal
descomposici on es unico. En este captulo daremos la demostraci on de este teorema y
lo que es mas importante, encontraremos cuales son todos los OLs irreducibles de un
espacio vectorial de dimension nita.
6.1 Suma directa de operadores lineales
Recordemos que el acronimo OL signica para nosotros un operador lineal, o sea una
transformaci on lineal de un espacio en si mismo. Con otras palabras, un endomorsmo
del espacio. Usaremos sistem aticamente este acr onimo. Sin embargo, al conjunto de
todos los OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos que
el conjunto End (E) es un algebra para la suma de funciones, la multiplicaci on por
escalares y la composicion de OLs. El conjunto End(E) contiene el neutro para la
suma que es el operador lineal O que a cualquier vector le hace corresponder el vector
0. Tambien contiene al neutro para la composicion de funciones I que es la identidad
I (a) = a.
En este captulo todos los espacios vectoriales ser an de dimensi on nita. Si f : E E
y g : F F son dos OLs entonces, a la funcion
f g : E F 3(a, b) 7(f (a) , g(b)) E F
se le llama suma directa de los OLs f y g. Es facil comprobar que la suma directa de
dos OLs es un OL.
158 Captulo 6. Descomposici on de operadores lineales
Ejercicio 96 Pruebe que la suma directa de OLs es siempre un OL. [233]
El lector no debe confundir la suma directa de OLs con la habitual suma de
funciones. Si f : E E y g : E E son dos OLs entonces su suma se dene
como (f +g) (a) = f (a) +g(a).
Veamos ahora un ejemplo. Sea f : R
2
R
2
la rotaci on en el
[a, b, c]
[a, b]

[f g] [a, b, c]
c
2c
f [a, b]
angulo en contra de las manecillas del reloj o en otras palabras
(1, 0) 7(cos , sin ) y (0, 1) 7(sin, cos ). Sea g : R R
la dilataci on de factor 2 o sea z 7 2z. El espacio R
2
R lo
podemos pensar como R
3
en el cual el primer sumando es el
plano x, y y el segundo es el eje z. Sabemos como transforma f
el plano x, y (rotando) y como transforma g el eje z (dilatando).
Vease la gura a la derecha.
Ahora si (a, b, c) es un vector arbitrario de R
3
entonces podemos rotar a (a, b)
en el plano xy obteniendo (acos bsin, bcos +asin ) y dilatar c en el eje z
obteniendo 2c. De esta manera, obtenemos el OL de todo R
3
que a (a, b, c) le hace
corresponder (acos bsin, bcos +asin , 2c) . Este OL es precisamente f g.
Ejercicio 97 Dado f g End(E F) podemos denir a f
0
= f I y g
0
= I g.
Pruebe que f g = f
0
g
0
= g
0
f
0
. Esto signica que podemos pensar la suma directa
como la composici on de dos OLs que conmutan. [233]
Subespacios invariantes, componentes irreducibles
A partir de ahora y en todo este captulo la funci on h : E E es un
OL del espacio vectorial nito dimensional E. La dimensi on de h es por
denici on la dimensi on de E.
La simplicidad de la operaci on de suma directa de OLs nos lleva a querer descom-
poner h en suma directa de otros OLs. La pregunta es: Dado h ser a posible encontrar
OLs f y g tales que h = f g?. Detallemos un poco m as el problema. Si F y G
son subespacios complementarios de E entonces, por el isomorsmo can onico entre
la suma de subespacios complementarios y la suma directa de subespacios tenemos
E = F +G = F G. La pregunta es cuando existen OLs f : F F y g : G G tales
que h = f g?
Supongamos que efectivamente h = f g y sea a un vector en F. Por denici on
de f g para calcular h(a) tenemos que expresar a como suma de un vector en F
y otro en G. Esta descomposici on es unica y en este caso es a = a + 0 por lo que
h(a) = f (a) + g(0) = f (a) + 0 = f (a). De aqu deducimos que h(a) F y como
esto se hizo para un vector arbitrario en F obtenemos que h(F) = {h(a) | a F} F.
159 Seccion 6.1 Suma directa de operadores lineales
De la misma manera se demuestra que h(G) G.
Esto nos lleva a la siguiente denici on. Diremos que F E es un subespacio
invariante de h (o que F es h-invariante) si se cumple que h(F) F.
Un OL se descompone como suma directa de dos OLs si y
solo si el tiene dos subespacios invariantes complementarios.
Prueba. Ya demostramos la necesidad. Demostremos la suciencia. Para esto su-
pongamos que h : E E tiene dos subespacios invariantes complementarios F y G.
Tenemos E = F G, h(F) F y h(G) G. Sean f : F F y g : G G las
restricciones de la funci on h a los subespacios F y G respectivamente. Obviamente f y
g son OLs. Sea x un vector arbitrario en E. Existen unos unicos a F, b G tales que
x = a+b y por linearidad tenemos h(x) = h(a +b) = h(a) +h(b) = f (a) +g(b)
por lo que h = f g.
Acabamos de traducir nuestro problema original al de la existencia de subespacios
invariantes complementarios pero hay un caso degenerado que no nos facilita en nada
las cosas. Todo el espacio E es invariante pues obviamente h(E) E. Igualmente el
subespacio {0} formado solo por el origen es invariante ya que h(0) = 0. Adem as, los
subespacios {0} y E son complementarios y en este caso h se descompone como la suma
directa de f : 0 70 y g = h. Tal descomposici on siempre existe pero no nos da nada
pues g = h.
Un subespacio se le llama no trivial si el no es todo el espacio y no es el origen. Un
OL se le llama reducible si el tiene dos subespacios invariantes complementarios no
triviales y en otro caso se le llama irreducible. A la restriccion de h a un subespacio
invariante no trivial que tiene un complementario invariante se le llama componente
de h. En otras palabras, f es una componente de h si existe g tal que h = f g
y esta descomposici on es no trivial. Los OLs irreducibles son exactamente aquellos
cuya unica descomposici on como suma directa de dos es la trivial o sea, aquellos que
no tienen componentes. Si un OL es reducible entonces, este se descompone como
suma directa de dos componentes. Si alguno de las componentes es reducible entonces
podemos descomponerla. Asi, vemos que cualquier OL es suma directa de componentes
irreducibles.
Ejemplos en dimension 2
Todo OL de dimension 1 es irreducible pues los unicos subespacios posibles son los
triviales. Veamos el caso de dimensi on 2. Supongamos que E es de dimensi on 2. Si h es
reducible entonces, E = FG y necesariamente F y G son subespacios h-invariantes de
dimensi on 1. Por la proposici on 3.2 las restricciones f y g de h a F y G respectivamente
son homotecias, o sea, existen escalares y tales que f es la multiplicaci on por y
g es la multiplicaci on por .
160 Captulo 6. Descomposici on de operadores lineales
Si {x} es una base de F y {y} es una base de G
R
2
x 73x y 72y
y
x

0
0

entonces la matriz de h en la base {x, y} es la del


recuadro a la izquierda, o sea es diagonal. Hemos
demostrado que cualquier operador lineal reduci-
ble de dimension 2 cumple que existe una base en la cual su
matriz es diagonal. En la gura de la derecha esta representada
el OL de este tipo cuando E = R
2
, {x, y} es la base canonica,
= 3 y = 2.
Una rotaci on de R
2
en un angulo en contra de las manecillas del reloj es obvia-
mente irreducible para / {0

, 180

} ya que en este caso, ninguna recta por el origen se


queda en su lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales.
Otro ejemplo es el que surge si a un cuadrado le apli-

1
0

R
2 y
x
camos dos fuerzas en sentido contrario a dos de sus
lados opuestos. M as precisamente, al OL que tiene co-
mo matriz en la base can onica de R
2
la del recuadro a
la derecha la llamaremos -deslizamiento. La gura de la izquierda
muestra intuitivamente como se mueven los puntos de R
2
al aplicar
un 1-deslizamiento. De esta gura, se ve que la unica recta por el
origen que es invariante es el eje x. Luego un -deslizamiento es irreducible ( 6= 0) ya
que el eje x no tiene complementario invariante.
Las matrices y los subespacios invariantes
Sea F es un subespacio invariante del OL h : E E. Sea G un subespacio comple-
mentario a F. Escojamos bases A y B de F y G respectivamente. Sabemos que A B
es una base de todo el espacio. Sea x un vector en la base A. Podemos hallar las
coordenadas de h(x) en la base A B
h(x) =
X
aA

a
a +
X
bB

b
b
y como h(x) hAi entonces, todas las coordenadas
b
son iguales a cero.
Estas coordenadas forman una columna de la matriz de h en la base

M
0

A B y por lo tanto despues de ordenar las bases, esta matriz tiene


que verse como en el recuadro a la izquierda. La matriz M es la de la
restriccion de h a F. El 0 representa una submatriz con entradas cero
con |A| columnas y |B| renglones. Finalmente, los * representan submatrices de las
dimensiones apropiadas. Resumiendo para futuras referencias:
Si F es un subespacio invariante de h y A es una base de todo
el espacio que contiene a una base B de F entonces, la matriz
de h en la base A es triangular por bloques y el bloque superior
izquierdo es la matriz de la restriccion de h a F en la base B.
161
Seccion 6.2 Polinomios de operadores lineales
Si ademas, G es h invariante entonces, el mismo razonamiento nos

M 0
0 M
0

hace ver que el * superior derecho es una submatriz con entradas


cero con |B| columnas y |A| renglones. En este caso la matriz tiene
que verse como en el recuadro a la derecha. La matriz M
0
es la de
la restricci on de h a G. Resumiendo para futuras referencias:
Si F y G son un subespacios invariantes complementarios de
h y los conjuntos A y B son bases de F y G respectivamente
entonces, la matriz de h en la base AB es diagonal por bloques
y los bloques diagonales son las matrices de las restricciones de
h a F en la base A y de h a G en la base B respectivamente.
6.2 Polinomios de operadores lineales
En esta secci on introduciremos una herramienta para el c alculo de los subespacios
invariantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea
(o vuelva a leer) la secci on 5.1 en la cual se introducen los ideales de polinomios y se
demuestra que todo ideal de K[x] es principal.
El morsmo de K[x] en End (E)
Para cualquier n umero natural n el operador h
n
h
n
=

n veces
z }| {
h ... h si n > 0
I si n = 0
se dene como en el recuadro a la derecha. De aqu,
como sabemos sumar OLs y multiplicar por escalares
a los OLs, vemos que una expresi on como por ejemplo
h
2
2h
1
+ 5I es un OL que conocemos si tan solo
conocemos a h
En general si p(x) =
P
n
i=0

i
x
i
K[x] es un polinomio arbitrario con coecientes
en el campo del espacio vectorial E, entonces p
h
=
P
n
i=0

i
h
i
es un OL bien denido. Al
proceso de substituir la variable x por el OL h y de esta manera convertir el polinomio
p(x) en el OL p
h
se le llama evaluacion de p en h.
Recordemos de la seccion 3.2 que un algebra es un espacio vectorial con un pro-
ducto de vectores asociativo, distributivo, con elemento neutro y que conmuta con el
producto por escalares. Ya vimos, que el espacio vectorial End (E) es un algebra para
la composicion de OL. Tambien vimos que el espacio vectorial de todos los polinomios
K[x] es un algebra para el producto de polinomios.
Una subalgebra es un subconjunto de una algebra que es algebra para las ope-
raciones inducidas en el subconjunto. Un subconjunto de una algebra es subalgebra
cuando es subespacio del espacio vectorial, es cerrado para el producto y contiene el 1.
Una transformaci on lineal entre dos algebras es un morsmo de algebras si esta
162 Captulo 6. Descomposici on de operadores lineales
conmuta con el producto y preserva el 1.
La funci on de evaluacion de polinomios en un
operador lineal es un morsmo de algebras.
Prueba. La funci on de evaluacion K[x] 3 p(x) 7 p
h
End (E) es una funci on
cuyo dominio y codominio son algebras. Sean
0
, ...,
n
y
0
, ...,
n
los coecientes de
dos polinomios p y q respectivamente. Tenemos la misma cantidad de coecientes en
ambos polinomios ya que siempre podemos agregar sucientes ceros. Sea un escalar.
Tenemos
(p)
h
=
n
P
i=0

i
h
i
=
n
P
i=0

i
h
i
= p
h
(p +q)
h
=
n
P
i=0
(
i
+
i
) h
i
=
n
P
i=0

i
h
i
+
n
P
i=0

i
h
i
= p
h
+q
h
lo que muestra que la evaluaci on en h es una TL.
Por denici on de producto de polinomios, tenemos
(pq)
h
=

n
P
i=0
n
P
j=0

j
x
i+j
!
h
=
n
P
i=0
n
P
j=0

j
h
i+j
=
n
P
i=0
n
P
j=0

h
i
h
j

=
=
n
P
i=0
n
P
j=0

i
h
i

j
h
j

=
n
P
i=0

i
h
i

n
P
j=0

j
h
j
= p
h
q
h
y nalmente, con 1
h
=

x
0

h
= h
0
= I terminamos la prueba.
La subalgebra K[h]
El morsmo de evaluacion en h tiene como imagen el conjunto de todos los OL
que son la evaluaci on en h de alg un polinomio de K[x]. Este conjunto de OLs se
denotar a por K[h]. Esto reeja que en la evaluaci on lo que hacemos es substituir la
variable x por el OL h.
K[h] es una sub algebra conmutativa del algebra de operadores lineales.
Prueba. Como la imagen de una transformaci on lineal es un subespacio, obtenemos
que K[h] es un subespacio de End(E). Como 1 (h) = I, obtenemos que I K[h]. Como
p
h
q
h
= (pq)
h
obtenemos que K[h] es cerrado para la composici on. La conmutatividad
se sigue de la conmutatividad del producto de polinomios. Efectivamente, p
h
q
h
=
(pq)
h
= (qp)
h
= q
h
p
h
y por lo tanto, los OLs en K[h] conmutan entre ellos.
La conmutatividad de K[h] es un hecho trivial pero muy notable. Los operadores
lineales en general no son conmutativos para la composicion. Sin embargo los que estan
en K[h] si conmutan entre ellos. Esto va a jugar un papel importante en todo lo que
sigue.
163 Seccion 6.2 Polinomios de operadores lineales
Cada vez que se tiene un morsmo de algebras, la imagen de este morsmo es una subalgebra
del codominio del morsmo. Si el dominio del morsmo es un algebra conmutativa entonces
la imagen es una subalgebra conmutativa.
El polinomio mnimo
El morsmo de evaluacion en h (recordemos que este morsmo es una transforma-
cion lineal) tiene como nucleo el conjunto de todos los polinomios p tales que p
h
=
O.
El nucleo del morsmo de evaluaci on en h es un ideal de K[x].
Prueba. El nucleo de una transformaci on lineal es un subespacio y por lo tanto si
p
h
= q
h
= O entonces (p +q)
h
= O. Sea r (x) cualquier polinomio. Necesitamos
mostrar que (rq)
h
= O. Para cualquier a E tenemos
(rq)
h
(a) = (r
h
q
h
) (a) = r
h
(q
h
(a)) = r
h
(0) = 0
y esto es todo lo que queramos probar.
Por 5.5 todo ideal de K[x] es principal y por lo tanto existe un unico polinomio
h (notese la letra g otica) de coeciente principal 1 (o sea, m onico) tal que si p
h
= O
entonces, p es un m ultiplo de h. En smbolos matem aticos {p(x) K[x] | p
h
= O} =
{qh | q K[x]}. Al polinomio h se le llama polinomio mnimo de h. El polinomio
mnimo de h es el polinomio m onico de grado mas peque no que al evaluarlo en h se
obtiene el OL nulo O. Por ahora, no sabemos mucho del polinomio mnimo de h, solo
sabemos que existe y que es unico.
Otra manera m as descriptiva de ver el polinomio mnimo es la siguiente. Consi-
deremos la sucesion innita de operadores I, h, h
2
, . . .. Todos los elementos de esta
sucesion no pueden ser LI en el espacio vectorial End (E) porque este espacio es de
dimensi on nita e igual a (dimE)
2
. Esto quiere decir que hay un primer natural n y
unos coecientes escalares
i
tales que h
n
=
0
h
0
+
1
h
1
+ +
r1
h
n1
. Denotando
p(x) = x
n

r1
x
n1

1
x
1

0
x
0
vemos que p
h
= O y que este es el unico
polinomio m onico de grado mas peque no que cumple esto. Luego, p es el polinomio
mnimo de h.
El perodo de un vector
Si p es un polinomio entonces p
h
es un OL. Si a es un vector entonces a la imagen
por p
h
de a se le denotara por p
h
(a). Luego, p
h
(a) se obtiene en dos pasos: primero
tomamos el polinomio p lo evaluamos en h y as obtenemos p
h
; segundo la funci on p
h
la evaluamos en a y as obtenemos p
h
(a).
Para cualquier vector a, el conjunto de todos los
polinomios p tales que p
h
(a) = 0, es un ideal.
164 Captulo 6. Descomposici on de operadores lineales
Prueba. Si p
h
(a) = q
h
(a) = 0 y r es cualquier polinomio entonces
(p +q)
h
(a) = (p
h
+q
h
) (a) = p
h
(a) +q
h
(a) = 0
(rp)
h
(a) = r
h
(p
h
(a)) = r
h
(0) = 0
y esto es todo lo que se requera probar.
Nuevamente, como todo ideal de polinomios es principal entonces, existe un uni-
co polinomio m onico q tal que el conjunto {p K[x] | p
h
(a) = 0} es exactamente el
conjunto de todos polinomios que son m ultiplos de q. Al polinomio q se le llama el
h-perodo del vector a o sencillamente el perodo de a si est a implcito cual es el
operador h. En otras palabras, el perodo de a es el polinomio q m onico de grado mas
peque no tal que q
h
(a) = 0.
Mas descriptivamente, en la sucesi on innita de vectores a, h(a) , h
2
(a) , . . . todos
los elementos no pueden ser LI porque el espacio E es de dimension nita. Esto quiere
decir que hay un primer natural n y unos coecientes escalares
i
tales que h
n
=

0
h
0
(a) + +
r1
h
n1
(a). Denotando p(x) = x
n

n1
x
n1

1
x
1

0
x
0
vemos que p
h
(a) = 0 y que este es el unico polinomio monico de grado m as peque no
que cumple esto. Luego, p(x) es el perodo de a.
Ejercicio 98 Pruebe que el vector 0 es el unico vector cuyo perodo es de grado cero.
[233]
Ejercicio 99 Pruebe que los vectores no nulos cuyo perodo es el polinomio x son
exactamente aquellos que estan en el nucleo de h. [233]
Anuladores
Sea ahora A E un conjunto arbitrario de vectores. El h-anulador de A es
el conjunto de polinomios {p K[x] | a A p
h
(a) = 0}. Previamente ya habamos
considerado dos anuladores. En el caso de que A es todo el espacio entonces el anulador
es el ideal usado para denir el polinomio mnimo. En el caso de que A es un solo vector
entonces el anulador es el ideal usado para denir el perodo del vector. Analogamente
a las pruebas de 6.6 y 6.7 podemos probar que cualquier anulador es un ideal. Esto nos
permite denir el h-perodo de un conjunto de vectores como el polinomio generador
de su anulador. El anulador de un conjunto de vectores es el conjunto de polinomios
que son m ultiplos de su perodo.
De aqu en lo adelante denotaremos por per
h
(A) al h-perodo de un con-
junto de vectores A. As, per
h
(a) es el h-perodo del vector a y per
h
(E)
es el h-perodo de todo el espacio o sea, el polinomio mnimo de h.
165 Seccion 6.2 Polinomios de operadores lineales
monotona del perodo
Si A B entonces, per
h
(A) es un divisor de per
h
(B).
Prueba. Sea A
0
el h-anulador de A. Si p es el perodo de B entonces p
h
(b) = 0 para
cualquier b B y por lo tanto p
h
(a) = 0 para cualquier a A. Luego p A
0
y por
lo tanto es un m ultiplo del perodo de A.
Nucleos de polinomios de operadores lineales
Los nucleos de los polinomios evaluados en un OL son un objeto importante para
la descomposici on de ese OL en componentes irreducibles. Su importancia est a dada
por el siguiente resultado.
invariancia de los nucleos
El nucleo de cualquier operador en
K[h] es un subespacio h-invariante.
Prueba. Sabemos que el nucleo de cualquier OL es un subespacio. Demostremos la
invariancia. Sea a ker p
h
entonces p
h
(a) = 0. Por la conmutatividad de los OL en
K[h] tenemos p
h
(h(a)) = h(p
h
(a)) = h(0) = 0. O sea, h(a) ker p
h
.
monotona de los nucleos
Si p es un divisor de q entonces Ker p
h
Ker q
h
.
Prueba. Sea q = p
0
p. Si x Ker p
h
entonces q
h
(x) = p
0
h
(p
h
(x)) = p
0
h
(0) = 0 y
por lo tanto x Ker q
h
.
Conjuntos de vectores y polinomios
Los conjuntos de vectores estan ordenados naturalmen-
Conjuntos de vectores
per
h
ker
Polinomios m onicos
te por inclusi on, y los polinomios m onicos estan ordena-
dos naturalmente por divisibilidad. Hemos establecido dos
funciones mon otonas entre estos dos conjuntos ordenados
(vease el recuadro a la derecha). Sin embargo, estas funciones NO son una la inversa
de la otra. La relacion entre ellas es un poco m as compleja y esta dada por el siguiente
resultado.
per
h
(A) divide a p si y solo si A ker p
h
.
Prueba. Denotemos por q el perodo de A. Si q divide p entonces, p esta en el
166 Captulo 6. Descomposici on de operadores lineales
anulador de A y por lo tanto para cualquier vector a en A se cumple que p
h
(a) = 0.
Luego, A ker p
h
. Recprocamente, si A ker p
h
entonces p esta en el anulador de
A y por lo tanto q es un divisor de p.
per
h
(ker p
h
) divide a p.
Prueba. Pongase A = ker p
h
en 6.11.
per
h
(A) es el mnimo com un m ultiplo
de los perodos de los vectores en A.
Prueba. Sea p = per
h
(A) y p
0
el mnimo com un m ultiplo de los perodos de los
vectores en A. Para cualquier vector a en A tenemos que p
h
(a) = p
0
(a) = 0.
Como p est a en el anulador de todos los vectores en A entonces es un multiplo
com un de sus h-perodos y por lo tanto p es un m ultiplo de p
0
. Como p
0
est a en el
anulador de A entonces p
0
es un m ultiplo de p.
El polinomio mnimo de h es el mnimo com un
m ultiplo de los perodos de todos los vectores.
Prueba. Pongase A igual a todo el espacio en 6.13
Sean A y B dos conjuntos ordenados. A una pareja de funciones monotonas f

: A B y
f

: B A se les llama conexi on de Galois si (f

(a) b) (a f

(b)). El resultado
6.11 nos muestra que si tomamos f

el perodo y f

el nucleo entonces, tenemos una conexi on


de Galois. En toda conexion de Galois se tiene que f

(f

(x)) x, en nuestro caso, el resultado 6.12.


En toda conexion de Galois se tiene que f

preserva los supremos y el resultado 6.13 es un caso


particular de esto. Las conexiones de Galois aparecen muy frecuentemente en las matem aticas.
6.3 Subespacios radicales
En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sin
factores comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero,
les daremos un nuevo nombre m as corto. Dos polinomios p y q se les llama coprimos
si cualquier factor com un a ambos es de grado 0. O sea, no tienen factores comunes no
triviales. Dos polinomios p y q son coprimos si y solo si los factores irreducibles de p
son diferentes a los factores irreducibles de q.
El siguiente resultado que usaremos mas adelante es f acil consecuencia del teorema
de descomposicion de polinomios en factores irreducibles. Si al lector no le parece que
este resultado es obvio entonces, debe hacer un esfuerzo por demostrarlo.
167 Seccion 6.3 Subespacios radicales
Lema de igualdad de polinomios
Si p, q, p
0
y q
0
son m onicos entonces,
p
0
divide a p
q
0
divide a q
pq divide a p
0
q
0
p y q son coprimos

p
0
= p
q
0
= q
.
Ejercicio 100 Demuestre Lema de igualdad de polinomios (6.15). [233]
Ahora estamos listos para empezar a descomponer los operadores lineales.
Lema de Descomposici on de Nucleos
Si p y q son polinomios coprimos entonces, ker (pq)
h
= ker p
h
ker q
h
.
Prueba. Todos los nucleos involucrados son subespacios. Lo que hay que probar es
que ker p
h
ker q
h
= {0} y que ker (pq)
h
= ker p
h
+ker q
h
. O sea, es una suma directa.
Por el Teorema de Bezout existen polinomios r, s tales que rp +sq = 1.
Sea x ker p
h
ker q
h
. Tenemos que
x = 1
h
(x) = (rp +sq)
h
(x) = r
h
(p
h
(x)) +s
h
(q
h
(x)) = r
h
(0) +s
h
(0) = 0
lo que prueba que ker p
h
ker q
h
= {0}.
Sea x ker (pq)
h
y denotemos y = (sq)
h
(x), z = (rp)
h
(x). Como rp + sq = 1
tenemos z +y = x. Adem as, por la conmutatividad tenemos que
p
h
(y) = (psq)
h
(x) = s
h
((pq)
h
(x)) = s
h
(0) = 0
q
h
(z) = (qrp)
h
(x) = r
h
((pq)
h
(x)) = r
h
(0) = 0
o sea, y ker p
h
y z ker q
h
. Luego ker (pq)
h
ker p
h
+ ker q
h
.
Para probar la otra inclusi on sean a ker p(h) y b ker q(h). Tenemos que
(pq)
h
(a +b) = p
h
(q
h
(a +b)) = p
h
(q
h
(a) +q
h
(b)) =
= p
h
(q
h
(a)) = q
h
(p
h
(a)) = q
h
(0) = 0
y por lo tanto ker p
h
+ ker q
h
ker (pq)
h
.
Lema de los Perodos de los Nucleos
Si p y q son polinomios m onicos coprimos entonces,
pq = per
h
(ker (pq)
h
)

p = per
h
(ker p
h
)
q = per
h
(ker q
h
)
Prueba. (=) Denotemos por p
0
= per
h
(ker p
h
) y q
0
= per
h
(ker q
h
). Usando 6.12
obtenemos que p
0
divide a p y que q
0
divide a q.
168 Captulo 6. Descomposici on de operadores lineales
Por el Lema de Descomposici on de Nucleos (6.16) tenemos ker (pq)
h
= ker p
h
+
ker q
h
. Sean a ker p
h
y b ker q
h
dos vectores. Por conmutatividad tenemos que
(p
0
q
0
)
h
(a +b) = q
0
h
(p
0
h
(a)) +p
0
h
(q
0
h
(a)) = 0 +0 = 0
Luego p
0
q
0
es un m ultiplo com un de los perodos de todos los vectores en ker p
h
+
ker q
h
= ker (pq)
h
. Como el pq = per
h
(ker (pq)
h
) es el mnimo de estos m ultiplos
comunes obtenemos que pq divide a p
0
q
0
. Usando el Lema de igualdad de polinomios
(6.15) obtenemos p = p
0
y q = q
0
.
(=) Supongamos que los polinomios monicos coprimos p y q cumplen que p =
per
h
(ker p
h
) y q = per
h
(ker q
h
). Denotemos r = per
h
(ker (pq)
h
) Usando 6.12 obte-
nemos que r divide a pq. Como ker p
h
ker (pq)
h
entonces usando la monotona del
perodo (6.8) obtenemos que p divide a r. Por la misma raz on q divide a r. Como p y
q son coprimos entonces pq divide a r y por lo tanto r = pq
Operadores lineales radicales
Por la invariancia de los nucleos (6.9) y el Lema de Descomposici on de Nucleos
(6.16) si (pq)
h
= O y p, q son coprimos entonces, h tiene dos subespacios invariantes
complementarios ker p
h
y ker q
h
y podramos tener (si la descomposici on es no trivial)
que h es reducible. El candidato que tenemos para el polinomio pq es el polinomio
mnimo de h.
Un polinomio p se descompone en producto de dos factores coprimos si y solo si p
tiene al menos dos factores irreducibles distintos. Esto nos lleva a la siguiente denicion.
Diremos que h es radical de tipo p si el polinomio mnimo de h tiene un solo factor
irreducible e igual a p. Equivalentemente, h es radical si el perodo de cualquier vector
es de la forma p
m
donde p es un polinomio m onico sin factores no triviales.
En la teora de anillos el radical de un ideal I es el conjunto de todos los elementos x tales
que para cierto natural m se tiene que x
m
I. El radical de cualquier ideal es un ideal. En
este lenguaje, un operador es radical de tipo p (irreducible) si el radical del anulador del
espacio es ideal generado por p.
Si h es irreducible entonces, es radical.
Prueba. Si h no es radical entonces el polinomio mnimo h de h se descompone no
trivialmente como un producto h = pq donde p y q son coprimos. Por el Lema de
Descomposici on de Nucleos (6.16) tenemos E = ker (pq)
h
= ker p
h
ker q
h
siendo
ker p
h
y ker q
h
subespacios invariantes de h (por la invariancia de los nucleos (6.9)).
Como p es un factor propio de h que es el mnimo com un m ultiplo de los perodos de
todos los vectores entonces, ker p
h
6= E y por la misma raz on ker q
h
6= E. Esto quiere
decir que la descomposici on ker p
h
ker q
h
es no trivial y por lo tanto h es reducible.
Este resultado no alcanza para caracterizar a los operadores lineales irreducibles.
Por ejemplo la identidad en R
2
tiene polinomio mnimo x 1 o sea, es radical. Sin
169 Seccion 6.3 Subespacios radicales
embargo, es evidentemente la suma directa de la identidad en el eje x y la identidad
en el eje y.
Componentes radicales
Un vector se le llama radical de tipo p si su perodo es igual a p
m
y p es irreducible.
Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son
radicales de tipo p o equivalentemente si su perodo es igual a p
m
. Recordemos que
la multiplicidad de un factor es el n umero de veces que podemos dividir sin resto por
dicho factor.
Si p es factor irreducible de multiplicidad m del polinomio mnimo de h
entonces, ker p
m
h
es el conjunto de todos los vectores radicales de tipo p.
Prueba. Sea a un vector de perodo p
k
. Si k > m entonces p
k
= per
h
(a) no divide
al polinomio mnimo y esto no puede ser. Luego k m. De la monotona de los
nucleos (6.10) obtenemos ker p
k
h
ker p
m
h
y por lo tanto a ker p
m
h
. Recprocamente,
si a ker p
m
h
entonces p
m
h
(a) = 0 y por lo tanto per
h
(a) es un divisor de p
m
. Como
p es irreducible, necesariamente per
h
(a) es igual a p
k
para cierto k m.
Por el teorema de descomposici on de un polinomio en factores irreducibles el poli-
nomio mnimo de h es igual a un producto
Q
pP
p
m
p
donde P es el conjunto de sus
factores irreducibles y m
p
es la multiplicidad del polinomio irreducible p. Por el resul-
tado anterior, los espacios ker p
mp
h
son los subespacios radicales maximales de h.
De la invariancia de los nucleos (6.9) sabemos que los subespacios radicales maxima-
les son invariantes. A la restricci on de h a un subespacio radical maximal se le llama
componente radical de h.
Teorema de Descomposicion en Componentes Radicales
Todo operador lineal es la suma directa de sus componentes radicales.
Prueba. Sea h =
Q
pP
p
m
p
el polinomio mnimo de h. Si en P hay un solo polinomio
irreducible entonces h es radical y no hay nada que probar. Hagamos inducci on en
el n umero de polinomios irreducibles en P. Sea r un polinomio irreducible jo pero
arbitrario en P. Denotemos q = r
mr
y q
0
=
Q
pP\r
p
mp
. Tenemos que h = qq
0
y
que q, q
0
son coprimos. Del Lema de Descomposici on de Nucleos (6.16) obtenemos la
descomposici on en subespacios invariantes complementarios E = F G donde F =
ker q
h
y G = ker q
0
h
.
Sean f y g las restricciones de h a F y G respectivamente. Sean f y g los polinomios
mnimos de f y g respectivamente. Del Lema de los Perodos de los Nucleos (6.17) f = q
y g = q
0
. Luego, todas las componentes radicales de g son componentes radicales de h.
Aplicando la hipotesis de inducci on g es suma directa de sus componentes radicales.
170 Captulo 6. Descomposici on de operadores lineales
Como f es una componente radical de h entonces, h = f g es suma directa de sus
componentes radicales.
Como la descomposici on de un polinomio en polinomios irreducibles es unica salvo
orden de los factores entonces, la descomposicion de un operador lineal en componentes
radicales es unica salvo orden de los sumandos.
Existencia de un vector de perodo maximo
La descomposici on en componentes radicales nos permite limitarnos a considerar
el caso en que el operador lineal h es radical. Esto simplica mucho las cosas por la
simplicidad de la relaci on de divisibilidad entre los divisores de los polinomios tipo p
n
cuando p es irreducible. Esta relaci on orden es total. Por ejemplo, si A es un conjunto
de divisores de p
n
entonces se cumple que el mnimo com un multiplo de A es un
polinomio en A.
Para cualquier operador lineal h existe un vector tal
que su perodo es igual al polinomio mnimo de h.
Prueba. Sea h el polinomio mnimo de h : E E. Primero para el caso de que
h es radical o sea cuando h = p
k
con p irreducible. El polinomio h es el mnimo
com un m ultiplo de los perodos de todos los vectores y estos son divisores de p
k
. Por
la observaci on que precede a este resultado tiene que ocurrir que uno de esos perodos
es p
k
.
El caso general por induccion en el n umero de componentes radicales. Descom-
pongamos h = f g donde f es una componente radical. Esta descomposici on se
corresponde con la descomposici on E = F G en subespacios invariantes. Los opera-
dores f y g son las restricciones de h a F y G respectivamente. Los polinomios mnimos
f y g de f y g respectivamente son coprimos y cumplen que h = fg. Por hip otesis de
induccion existen vectores a y b en F y G respectivamente tales que f = per
h
(a) y
g = per
h
(b).
Denotemos p = per
h
(a b). El polinomio p es un divisor de fg = h al ser este
ultimo un com un m ultiplo de los perodos de todos los vectores.
Tenemos (p
h
(a b) = 0) (p
h
(a) = p
h
(b)). Como F y G son invariantes F 3
p
h
(a) = p
h
(b) G. Como F y G son complementarios p
h
(a) = p
h
(b) = 0. Entonces,
p es un multiplo de f = per
h
(a) y es un m ultiplo de g = per
h
(b). Como f y g son
coprimos entonces, p es un m ultiplo de fg = h.
171 Seccion 6.4 El espacio cociente por un subespacio invariante
6.4 El espacio cociente por un subespacio invariante
Los -deslizamientos nos muestran que no todo subespacio invariante tiene comple-
mentario invariante. Por esto, los espacios cocientes juegan aqu un papel fundamental.
En realidad, en este captulo no estamos interesados en los espacios cocientes per se.
Por el contrario, solo los necesitamos como una herramienta para probar los resultados
en los que si estamos interesados: la descomposici on de OLs. Necesitamos por lo tanto
aprender a manejar esta herramienta.
Sea h : E E un OL y F un subespacio h-invariante o sea h(F) F. El espacio
cociente E/F es el conjunto de todos los subespacios anes paralelos a F. Lo que
queremos ver es que si los vectores a y b est an en un mismo subespacio afn paralelo
a F entonces h(a) y h(b) cumplen exactamente lo mismo.
Efectivamente, si a y b estan en un mismo subespacio afn paralelo a F entonces
a b F. Como F es h-invariante entonces h(a) h(b) = h(a b) F y por lo
tanto h(a) y h(b) estan en un mismo subespacio afn paralelo a F. N otese que aqu el
argumento crucial es que F es h-invariante.
Esto nos permite denir la funcion
e
h en el espacio cociente con la igualdad
e
h(a + F) =
h(a) +F. La observaci on precedente nos dice que esta funci on esta bien denida, o sea
si a + F = b + F entonces, h(a) + F = h(b) + F. Observese que
e
h es un OL en E/F
ya que
e
h(a + F +b + F) =
e
h(a +b + F) = h(a +b) + F =
= h(a) + F +h(b) + F =
e
h(a + F) +
e
h(b + F)
y tambien
e
h((a + F)) =
e
h(a + F) = h(a) + F =h(a) + F = (h(a) + F) =
e
h(a + F) .
Para que denir
e
h? Acaso no se cumple que h(a + F) = h(a)+F? Pues no, esto se cumple
solo cuando h es biyectiva. Inclusive si arbitrariamente pidieramos que h sea biyectiva esto
no nos dara nada pues necesitaremos f p
h
y los p
h
tienen nucleos grandes.
Necesitaremos conocer mejor los OLs del espacio cociente End (E/F).
El conjunto End
F
(E) de todos los operadores lineales
que dejan invariante F es una subalgebra de End (E).
Prueba. Sean f y g dos operadores en End
F
(E). Sea un escalar. Para cualquier
vector a F tenemos f (a) F y g(a) F y por lo tanto
(g +f) (a) = g(a) +f (a) F ; I (a) F ;
(g f) (a) = g(f (a)) F ; (f) (a) = f (a) F.
Luego, End
F
(E) es una subalgebra.
172 Captulo 6. Descomposici on de operadores lineales
La funci on End
F
(E) 3 h 7
e
h End(E/F) es un morsmo de algebras.
Prueba. Probaremos que h 7
e
h es morsmo para la composici on
g
f g(a + F) = (f g) (a) + F = f (g(a)) + F =
e
f (g(a) + F) =
=
e
f (g(a) + F) =
e
f (e g(a + F)) =

e
f e g

(a + F) ;
y para la suma
]
f +g(a + F) = (f +g) (a) + F = f (a) + F +g(a) + F =
=
e
f (a + F) + e g(a + F) =

e
f + e g

(a + F) ;
y para el producto por escalares
e
f (a + F) = (f) (a) + F = f (a) + F =
e
f (a + F) =
=
e
f ((a + F)) =

e
f

(a + F) ;
y que preserva la identidad
e
I (a + F) = I (a) + F = a + F = I (a + F) .
Ejercicio 101 Muestre que el morsmo h 7
e
h es sobreyectivo y su nucleo esta for-
mado por aquellos operadores lineales cuya imagen es F. [233]
Polinomios y el espacio cociente
Sea F E un subespacio h-invariante. Ya vimos como se dene
e
h en E/F a saber
e
h(a + F) = h(a) + F y comprobamos que esta denici on es correcta debido a la h-
invariancia de F. Para poder denir f p
h
(a + F) = p
h
(a) + F necesitamos que F sea
p
h
-invariante. Por suerte, esto se cumple autom aticamente.
Sea p un polinomio. Si F es h-invariante entonces tambien es p
h
-invariante.
Prueba. Como el conjunto de los operadores que preservan F es una subalgebra del
algebra de todos los operadores entonces todos los h
n
estan ah, tambien todas las
combinaciones lineales de estos o sea, todos los polinomios evaluados en h.
Luego, f p
h
es un OL bien denido en el espacio cociente. Por otro lado, si evaluamos
el polinomio p en el operador
e
h obtendremos p

h
que es otro OL bien denido en el
espacio cociente.
f p
h
= p

h
Prueba. Sea p(x) =
i
x
i
. Como la funci on h 7 h
n
es un morsmo de algebras,
173 Seccion 6.5 Subespacios cclicos
tenemos
^
X
n
i=0

i
h
i
=
X
n
i=0
g

i
h
i
=
X
n
i=0

i
e
h
i
=
X
n
i=0

e
h

i
y esto es lo que se necesitaba probar.
Esto es muy comodo, ya que en el cociente tenemos la f ormula p

h
(a + F) =
f p
h
(a + F) = p
h
(a) + F.
per

h
(a + F) es un divisor de per
h
(a).
Prueba. Si p = per
h
(a) entonces p

h
(a + F) = p
h
(a) +F = 0+F = F y por lo tanto
p es un m ultiplo de per

h
(a + F).
El polinomio mnimo de
e
h es un divisor del polinomio mnimo de h.
Prueba. Sean h y
e
h los polinomios mnimos de h y
e
h respectivamente. Para cualquier
vector a tenemos que h

h
(a + F) = h
h
(a) + F = 0 + F = F. Luego, h es un m ultiplo
de
e
h.
Ejercicio 102 Pruebe que si a es un vector tal que hai
h
F = {0} y per
h
(a) es un
m ultiplo de per
h
(F) entonces, per

h
(a + F) = per
h
(a). [234]
6.5 Subespacios cclicos
Sea h : E E un operador lineal. Sea V = {v
1
, . . . , v
n
} E un conjunto de
vectores. Una h-combinacion de V es un vector de la forma
p
h
(v
1
) +q
h
(v
2
) + +r
h
(v
n
)
donde los coecientes p, q, ..., r son polinomios arbitrarios en K[x].
Le dejamos al lector hacer la denici on para el caso de que V es innito. En este
caso hay que exigir soporte nito, o sea que el conjunto de coecientes no nulos sea
nito.
Las h-combinaciones son combinaciones lineales en el caso de que los coecien-
tes sean polinomios de grado cero. Esto se ve de que si es un escalar entonces,

h
(v) = h
0
(v) = I (v) = v. Recordemos que hVi denota el conjunto de todas las
combinaciones lineales de V. Denotemos hVi
h
el conjunto de todas las h-combinaci ones
de V. La observaci on anterior signica que hVi hVi
h
.
174 Captulo 6. Descomposici on de operadores lineales
Ejercicio 103 Pruebe que hVi = hVi
h
si y solo si h es una homotecia (h(x) = x).
Conjuntos h-generadores
El conjunto de todas las h-combinaciones de V es un subespacio inva-
riante.
Prueba. Sea un escalar. Sean a = p
h
(v
1
)+ +q
h
(v
n
) y b = r
h
(v
1
)+ +s
h
(v
n
)
dos h-combinaciones de V. Entonces,
a +b = p
0
h
(v
1
) + +q
0
h
(v
n
) donde p
0
= p +r, . . . , q
0
= q +s,
a = p
0
h
(v
1
) + +q
0
h
(v
n
) donde p
0
= p, . . . , q
0
= q,
h(a) = p
0
h
(v
1
) + +q
0
h
(v
n
) donde p
0
(x) = xp(x) , . . . , q
0
(x) = xq(x) .
Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que es
invariante.
Ya es la tercera vez que nos tropezamos con una situaci on similar. Las anteriores
fueron la cerradura lineal y la cerradura afn. Los siguientes tres resultados muestran
que la funci on V 7hVi
h
es un operador de cerradura que llamaremos h-cerradura.
La interseccion de subespacios invariantes es invariante.
hVi
h
es la interseccion de todos los subes-
pacios invariantes que contienen a V.
La h-cerradura cumple las siguientes propiedades:
V hVi
h
(incremento),
V
0
V hV
0
i
h
hVi
h
(monotona),
hhVi
h
i
h
= hVi
h
(idempotencia).
Ejercicio 104 Pruebe estos tres resultados.
A hVi
h
le llamaremos el subespacio invariante h-generado por V. Si hVi
h
es todo
el espacio diremos que V es un h-generador. Obviamente los sobreconjuntos de h-
generadores y los conjuntos generadores (sin la h) son h-generadores.
175 Seccion 6.5 Subespacios cclicos
per
h
hVi
h
= per
h
V.
Prueba. Tenemos V hVi
h
y por la monotona del perodo (6.8) sabemos que
per
h
V es un divisor de per
h
hVi
h
. Denotemos q = per
h
V. Si x hVi
h
entonces x es
una h-combinaci on de V
x = p
h
(v
1
) + +r
h
(v
n
)
donde {v
1
, . . . , v
n
} V y por lo tanto
q
h
(x) = q
h
(p
h
(v
1
)) + +q
h
(r
h
(v
n
)) = p
h
(q
h
(v
1
)) + +r
h
(q
h
(v
n
)) = 0.
Luego, q = per
h
V est a en el anulador de hVi
h
y por lo tanto es un m ultiplo de
per
h
hVi
h
.
Un subespacio invariante se le llama h-cclico si este est a h-generado por un solo
vector. Los subespacios cclicos son los h-analogos de las rectas por el origen que est an
generadas (sin la h) por un solo vector. Al operador h se le llama cclico si todo el
espacio es h-cclico.
Si q es un polinomio coprimo con per
h
a entonces hai
h
= hq
h
(a)i
h
.
Prueba. Por denicion q
h
(a) hai
h
y por monotona e idempotencia de la h-
cerradura hq
h
(a)i
h
hai
h
. Por otro lado usando el Teorema de Bezout encontramos
polinomios r y s tales que rp +sq = 1 y por lo tanto
(rp)
h
(a) + (sq)
h
(a) = (sq)
h
(a) = a.
Luego a = s
h
(q
h
(a)) hq
h
(a)i
h
y por monotona e idempotencia de la h-cerradura
hai
h
hq
h
(a)i
h
.
Conjuntos h-independientes
Un conjunto de vectores {v
1
, . . . , v
n
} no nulos se le llama h-independiente si
(p
h
(v
1
) + +q
h
(v
n
) = 0) (p
h
(v
1
) = = q
h
(v
n
) = 0)
Esto es equivalente a que si una h-combinaci on de ellos es cero entonces, para todo i el
coeciente de v
i
es un m ultiplo del perodo de v
i
. Al considerar coecientes de grado
cero vemos que los conjuntos h-independientes siempre son linealmente independien-
tes. En particular, el n umero de elementos en un conjunto h-independiente no puede
sobrepasar la dimensi on del espacio.
Si V = {v
1
, . . . , v
n
} es h-independiente entonces hVi
h
= hv
1
i
h
hv
n
i
h
.
Prueba. Por inducci on en el natural n. Si n = 1 el resultado es obvio. Denotemos
V
0
= {v
2
, . . . , v
n
}. Tenemos que probar que hVi
h
= hv
1
i
h
+hV
0
i
h
y que hv
1
i
h
hV
0
i
h
= 0.
Si a hVi
h
entonces existen coecientes polinomiales tales que a = p
h
(v
1
) +
176 Captulo 6. Descomposici on de operadores lineales
q
h
(v
2
)+ +r
h
(v
n
). Obviamente, a
0
= p
h
(v
1
) hv
1
i
h
, a
00
= q
h
(v
2
)+ +r
h
(v
n
)
hV
0
i
h
y a = a
0
+a
00
. Luego, hVi
h
hv
1
i
h
+hV
0
i
h
. La otra inclusi on se demuestra igual.
Supongamos que a hv
1
i
h
hV
0
i
h
. Entonces, existen polinomios tales que
p
h
(v
1
) = a = q
h
(v
2
) + +r
h
(v
n
)
por lo tanto
p
h
(v
1
) q
h
(v
2
) r
h
(v
n
) = 0.
Como V es h-independiente entonces, a = p
h
(v
1
) = 0.
h-bases
El resultado anterior es formidable. Si solo V adem as de h-independiente fuera h-
generador, obtendramos una descomposicion de todo el espacio en suma directa de
subespacios invariantes h-generados por un solo vector o sea cclicos.
Una h-base es un conjunto de vectores que es h-independiente y h-generador. El

0 0 ... 0
0
1 0 ... 0
1
... ... ... ... ...
0 0 ... 0
n2
0 0 ... 1
n1

unico problema es que no sabemos si existen o no las h-bases. Veremos en la siguiente


secci on que si existen sin embargo, el problema no es tan
sencillo como en el caso de las bases ordinarias (sin la h).
Hay que ir poco a poco.
Si p = x
n

n1
x
n1

1
x
0
es un polinomio
m onico arbitrario entonces a la matriz del recuadro a la
derecha se le llama matriz acompa nante del polinomio
p.
Sea h un OL cclico con polinomio mnimo p de grado n. Sea a un vec-
tor h-generador. El conjunto de vectores

a, h(a) , . . . , h
n1
(a)

es una
base del espacio vectorial y la matriz de h en esta base es la matriz acom-
pa nante de p.
Prueba. Denotemos B =

a, h(a) , . . . , h
n1
(a)

y probaremos que B es una base


del espacio. Si hubiera una combinaci on lineal

0
a +
1
h(a) + +
n1
h
n1
(a) = 0
con no todos sus coecientes nulos entonces, el polinomio no nulo
q(x) =
0
+
1
x + +
n1
x
n1
sera tal que q
h
(a) = 0 y esto contradice (q tiene grado menor que el grado de p) que
los polinomios en el anulador de a son los multiplos de p. Luego, A es LI.
Por otro lado, como a es h-generador entonces para cualquier vector x existe un
polinomio q tal que x = q
h
(a). Efectuando la divisi on con resto obtenemos q = cp+r
donde el grado de r es estrictamente menor que el grado de p. Luego, r
h
(a) es una
combinaci on lineal de B y r
h
(a) = (q cp)
h
(a) = q
h
(a) c
h
(p
h
(a)) = q
h
(a) = x.
Esto signica que A es un conjunto generador y por lo tanto es una base.
Veamos como transforma h a los vectores en la base B. Denotemos v
k
= h
k
(a),
177 Seccion 6.6 Descomposicion en subespacios cclicos radicales.
Luego, B = {v
0
, . . . , v
k1
} Tenemos que para k {0, . . . , n 2} se cumple que h(v
k
) =
v
k+1
lo que justica las n 1 primeras columnas de la matriz acompa nante. Por otro
lado si p = x
n

n1
x
n1

1
x
0
es el polinomio mnimo de h. entonces
h(v
n1
) = h
n
(a) = p
h
(a) +
n1
X
i=0

i
h
i
(a) = 0 +
n1
X
i=0

i
v
i
y esto justica la ultima columna de la matriz acompa nante.
Si A es una h-base entonces, la dimensi on del espacio es igual
a la suma de los grados de los h-perodos de los vectores en A.
Prueba. Como la dimension de la suma directa es la suma de las dimensiones de
los sumandos entonces, usando 6.34 vemos que es suciente probarlo para cuando A
contiene un solo vector a. Sea p = per
h
(a) y n el grado de p. Por 6.32 p = per
h
(hai
h
).
Como hai
h
es por hip otesis todo el espacio entonces p es el polinomio mnimo de h.
Usando 6.35 vemos que la dimensi on del espacio es n.
Si A es una h-base entonces, el polinomio mnimo de h es igual
al mnimo com un multiplo de los h-perodos de los vectores en A.
Prueba. Sea p el mnimo com un multiplo de los h-perodos de los vectores en A. De
6.13 sabemos que p = per
h
A. Sea h polinomio mnimo de h. Como h es el perodo de
todo el espacio E y hAi
h
= E entonces, de 6.32 obtenemos p = per
h
A = per
h
hAi
h
= h.
6.6 Descomposici on en subespacios cclicos radicales.
Entre todos los subespacios h-cclicos los m as grandes son aquellos que est an h-
generados por vectores de perodo igual al polinomio mnimo. A estos les llamaremos les
llamaremos maximales. Por 6.21 siempre existe alg un subespacio h-cclico maximal.
La estrategia para deshacernos del problema de que no cualquier subespacio inva-
riante tiene complementario invariante es limitarnos a los operadores radicales, jarnos
solamente en los subespacios invariantes maximales y construir un complementario que
si es invariante. El siguiente resultado es la clave para lograr esto.
Lema del Perodo
Sea h End(E) radical y F un subespacio h-cclico maximal. Para cual-
quier v + F E/F existe b v + F tal que per
h
(b) = per

h
(v + F).
178 Captulo 6. Descomposici on de operadores lineales
Prueba. Sea p
n
(con p irreducible) el polinomio mnimo de h. Por 6.26 el per

h
(v + F)
es un divisor com un a todos los h-perodos de los vectores en v + F y estos son todos
potencias de p. Luego, existe un natural m n tal que per

h
(v + F) = p
m
. Tenemos
que, p
m

h
(v + F) = F o lo que es lo mismo p
m
h
(v) F.
Queremos encontrar un vector b en v+F tal que per
h
(b) = p
m
. Por 6.26 per
h
(b)
es m ultiplo de p
m
. Por esto, solo hay que encontrar un b en v + F tal que per
h
(b) es
divisor de p
m
.
Sea a un h-generador de F. Como F es maximal, el h-perodo de a es p
n
. Tenemos
p
m
h
(v) F = hai
h
. Por denicion de hai
h
y usando el teorema de descomposicion de
un polinomio en producto de irreducibles, obtenemos un polinomio q coprimo con p y
un natural k 0 tales que p
m
h
(v) =

p
k
q

h
(a).
Por 6.33 el vector a
0
= q
h
(a) es tambien un h-generador de F y por 6.32 el vector
a
0
tiene el mismo h-perodo que a o sea, p
n
. As, tenemos que
p
m
h
(v) = p
k
h
(a
0
) . (*)
Si m > k entonces aplicando p
nm
h
a esta igualdad, obtenemos que
0 = p
n
h
(v) = p
nm+k
h
(a
0
) .
Como n m + k < n esto contradice que el h-perodo de a
0
es p
n
. Luego, m k y
esto nos sirve para denir el siguiente vector
b
def
= v p
km
h
(a
0
) v + F.
Aplicando p
m
h
a esta denici on, obtenemos que
p
m
h
(b) = p
m
h
(v) p
k
h
(a
0
)
(*)
= 0
por lo que per
h
(b) es un divisor de p
m
.
Lema del Cociente
Sea h : E E un operador radical y F = hai
h
un subespacio h-cclico
maximal. Si {v
1
+ F , . . . , v
m
+ F} es una
e
h-base del espacio cociente
E/F entonces, existen vectores b
1
v
1
+ F, . . . , b
m
v
m
+ F tales que
{a, b
1
, . . . , b
m
} es una h-base de E.
Prueba. Sea a un h-generador de F. Aplicando el Lema del Perodo (6.38) a v
1
+
F, . . . , v
m
+F, obtenemos b
1
v
1
+F, . . . , b
m
v
m
+F tales que el h-perodo de b
i
es
igual al
e
h-perodo de v
i
+F, i {1, . . . , m}. Denotemos B = {a, b
1
, . . . , b
m
}. Observese
que
B ra = {b
1
+ F, . . . , b
m
+ F} = {v
1
+ F, . . . , v
m
+ F}
es una
e
h-base de E/F. Probemos que B es h-generador de E. Si x E entonces
x + F

B ra

h
, o sea, existen coecientes polinomiales tales que
x + F = q

h
(b
1
+ F) + +r

h
(b
m
+ F) = q
h
(b
1
) + +r
h
(b
m
) + F
o lo que es lo mismo xq
h
(b
1
) r
h
(b
m
) F = hai
h
. Luego, existe otro polinomio
179 Seccion 6.6 Descomposicion en subespacios cclicos radicales.
s tal que x q
h
(b
1
) r
h
(b
m
) = s
h
(a) y por lo tanto
x = s
h
(a) +q
h
(b
1
) + +r
h
(b
m
) hBi
h
.
Para probar que B es h-independiente supongamos que existen polinomios tales que
0 = s
h
(a) +q
h
(b
1
) + +r
h
(b
m
) . (*)
Pasando al cociente (sumando F) obtenemos
0 + F = s
h
(a) + F +q
h
(b
1
) + F + +r
h
(b
m
) + F =
= q

h
(b
1
+ F) + +r

h
(b
m
+ F)
y como B ra es independiente obtenemos que
q

h
(b
1
+ F) = = r

h
(b
m
+ F) = 0 + F.
Como el h-perodo de b
i
es igual al
e
h-perodo de b
i
+ F concluimos que
q
h
(b
1
) = = r
h
(b
m
) = 0.
Substituyendo esto en la igualdad (*) obtenemos s
h
(a) = 0.
Ejercicio 105 Compruebe que si eliminamos la condici on de que F es maximal en-
tonces el Lema del Cociente (6.39) no se cumple.
Teorema de Existencia de h-bases
Cualquier operador lineal radical h tiene una h-base.
Prueba. Sea h : E E un operador radical y F = hai
h
subespacio h-cclico maximal.
Hagamos induccion en dimh. Si dimh = 1 entonces F = E y por lo tanto {a} es una
h-base.
Supongamos dimh > 1. Si F = E entonces otra vez {a} es una h-base. Si no,
entonces E/F es no trivial y dimE/F < dimh. Por hip otesis de induccion E/F tiene
una
e
h-base y por el Lema del Cociente (6.39) existe una h-base de E.
Ejercicio 106 Demuestre la siguente armaci on. Sean h : E E un OL y E = FG
una descomposicion de E en subespacios h-invariantes. Si A es una h-base de E y B es
una h-base de G entonces A B es una h-base de E. [234]
Ejercicio 107 Use el ejercicio anterior, el Teorema de Descomposici on en Compo-
nentes Radicales (6.20) y el Teorema de Existencia de h-bases (6.40) para probar todo
operador lineal h tiene una h-base.
180 Captulo 6. Descomposici on de operadores lineales
Teorema de Descomposicion en Componentes Radicales Cclicas
Todo operador lineal es suma directa de componentes radicales cclicas.
Prueba. Sea h : E E un OL. Si h es radical entonces E tiene una h-base
{a
1
, . . . , a
n
}. Por 6.34 E = ha
1
i
h
ha
n
i
h
. Por 6.28 todos los ha
1
i
h
son subespacios
invariantes. Denotando por f
i
la restricci on de h a ha
i
i
h
obtenemos h = f
1
f
n
.
Si h no es radical entonces usando el Teorema de Descomposicion en Componentes
Radicales (6.20) lo descomponemos en componentes radicales y posteriormente cada
componente radical la descomponemos en componentes cclicas.
A diferencia de la descomposici on en componentes radicales una descomposicion en
componentes radicales cclicas no es unica. Esto sucede porque h-bases pueden haber
muchas. Por ejemplo para la identidad en R
2
cualesquiera dos rectas diferentes por
el origen forman una descomposici on en subespacios invariantes radicales cclicos. Sin
embargo, lo que si es unico es el tipo de la descomposici on.
Si h = f
1
f
n
es una descomposicion entonces, a la sucesion p, q, . . . , r de los
polinomios mnimos de las componentes se le llama el tipo de la descomposicion.
Dos tipos se consideran iguales si uno se puede obtener del otro reordenando la sucesi on.
Teorema de Unicidad del Tipo
Dos descomposiciones cualesquiera en compo-
nentes radicales cclicas tienen el mismo tipo.
Prueba. De la denici on del tipo y de la unicidad de la descomposici on en compo-
nentes radicales queda claro que es suciente demostrar el teorema para OLs radicales
h cuyo polinomio mnimo es una potencia de un polinomio irreducible que denotaremos
por p.
Para cualquier vector x denotaremos x = p
h
(x). Para cualquier conjunto de vecto-
res X denotaremos X = {x | x X y x 6= 0}.
Lema 1. El subespacio F = p
h
(E) es invariante y dimF < dimE.
Lema 2. Para cualquier vector x se tiene que per
h
x = p per
h
x.
Lema 3. Si X es una h-base de E entonces X es una h-base de F = p
h
(E).
Las pruebas de estos lemas no son difciles y las pospondremos hasta el nal para
no perder el hilo de la prueba del teorema.
Sean E = ha
1
i
h
ha
n
i
h
= hb
1
i
h
hb
m
i
h
dos descomposiciones en
subespacios cclicos. Como h es radical los perodos de todos sus vectores son potencias
de un polinomio irreducible p. Sean p
n
i
los perodos de los a
i
y p
m
i
los perodos
de los b
i
. Los tipos de estas dos descomposiciones son p
n
1
, . . . , p
n
n
y p
m
1
, . . . , p
m
m
respectivamente. Reordenando los sumandos podemos suponer que n
1
n
n
y
que m
1
m
m
. Tambien podemos suponer que n m. Tenemos que probar que
181 Seccion 6.6 Descomposicion en subespacios cclicos radicales.
n = m y que los n
i
son iguales a los m
i
.
Hagamos la prueba del teorema por induccci on en dimh. Si dimh = 1 entonces,
necesariamente n = m = 1 y n
1
= m
1
.
Los conjuntos A = {a
1
, . . . , a
n
} y B = {b
1
, . . . , b
m
} son dos h-bases de E. Por
el Lema 3 tenemos que A y B son bases de F = p
h
(E). Sea k tal que (i > k)
(n
i
= 1 o i > n). An alogamente se dene ` para los m
i
. Por la denicion A = {a
1
, . . . , a
k
}
y B =

b
1
, . . . , b
`

.
Luego, F = ha
1
i
h
ha
k
i
h
=

b
1

b
`

h
son dos descomposicio-
nes de F y por el Lema 2 los tipos de estas descomposiciones son p
n
1
1
, . . . , p
n
k
1
y
p
m
1
1
, . . . , p
m
`
1
. Como por el Lema 1 dimF < dimE, podemos aplicar hip otesis de
induccion y as obtenemos que
k = `, n
1
1 = m
1
1, , n
k
1 = m
k
1.
O sea, todos los n
i
son iguales a los m
i
desde i = 1 hasta k = `.
Sea el grado de p. De 6.36 obtenemos que
(n
1
+ +n
n
) = dimE = (m
1
+ +m
m
)
y por lo tanto
n
k+1
+ +n
n
= m
k+1
+ +m
m
.
Todos los n
i
y los m
i
para i > k son iguales a 1 y por lo tanto n = m. Con esto, para
todo i el natural n
i
es igual a m
i
y termina la prueba en la suposici on que nuestros
tres lemas sean verdaderos.
Prueba del Lema 1. El conjunto de vectores F = p
h
(E) es un subespacio ya que es
la imagen del OL x 7 p
h
(x). Es invariante ya que h(p
h
(x)) = p
h
(h(x)). Sea x un
vector no nulo de perodo p
k
(claramente estamos asumiendo que E 6= {0}). Si k = 1
entonces, x ker p
h
. Si k > 1 entonces, el vector no nulo y = p
k1
h
(x) es tal que
p
h
(y) = 0. De aqu, el OL p
h
tiene nucleo no trivial y por lo tanto F 6= E. Luego,
dimF < dimE.
Prueba del Lema 2. Como p es irreducible, el perodo de cualquier vector es un
m ultiplo de p. Si qp = per
h
(x) entonces, los polinomios r en el anulador de x son los
m ultiplos de pq y por lo tanto
(r
h
(x) = 0) = ((r
0
qp)
h
(x) = (r
0
q)
h
(x) = 0) .
Luego, r est a en el anulador de x si y solo si r/p esta en el anulador de x. Esto quiere
decir que q = per
h
(x).
Prueba del Lema 3. Sea X = {x
1
, . . . , x
k
} es una h-base de E. Comprobaremos que
X = {x | x X y x 6= 0} es una h-base de F. Efectivamente, si y F entonces, existen
coecientes polinomiales tales que
y = (q
1
)
h
(x
1
) + + (q
n
)
h
(x
n
) = (q
1
)
h
(x
1
) + + (q
n
)
h
(x
n
) .
Es claro que en la suma de la derecha podemos descartar aquellos sumandos para los
cuales a
i
= 0. Luego, F

X

h
o sea, X es un h-generador de F. Supongamos que
para ciertos polinomios q
1
, . . . , q
n
se tiene que
0 = (q
1
)
h
(x
1
) + + (q
n
)
h
(x
n
) = (q
1
p)
h
(x
1
) + + (q
n
p)
h
(x
n
) .
182 Captulo 6. Descomposici on de operadores lineales
Como X es h-independiente, entonces
0 = (q
1
p)
h
(x
1
) = (q
1
)
h
(x
1
) = = (q
n
p)
h
(x
n
) = (q
n
)
h
(x
n
)
y por lo tanto X es h-independiente. Luego, X es una h-base de F.
Una consecuencia de estos Teoremas es que ya sabemos cuales son los OLs irredu-
cibles.
Teorema de Caracterizacion de los OLs irreducibles
Un operador lineal es irreducible si y solo si es cclico y radical.
Prueba. Sea h un OL. Si h no es cclico radical entonces por el Teorema de Descom-
posici on en Componentes Radicales Cclicas (6.41) este se descompone no trivialmente.
Si h es cclico radical y se descompone no trivialmente entonces habran dos descom-
posiciones en componentes cclicas radicales con tipos diferentes. Esto contradecira el
Teorema de Unicidad del Tipo (6.42).
Ejercicio 108 Sean p = per
h
(a) y q = per
h
(b) los perodos de dos vectores. De-
muestre que si p y q son coprimos entonces, ha +bi
h
= hai
h
hbi
h
. [234]
Ejercicio 109 Use el ejercicio anterior y el Teorema de Descomposicion en Compo-
nentes Radicales Cclicas (6.41) para probar que cualquier OL tiene una descomposici on
en OL cclicos f
1
f
t
en la cual el polinomio mnimo de cada f
i
divide al polinomio
mnimo del siguiente. [235]
Ejercicio 110 Usando el Teorema de Unicidad del Tipo (6.42) demuestre que el tipo
de las descomposiciones introducidas en el ejercicio anterior es unico. [235]
6.7 Estructura de los operadores cclicos radicales
En esta seccion el acr onimo OLCR signicar a operador lineal cclico radical.
Subespacios invariantes
Teniendo en cuenta el Teorema de Descomposici on en Componentes Radicales Ccli-
cas (6.41), observamos que todos los subespacios invariantes de cualquier OL est an
determinados a priori por los subespacios invariantes de sus componentes cclico radi-
cales.
Como los OLCR son irreducibles estos no tienen subespacios invariantes comple-
mentarios. Sin embargo, si pueden tener subespacios invariantes no triviales. Queremos
ver cuales son todos los subespacios invariantes de los OLCR. Sea h : E E un OLCR
con polinomio mnimo p
m
. Denotemos por el grado del polinomio p.
183 Seccion 6.7 Estructura de los operadores cclicos radicales
Los espacios E
k
= ker p
k
h
tienen las siguientes propiedades
1. {0} = E
0
E
1
E
m
= E 2. E
k
= p
h
(E
k+1
)
3. (E
k
= hxi
h
) (E
k1
= hp
h
(x)i
h
) 4. dimE
k
= k
5. son los unicos subespacios invariantes de h.
Prueba. Como h es cclico existe un vector a de perodo p
m
tal que E = hai
h
.
Propiedad 1. Las igualdades {0} = E
0
y E
m
= E son obvias. Sea x E
k
entonces
p
k
h
(x) = 0 y por lo tanto p
k+1
h
(x) = p
h
(0) = 0. Esto muestra que E
k
E
k+1
.
Propiedad 2. Sea x E
k
entonces, p
k1
h
(p
h
(x)) = 0 o sea, p
h
(x) E
k1
. Com-
probemos que los OLs
k
: E
k
3 x 7 p
h
(x) E
k1
son sobreyectivos. Sea q
h
(a)
cualquier vector en E
k1
. Sabemos que p
k1
h
(q
h
(a)) =

p
k1
q

h
(a) = 0. Como el
per
h
(a) = p
m
entonces, p
k1
q es un m ultiplo de p
m
. Luego, q es un multiplo de
p
mk+1
. Como k m entonces, p es un factor de q. Sea r un polinomio tal que
rp = q. Tenemos p
k
h
(r
h
(a)) = p
k1
h
(q
h
(a)) = 0 y por lo tanto r
h
(a) E
i+1
. Adem as

i
(r
h
(a)) = p
h
(r
h
(a)) = q
h
(a) y esto nos dice que
k
es sobreyectiva.
Propiedad 3. Sea x tal que E
k
= hxi
h
. Por la propiedad 2 tenemos que p
h
(x) E
k1
y
por la invariancia de los nucleos (6.9) hp
h
(x)i E
k1
. Sea y E
k1
. Por la propiedad
2 existe z E
k
tal que y = p
h
(z). Como E
k
= hxi
h
obtenemos que existe un polinomio
q tal que z = q
h
(x) y por conmutatividad y = q
h
(p
h
(x)). Luego, hp
h
(x)i = E
k1
.
Propiedad 4. Por la denici on de a iterando la propiedad 3 obtenemos E
k
=

p
mk
h
(a)

h
.
Como el perodo de a es p
m
entonces el perodo de p
mk
h
(a) es p
k
. Por 6.36 tenemos
que dimE
k
= grado

p
k

= k.
Propiedad 5. Sea F cualquier subespacio h-invariante de E. Como p es irreducible,
entonces el orden de F es igual a p
k
con k m y de aqu F ker p
k
h
= E
k
. Por
6.21 existe un vector x F de perodo p
k
. Como F es invariante hxi
h
F. Por
6.36 y la propiedad 4 tenemos que dimhxi
h
= k = dimE
k
. Luego, las inclusiones
hxi
h
F E
k
son en realidad una igualdad.
Formas can onicas
Un OL h siempre se descompone en suma directa de sus componentes radicales
cclicas. Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h
es diagonal por bloques. Los bloques son matrices de las componentes de h que son
OLCRs. Nuestra tarea ahora es encontrar bases en las cuales la matriz de un OLCR
es lo m as simple posible.
Sea h un OLCR con polinomio mnimo p
m
y p de grado . No podemos aspirar
a encontrar una base en la cual la matriz de h sea diagonal por bloques ya que h
es irreducible. Lo mas que podemos hacer es encontrar una base en la cual la matriz
de h sea triangular por bloques. Por 6.44.5, esta triangulaci on se tiene que hacer
escogiendo en cada conjunto ker p
k
h
\ ker p
k1
h
un conjunto de vectores A
k
que sea LI
maximal. En este caso el conjunto B
k
= A
1
A
k
es una base de E
k
= ker p
k
h
y en
184 Captulo 6. Descomposici on de operadores lineales
particular B
m
es una base de todo el espacio.
Haciendo un razonamiento an alogo al de 6.2 vemos

T
11
T
12
T
1m
0 T
22
T
2m

0 0 0 T
mm

que la matriz de h en la base B


m
tiene la forma que se
muestra en el recuadro a la derecha. Observemos que por
6.44.4 se tiene que |A
1
| = |A
2
| = = |A
m
| = y esto
nos simplica mucho nuestra imagen de la matriz ya que
todos los bloques T
ij
son cuadrados de orden .
Veamos cuales son los OLs de las matrices T
ij
Denotemos F
k
= hA
k
i. El subespacio
F
k
es complementario a E
k1
en E
k
o sea E
k
= E
k1
F
k
o globalmente tenemos
E = F
1
F
m
. Luego tenemos proyecciones
k
: E F
k
. Con ellas denimos

ij
: F
j
F
i
como la restricci on a F
j
de
i
h. Verbalmente,
ij
se obtiene tomando un
vector en F
j
hallandole su imagen por h y proyectando el resultado a F
i
. El bloque T
ij
es
la matriz de
ij
en las bases A
j
de F
j
y A
j
de F
j
. No tiene sentido dar argumentos a favor
de esto. Simplemente hay que entender bien que es la matriz de una transformaci on
lineal. Observese que si i > i entonces h(F
j
) E
j
y
i
(E
j
) = {0} y por lo tanto
ij
es
nulo. De aqu los ceros debajo de la diagonal.
Si no le ponemos m as restricciones a los A
k
entonces no hay nada mas que decir.
Una condicion que es natural (por 6.44.2) pedirle a los A
k
es que esten relacionados
por las igualdades A
k
= p
h
(A
k+1
). En este caso obtenemos por extensi on lineal que
las funciones F
i+k
3 x 7 p
k
h
(x) F
i
son isomorsmos de espacios vectoriales al
transformar uno a uno la base A
i+k
en la base A
i
. En este caso se cumple que
i+k,j+k
=
p
k
h

ij

p
k
h

1
. La prueba de esto la dejaremos en calidad de ejercicio. En el lenguaje
de matrices esto quiere decir que T
i+k,j+k
= T
ij
. Mas verbalmente, que los bloques en
la diagonal y en cada paralela a la diagonal coinciden.
Ejercicio 111 Pruebe que
i+k,j+k
= p
k
h

ij

p
k
h

1
. [235]
Ejercicio 112 Sean E,E
0
,F y F
0
, espacios vectoriales; i, j isomor-
F
i
F
0
f g
E
j
E
0
smos de espacios vectoriales y f, g transformaciones lineales que
hacen conmutativo el diagrama del recuadro. Pruebe que si A y B
son bases de E y F respectivamente y M es la matriz de f en las
bases A y B entonces, la misma M es la matriz de g en las bases
j (A) y i (B).
Para continuar simplicando nuestra matriz necesitamos hacer un aparte para ex-
plorar una idea acerca de los polinomios. No es difcil probar que cualquier sucesion de
polinomios r
0
, r
1
, . . . , r
i
, . . . que cumpla que el grado de r
i
es igual a i forma una base
del espacio de polinomios. En nuestro caso, estamos interesados en la base
1, x, . . . , x
1
, p, xp, . . . , x
1
p, p
2
, xp
2
, . . . , x
1
p
2
, p
3
, xp
3
, . . .
donde es el grado de nuestro polinomio irreducible p. Si expresamos un polinomio
arbitrario q en esta base entonces, sacando factores com unes, vemos que existen unos
185 Seccion 6.7 Estructura de los operadores cclicos radicales
unicos polinomios r, s, . . . , t de grado menor que tales que
q = rp
0
+sp
1
+ +tp
n
.
A esta representacion de q la llamaremos expansi on de q en potencias de p.
Continuemos con nuestra construcci on de una matriz para el OL h. Recorde-
mos que h es cclico o sea, el espacio tiene un vector a que es h-generador. Luego,
nuestro conjunto independiente A
m
(que contiene vectores) lo podemos escribir
A
m
= {r
h
(a) , . . . , s
h
(a)} donde r, . . . , s son ciertos polinomios. Escribamos r
h
(a)
seg un la expansi on de r en potencias de p
r
h
(a) =

r
0
p
0

h
(a) +

r
1
p
1

h
(a) + + (r
n
p
n
)
h
(a) .
Como A
1
= p
m1
h
(A
m
) entonces A
1
=

rp
m1

h
(a) , . . . ,

sp
m1

h
(a)

y la corres-
pondiente expansi on de

rp
m1

h
(a) en potencias de p es

rp
m1

h
(a) =

r
0
p
m1

h
(a) + (r
1
p
m
)
h
(a) + + (r
n
p
m+n
)
h
(a) .
Observese que como a tiene h-perodo igual a p
m
entonces, todos los sumandos en la
expresion anterior excepto el primero son iguales a cero. O sea,

rp
m1

h
(a) no depende
de cuales son los polinomios son r
1
, . . . , r
n
. Como T
11
depende exclusivamente de quien
es A
1
entonces, si cambiamos algunos de los polinomios r
1
, . . . , r
n
no cambiaremos
T
11
y por lo tanto ningun bloque T
ii
de la diagonal (todos son iguales). Pongamos
r
1
= . . . = r
n
= 0. Esto obviamente cambia nuestra matriz pero no la diagonal. Este
razonamiento funciona exactamente igual para cualquiera de los polinomios r, . . . , s
que denen a A
m
. Por esto, postularemos que estos polinomios son todos de grado
menor que y esto no afecta a cuales pueden ser nuestros bloques en la diagonal.
Veamos como esto afecta a los otros bloques.
Los polinomios r, . . . , s, rp, . . . sp son LI porque de
r + +s +rp + +sp = 0
obtenemos
(r)
h
(a) + +(s)
h
(a) +(rp)
h
(a) + + (sp)
h
(a) = 0
y como A
m
A
m1
es LI, obtenemos que los coecientes son cero. El espacio vec-
torial de todos los polinomios de grado menor que 2 tiene dimension 2. Como
r, . . . , s, rp, . . . sp son 2 polinomios LI de grado menor que 2 entonces, esta es una
base de este espacio.
El grado del polinomio xr es < 2. Luego, existen escalares tales que
h(r
h
(a)) = (xr)
h
(a) = r
h
(a) + +s
h
(a) +(rp)
h
(a) + + (sp)
h
(a)
o en otras palabras h(r
h
(a)) = a
m
+ a
m1
donde a
m
hA
m
i = F
m
y a
m1

hA
m1
i = F
m1
. Esto quiere decir que la proyecci on de h(r
h
(a)) a F
m
es a
m
, la
proyecci on de h(r
h
(a)) a F
m1
es a
m1
y todas las dem as proyecciones son cero.
186 Captulo 6. Descomposici on de operadores lineales
Este razonamiento funciona exactamente igual para cualquiera de los polinomios

P M 0 0
0 P 0 0

0 0 P M
0 0 0 P

r, . . . , s que denen a A
m
. Luego, las funciones
im
: F
m
F
i
son nulas para i m2 y
por lo tanto los bloques T
1m
, . . . , T
m2,m
y los bloques
en las paralelas a la diagonal correspondientes son to-
dos nulos. Esto simplica mucho la forma de nuestra
matriz. que ahora tiene solamente la diagonal y la pa-
ralela mas cercana diferentes de cero. Y en denitiva,
se ve ahora como en el recuadro a la izquierda.
Esta forma nos permite simplicar mucho ciertas cosas. La m as obvia es que para
calcular P podemos pensar que nuestro OCLR tiene polinomio mnimo p o sea, m = 1.
Y para calcular P y M podemos limitarnos a un OCLR con polinomio mnimo p
2
o
sea, m = 2. La segunda, menos obvia, es que el c alculo de P y M no depende del
operador lineal sino del polinomio p. M as detalladamente, debemos escoger una base
q
1
, . . . , q

del espacio de polinomios de grado menor que y ver como se descompone


el polinomio xq
i
somo combinaci on lineal de los polinomios q
1
, . . . , q

, q
1
p, . . . , q

p.
Los coecientes de esta combinacion lineal son las entradas de la i-esima columna de
P y M.
Ahora, veremos tres casos particulares: = 1, p es cuadr atico en R[x] y nal-
mente estudiaremos que ocurre cuando tomamos q
1
, . . . , q

igual a la base can onica


1, x, . . . , x
1
.
= 1
Si = 1 entonces hay que escoger un polinomio de grado

1 0
0 0

0 0 1
0 0

0. Obviamente escogeremos q = 1. Como p es monico de


grado 1 lo podemos escribir en la forma p = x. Tenemos
xq = x = +(x ) = q +1qp. Luego, P = y M = 1 y
nuestra matriz se ve como en el recuadro a la derecha. A las
matrices de este tipo las llamaremos celdas de Jordan.
El caso = 1 nos parece ya muy sencillo pero es probablamente, el m as importante.
Si nuestro campo es el de los n umeros complejos entonces, por el Teorema de Gauss
todo polinomio irreducible es de grado 1. Luego, = 1 es el caso general si los escalares
son los complejos.
Combinando el Teorema de Descomposici on en Componentes Radicales Cclicas
(6.41) con las celdas de Jord an obtenemos el siguiente.
Forma normal de Jordan
Si h es un operador lineal en un espacio vectorial nito dimensional sobre
el campo de los n umeros complejos entonces, existe una base del espacio
vectorial en la cual la matriz del operador es diagonal por bloques y los
bloques son celdas de Jordan.
187 Seccion 6.7 Estructura de los operadores cclicos radicales
Camille Jordan (Lyon 1838 - Pars 1922) Matematico e ingeniero.
Conocido tanto por su trabajo sobre la teora de los grupos como
por su inuyente libro Cours danalyse. Su libro Traite des subs-
titutions et des equations algebriques publicado en 1870 contiene
su descubrimiento de las ahora conocidas como formas normales
de Jordan. Fue el primer matem atico que realmente entendi o a Ga-
lois despues de la publicacion p ostuma de los trabajos de Galois
en 1846 y contribuyo notablemente a que la Teora de Grupos y
la Teora de Galois fueran parte de la corriente principal de las
matematicas.
= 2
Nos interesaremos en los polinomios irreducibles de grado 2 con co-

a b
b a

ecientes reales. Sabemos que son de la forma (x a)


2
+ b
2
con b 6= 0.
Una matriz cuyo polinomio mnimo es de esta forma es la del recuadro a
la derecha.
Como no hay un candidato m as simple para nuestros bloques diagonales aqu ha-

y u
z v

remos las cosas al revez. Buscaremos nuestros polinomios para que P sea
igual a esta matriz y veremos que matriz M podemos obtener. Denote-
mos las entradas de la matriz M como se muestra a la izquierda. Denote-
mos p = (x a)
2
+ b
2
. Necesitamos dos polinomios de grado 1 para formar la base
q = x + y r = x +.
Nuestra inc ognitas , , , , y, z, u y v deben cumplir dos ecuaciones polinomiales
xq = aq +br +ypq +zpr
xr = ar bq +upq +vpr
.
Igualando los coecientes en las potencias de x obtenemos 8 ecuaciones. De estas, hay 2
que son combinaci on lineal de las demas por lo que tenemos 6 ecuaciones y 8 incognitas.
Por esto, tomaremos y como par ametros. Resolviendo el sistema, obtenemos una
unica solucion:
= b a , y =

b(
2
+
2
)
, u =

2
b(
2
+
2
)
= a +b , z =

2
b(
2
+
2
)
, v =

b(
2
+
2
)
.
Aqu tenemos la libertad de escoger y y para cada una de ellas obtendramos

a b 0 1/b
b a 0 0
0 0 a b
0 0 b a

matrices M diferentes. Tomemos = 0 y = 1 y obtenemos


q = b, r = x a, u = 1/b y las otras tres entradas de M
son cero. Luego, si h : R
4
R
4
es un OLCR con polinomio
mnimo

(x a)
2
+b
2

2
tal que b 6= 0 entonces hay una base
de R
4
en la cual su matriz es igual a la del recuadro de la
izquierda.
188 Captulo 6. Descomposici on de operadores lineales
Lo que no nos gusta es el 1/b en la esquina superior derecha. Podemos cambiarlo
por 1? La respuesta es si, pero para esto necesitamos cambiar la base de una manera no
prevista en la teora general que desarrollamos. Nuestra base del espacio de polinomios
es
b, x a, bp, (x a) p
y si la cambiamos por
b, x a,
bp
b
, (x a)
p
b
todo permanece igual excepto que el 1/b se convierte en 1.
La clave del porque esto funcionar a en general es que en nuestra teora nunca
realmente se us o que p fuera m onico.
Por esto, si cambiamos en la base p por

a b 0 1 0 0
b a 0 0 0 0
0 0 a b 0 0
0 0 b a 0 0

0 0 0 0 0 1
0 0 0 0 0 0
0 0 0 0 a b
0 0 0 0 b a

p/b entonces en nuestra matriz todo lo que


est a por arriba de los bloques en la diagonal
se multiplicar a por b.
Luego, si h : R
2m
R
2m
es un OLCR
con polinomio mnimo

(x a)
2
+b
2

m
tal
que b 6= 0 entonces hay una base de R
2m
en
la cual su matriz es igual a la del recuadro.
A las matrices de este tipo las llamaremos
celdas cuadraticas.
Como en los reales tenemos polinomios irreducibles de dos tipos: lineales y cua-
draticos entonces la forma normal es un poco m as complicada.
Forma normal real
Si h es un operador lineal en un espacio vectorial nito dimensional sobre el
campo de los n umeros reales entonces, existe una base del espacio vectorial
en la cual la matriz del operador es diagonal por bloques y los bloques son
celdas de Jord an o celdas cuadr aticas.
Usando la base can onica
Ahora regresemos al caso general. Sea p irreducible de grado . El conjunto de
polinomios

1, x, . . . , x
1

es una base del espacio de polinomios de grado menor que


. Denotemos q
i
= x
i
a los elementos de esa base.
Para k 2 tenemos que xq
i
= q
i+1
. Si p = x


1
x


1
x
0
entonces,
xq
1
= x

=
0
q
0
+
1
q
1
+ +
1
q
1
+1q
0
p
lo que quiere decir que nuestra matriz P es la matriz acompa nante del polinomio p
y nuestra matriz M es la que tiene un 1 en la esquina superior derecha y todas sus
demas entradas son cero. O sea, nuestro OL (para m = 2) se puede representar con la
siguiente matriz
189 Seccion 6.7 Estructura de los operadores cclicos radicales

0 ... 0
0
1 ... 0
1
... ... ... ...
0 ... 1
1
0 ... 0 1
0 ... 0 0
... ... ... ...
0 ... 0 0
0
0 ... 0
0
1 ... 0
1
... ... ... ...
0 ... 1
1

Debe ser claro el tipo de la matriz para m m as grandes. A una matriz de este tipo la
llamaremos celda canonica. Observese que las celdas can onicas para = 1 son celdas
de Jordan. Sin embargo, para = 2 las celdas can onicas y las celdas cuadraticas son
diferentes. Efectivamente, supongamos m = 2. Como p = (x a)
2
+b
2
= x
2
2ax+c
donde c = a
2
+b
2
entonces, en la desigualdad

0 c 0 1
1 2a 0 0
0 0 0 c
0 0 1 2a

6=

a b 0 1
b a 0 0
0 0 a b
0 0 b a

la celda canonica es la de la izquierda y la celda cuadr atica es la de la derecha. La


ventaja de las celdas cuadr aticas es que son mas f aciles de intuir geometricamente
mediante rotaciones. La ventaja de las celdas canonicas es que siempre funcionan.
Forma normal can onica
Si h es un operador lineal en un espacio vectorial nito dimensional sobre
cualquier campo entonces, existe una base en la cual la matriz del operador
es diagonal por bloques y los bloques son celdas canonicas.
Ejercicio 113 El tipo de un OL es el tipo de cualquiera de sus descomposiciones en
componentes irreducibles. Se dice que dos OL f y g son conjugados si existe un OL
invertible h tal que f = h g h
1
. Demuestre que dos OL tienen el mismo tipo si y
solo si son conjugados. [235]
Hay muchsima libertad al construir formas normales. Por esto, no hay
que sobredimensionar la importancia de las diferencias entre unas y otras.
Lo importante y com un a todas las formas normales es que ellas solo
dependen del tipo del operador y no del operador en si mismo.
190 Captulo 6. Descomposici on de operadores lineales
6.8 Polinomio caracterstico
Rectas invariantes
Los subespacios invariantes no triviales m as sencillos que nos podemos imaginar
son los de dimensi on 1 o sea las rectas por el origen. Si h : E E es un OL y F
es invariante de dimensi on 1 entonces la restricci on de h a F es una homotecia. Sea
{a} una base de F. Entonces, existe un escalar (la raz on de la homotecia) tal que
h(a) = a.
Recprocamente, supongamos que existen un escalar y un vector no nulo a tales
que h(a) = a entonces, al vector a se le llama vector propio del operador h y al
escalar se le llama valor propio de h. Tambien decimos que es el valor propio
correspondiente al vector propio a. Observese que el valor propio correspondiente
a un vector es unico pues de a =
0
a obtenemos (
0
) a = 0 y como a 6= 0 esto
implica que =
0
.
La recta hai es h-invariante si y solo si a es un vector propio de h.
Prueba. Ya vimos la parte solo si. Supongamos que a es un vector propio. Sea su
correspondiente valor propio. Por linearidad de h, para cualquier escalar se cumple
que h(a) = h(a) = (a) = () a y esto signica que hai es h-invariante.
El polinomio caracterstico de un operador lineal
Recordemos que el determinante de un OL esta bien denido como el determinante
de su matriz en una base arbitraria.
El hecho de que h(a) = a lo podemos expresar como que el operador I h
evaluado en el vector a es cero. O sea el vector est a en el nucleo de I h. Esto quiere
decir que ker (I h) es el conjunto de todos los vectores propios correspondientes a
. Sabemos que ker (I h) es no vaco si y solo si det (I h) = 0. Luego, es un
valor propio de h si y solo si det (I h) = 0.
As para calcular los valores propios de h podramos probar todos los elementos
del campo y comprobar si det (I h) = 0. Esta estrategia es imposible de realizar si el
campo K es innito. Por esto es mejor considerar la funci on K 3 x 7det (xI h) K
y encontrar sus raices.
det (xI h) es un polinomio m onico de grado dimh en la variable x.
Prueba. Sabemos que el determinante de un OL no depende de la base en el cual se
calcule. Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dimh.
Sea
NN
la matriz de h en la base N. La matriz de xI h en la base N es
NN
=
191 Seccion 6.8 Polinomio caracterstico
x
NN

NN
donde
NN
es el delta de Kronecker (la matriz identidad). Las entradas
de
NN
son
ii
= x
ii
y
ij
=
ij
para cualquier j 6= i.
El determinante lo calculamos por la denici on
det
NN
=
X
S
N
sgn
Y
iN

i
i
.
Como los
ij
son polinomios, el producto y la suma de polinomios son polinomios,
tenemos que det
NN
es un polinomio. Observemos ademas que
NN
solo contiene la
variable x en la diagonal. Por esto, la potencia m as grande de x en det
NN
se obtiene
cuando la permutaci on es la identidad, o sea en el producto
Y
iN

ii
=
Y
iN
(x
ii
) .
Aplicando la ley distributiva vemos que es de grado |N| y tiene coeciente principal 1.
Al polinomio det (xI h) se le llama polinomio caracteristico de h. De esta ma-
nera, los valores propios de h son las raices del polinomio caracterstico. Si
NN
es la ma-
triz de h en la base Nentonces, los vectores propios correspondientes a un valor propio
se pueden hallar resolviendo el sistema de ecuaciones lineales (
NN

NN
) a
N
= 0
N
.
Este es un sistema de ecuaciones lineales homogeneo y su conjunto de soluciones es
ker (I h). El conjunto ker (I h) es un subespacio invariante que se conoce como
el subespacio propio correspondiente al valor propio . La restricci on de h a un su-
bespacio propio es una homotecia. De hecho, los subespacios propios son los subespacios
invariantes mas grandes en los que h es una homotecia.
Ejercicio 114 Demuestre que el coeciente en x
n1
del polinomio caracterstico mul-
tiplicado por 1 es la suma de las entradas diagonales de la matriz del operador en
cualquier base. A este escalar se le llama la traza del operador.
El polinomio caracterstico y el polinomio mnimo
Si h = f g entonces, el polinomio caracterstico de h es
igual al producto de los polinomios caractersticos de f y g.
Prueba. Sean F y G los subespacios invariantes en los cuales estan

M 0
0 M
0

denidas f y g. Por 6.3, si A es una base de F y B es una base de G


entonces, en la base de todo el espacio AB, la matriz de xI h es
diagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igual
al producto de los determinantes de los bloques diagonales. El determinante del bloque
superior izquierdo es el de xIf o sea, el polinomio caracterstico de f. El determinante
del bloque inferior derecho es el de xI g o sea, el polinomio caracterstico de g.
192 Captulo 6. Descomposici on de operadores lineales
Si h es cclico entonces, los polinomios
mnimo y caracterstico de h coinciden.
Prueba. Si h es cclico con polinomio mnimo

x 0 ... 0
0
1 x ... 0
1
... ... ... ... ...
0 0 ... x
n2
0 0 ... 1 x
n1

p = x
n

n1
x
n1

1
x
0
entonces de
6.35 sabemos que en cierta base la matriz de h es
la matriz acompa nante de p que denotaremos por
A. Por denici on de matriz acompa nante la matriz
xIAes la que se muestra a la derecha. El determi-
nante de esta matriz es el polinomio caracterstico
de h.
Calculemoslo. Triangulando con el metodo de eliminaci on de Gauss obtenemos que
su determinante es igual al de la matriz

x 0 ... 0
0
0 x ... 0
1

0
x
1
... ... ... ... ...
0 0 ... x
n2

n3
x
1

1
x
n+3

0
x
n+2
0 0 ... 0 x
n1

n2
x
1

1
x
n+2

0
x
n+1

.
Multiplicando las entradas en la diagonal obtenemos p.
Teorema de Hamilton-Caley-Frobenius
El polinomio caracterstico es un m ultiplo del polinomio mnimo.
Estos dos polinomios tienen los mismos factores irreducibles.
Prueba. Por el Teorema de Descomposicion en Componentes Radicales Cclicas (6.41)
todo OL tiene una descomposici on en componentes cclicas. Por 6.51 los polinomios
mnimos y caractersticos coinciden en cada una de las componentes. Por 6.50 el po-
linomio caracterstico es el producto de los de las componentes. Por 6.37 el polinomio
mnimo es el mnimo com un m ultiplo de los de las componentes. El mnimo com un
m ultiplo es siempre un divisor del producto. El mnimo com un m ultiplo siempre tiene
los mismos factores irreducibles que el producto.
La primera armaci on se conoce en la literatura como Teorema de Hamilton-Caley
y es equivalente por denici on de polinomio mnimo a que el polinomio caracterstico de
h evaluado en h es el operador nulo. La segunda se conoce como Teorema de Frobenius.
Una curiosidad hist orica es que fue Frobenius el que dio la primera prueba completa
del Teorema de Hamilton-Caley.
193 Seccion 6.8 Polinomio caracterstico
Es posible dar muchas diferentes demostraciones del Teorema de Hamilton-Caley
que no pasan por la descomposici on de un operador en componentes cclicas (que es
el resultado duro de esta teora). La idea de una de ellas es tomarse un vector a,
observar que en el subespacio invariante hai
h
los polinomios caracterstico y mnimo
coinciden y por lo tanto el polinomio caracterstico esta en el h-anulador de a. Como
el vector a es arbitrario entonces el polinomio caracterstico esta en el h-anulador de
todo el espacio y por lo tanto es un m ultiplo del polinomio mnimo.
El Teorema de Frobenius se prueba facilmente sobre los complejos ya que lo esencial
aqu, es saber que si p es un factor irreducible del polinomio caracterstico entonces,
ker (p
h
) 6= o sea, existen vectores de perodo p. Esto es inmediato en el caso complejo
porque todos los irreducibles son de grado 1 y todo valor propio tiene al menos un
vector propio correspondiente. En el caso general, para que esto funcione, es necesaria
la introducci on del campo de descomposici on de un polinomio y esto queda fuera de
los objetivos de este libro.
Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda en
mucho para la prueba de la existencia de h-bases, o lo que es lo mismo, la existencia
de una descomposicion en componentes cclicas.
Ejercicio 115 Un OL es diagonalizable si existe una base en la cual su matriz es
diagonal. Pruebe que un OL es diagonalizable si y solo si su polinomio mnimo es un
producto de diferentes polinomios de grado 1. [236]
Ejercicio 116 Un OL es triangulable si existe una base ordenada en la cual su
matriz es triangular. Pruebe que si f = f
1
f
2
entonces f es triangulable si y solo si
f
1
y f
2
lo son. [236]
Ejercicio 117 Pruebe que un OL es triangulable si y solo si su polinomio carac-
terstico es un producto de polinomios de grado 1. En particular, todo OL complejo es
triangulable. [237]
Los OL sobre C que no son diagonalizables tienen medida de Lebesgue cero. Estos estan con-
tenidos en una hipersupercie (denida por el discriminante del polinomio caracterstico)
y por lo tanto, en cualquier vecindad de cualquier operador casi todos son diagonalizables.
Este hecho tiene importantes consecuencias para las aplicaciones en las ciencias naturales.
194
n funcional es una funci on evaluada en un espacio vectorial y que toma va-
lores en el campo. Los funcionales se encuentran muy frecuentemente en las
matem aticas y en sus aplicaciones. Por ejemplo, en fsica es com un llamarles a
ciertos funcionales campo escalar (la temperatura, la presi on etc.) lo que es bastante
confuso pues esta frase es muy parecida a la frase el campo de escalares.
Esta denicion de funcional es demasiado general para el algebra lineal. Aqu es-
tudiaremos solamente los funcionales que tienen ciertas propiedades de linearidad.
Cuando en el espacio vectorial se escoge una base entonces nuestros funcionales se
representan mediante formas que son en esencia polinomios de muchas variables que
tienen ciertas propiedades de homogeneidad.
7.1 El espacio dual
Funcionales lineales
Sabemos que cualquier campo K es un espacio vectorial de dimension 1 sobre si
mismo. Las TLs de un espacio vectorial en el campo K son especialmente importantes
por lo que tienen un nombre particular: funcionales lineales.
Mas detalladamente, si E es un espacio vectorial sobre K entonces a las TLs f : E
K se les llama funcionales lineales. No est a dem as recalcar aqu que los funcionales
lineales son un caso muy particular de las TLs y por lo tanto todo lo que sabemos de
las TLs se aplica a los funcionales lineales. En particular:
1. Sabemos sumar funcionales lineales y multiplicar escalares por funcionales lineales
(3.5 y 3.6).
2. El conjunto de todas los funcionales lineales Mor (E,K) es un espacio vectorial
para la suma de funcionales lineales y el producto por escalares (3.7).
Al espacio Mor (E,K) lo denotaremos por E
#
y lo llamaremos el espacio dual de E.
El porque de este nombre lo aclararemos un poco m as adelante. Siguiendo la tradici on a
los vectores en el espacio dual los llamaremos covectores. Luego, el termino covector
es solamente un sin onimo de funcional lineal.
196 Captulo 7. Funcionales y formas
El isomorsmo de un espacio con su dual
Algo muy importante que probamos en todo detalle para las TLs es que si le da-
mos coordenadas a los espacios vectoriales escogiendo bases entonces, obtenemos por
extension lineal los isomorsmos
Mor (E, F) Mor

K
{N}
, K
{M}

K
{M}

N
.
Si la TL es un covector entonces su codominio es K y esto se simplica mucho ya que
K como espacio vectorial sobre K tiene base canonica M = {1}. As obtenemos que si
N es una base de E entonces
E
#
= Mor (E, K) Mor

K
{N}
, K

K
N
K
{N}
E
En el caso de que la base N sea innita entonces la contenci on K
{N}
K
N
es propia
(no hay igualdad) y esto nos da una TL de E a E
#
que es inyectiva pero no sobreyec-
tiva. Cuando la base N es nita entonces K
{N}
= K
N
y obtenemos un isomorsmo no
can onico entre E y E
#
.
Pasemos a describir este isomorsmo con mas detalle. Supongamos que E es nito
dimensional y sea N una de sus bases. Sea f : E K un covector y x E un vector.
Como N es una base tenemos que
f (x) = f

X
iN
x
i
i
!
=
X
iN
x
i
f (i) =
X
iN
f
i
x
i
donde los x
i
son las coordenadas de x en la base N y los f
i
son los escalares f (i).
Observese que si interpretamos a x como la variable de la funci on f entonces, los x
i
son variables y la suma a la derecha es una forma lineal cuyos coecientes son los f
i
.
Esto nos da una funci on que a cada covector f le hace corresponder la forma lineal
mencionada arriba. Esta funcion es biyectiva ya que su inversa es la que a una forma
lineal le hace corresponder la evaluacion de la forma lineal en las coordenadas de un
vector. M as a un, es un isomorsmo de espacios vectoriales ya que
(f +g) (i) = f (i) +g(i) = f
i
+g
i
(f) (i) = f (i) = f
i
Como este espacio de formas lineales es can onicamente isomorfo a K
N
obtenemos que
E y E
#
son isomorfos (NO can onicamente).
El conjunto de las variables {x
i
| i N} son una base del espacio de formas lineales.
Denamos i
#
como el covector tal que i
#
(x) = x
i
. Como un isomorsmo transforma
bases en bases entonces, el conjunto de covectores N
#
=

i
#
| i N

es una base del


espacio dual E
#
llamada la base dual de N. La denici on i
#
(x) = x
i
en otras palabras
se expresa como que i
#
(x) es la coordenada en i del vector x. En particular, si j N
entonces i
#
(j) es igual al delta de Kronecker
ij
. Como N
#
es una base entonces,
cualquier covector se expresa como combinaci on lineal de N
#
. M as precisamente:
197 Seccion 7.1 El espacio dual
.
1
7
Para cualquier covector x
#
se cumple que
x
#
=
X
iN
x
#
(i) i
#
Prueba. Como # es un isomorsmo, tenemos que

x =
X
iN
x
i
i
!

x
#
=
X
iN
x
i
i
#
!

x
#
(i) =
X
jN
x
j
j
#
(i) = x
i
!
.
que es lo que se necesitaba demostrar.
Ejercicio 118 Describa el espacio dual al de los polinomios K[x] . [237]
La transformacion lineal dual
Sean E y F dos espacios vectoriales y f : E F una TL. Para cada
E
f
F
# # #
E
#

f
#
F
#
E
f
F
&
f
.

K
covector : F K en el espacio dual F
#
tenemos que la composicion
f es un covector en el espacio dual E
#
. Esto nos da una funcion
f
#
: F
#
3 7 f E
#
que es una TL ya que (f +g) = f+g y que (f) =
( f) (vease 3.9 en la p agina 72). A la TL f
#
se le llama la
transformaci on lineal dual a f.
Observese en el recuadro de la derecha como la TL dual tiene la direcci on de la
echa invertida.
La TL dual en coordenadas
Para esto, sean N y M bases de E y F respectivamente. Podemos pensar que
E = K
N
, F = K
M
y que f : K
N
3
N
7
MN

N
K
M
para cierta matriz
MN
.
Tenemos que averiguar cual es la matriz
N
#
M
# de f
#
en las bases duales. Por denici on
de la matriz de una TL la columna
N
#
j
# son las coordenadas de f
#

j
#

en la base N
#
.
Por denicion de las bases duales, la coordenada en i
#
N
#
de cualquier covector x
#
es igual a x
#
(i). Denotemos por i
N
a la N-ada con 1 en la coordenada correspondiente
a i y cero en las dem as. Tenemos que

i
#
j
# = f
#

j
#

(i) =

j
#
f

(i) = j
#
(
MN
i
N
) = j
#
(
Mi
) =
ji
Luego si identicamos N con N
#
y M con M
#
mediante las biyecciones naturales
obtenemos que
N
#
M
# =
NM
=
T
MN
.
Covariancia y contravariancia
Cuando tenemos un espacio vectorial ya coordinatizado con una base y se cambia la
base, las n-adas correspondientes a los vectores cambian multiplicando por la matriz
de cambio de base o sea, x
0
= Ax. Por otro lado, las n-adas correspondientes a los
198 Captulo 7. Funcionales y formas
covectores cambian multiplicando por la transpuesta de la matriz de cambio de base o
lo que es lo mismo, multiplicando por el otro lado y
0
= yA. Por esto, se dice que los
vectores son covariantes y los covectores son contravariantes.
Esto es una terminologa usada fundamentalmente en los textos de Fsica. En ma-
tem aticas la covariancia y contravariancia se usan para algo mucho m as abstracto: son
propiedades de los functores.
TLs sobreyectivas e inyectivas
Antes de seguir estudiando las TL duales necesitamos hacer un aparte para dar
ciertas caracterizaciones de las TL sobreyectivas e inyectivas en general.
.
2
7
Si g f es la identidad entonces,
f es inyectiva y g es sobreyectiva.
Prueba. Si f no es inyectiva entonces existen x 6= y tales que f (x) = f (y) y por lo
tanto g(f (x)) = g(f (y)) . Luego, g f no puede ser la identidad.
Si g no es sobreyectiva entonces existe x tal que y se tiene que g(y) 6= x en
particular f (z) se tiene que g(f (z)) 6= x y por lo tanto g f no es sobreyectiva.
Luego, g f no puede ser la identidad.
El lector debe observar que 7.2 se cumple no solo para TLs sino para funciones en
general
.
3
7
Una TL f : E F es inyectiva si y solo si existe
otra TL g : F E tal que gf es la identidad en E.
Prueba. Si existe g entonces, por 7.2, f es injectiva. Supongamos que f es inyectiva.
Entonces f se factoriza como E
f
0
Imf
i
F donde f
0
es un isomorsmo. Si : F Imf
es cualquier proyecci on entonces, g = f
1
0
cumple que g f es la identidad en E.
.
4
7
Una TL g : F E es sobreyectiva si y solo si existe
otra TL f : E F tal que g f es la identidad en E.
Prueba. Si existe f entonces, por 7.2, g es sobreyectiva. Supongamos que g es so-
breyectiva. Entonces, por el Teorema de Descomposici on de una TL (3.28) la funci on
g se factoriza como F

K
g
0
E donde K es un subespacio complementario al nucleo
de g, es la proyecci on a K a lo largo del nucleo de g y g
0
es la restriccion de g a K.
Sabemos que g
0
es un isomorsmo.
Si i : K F es la inmersion, entonces f = i g
1
0
cumple que g f es la identidad
en E.
199 Seccion 7.2 Funcionales bilineales
Propiedades de la TL dual
Ahora ya podemos probar las propiedades de la TL dual.
.
5
7
La dual de la identidad en E es la identidad en E
#
.
Prueba. Si f es la identidad entonces, G
#
tenemos que f
#
() = f = .
.
6
7
Si E
f
F
g
G son dos transformacio-
nes lineales entonces, (g f)
#
= f
#
g
#
.
Prueba. Para cualquier G
#
tenemos que
(g f)
#
() = g f = f
#
( g) = f
#

g
#
()

=

f
#
g
#

()
que es lo que se necesitaba demostrar.
.
7
7
Si f es sobreyectiva entonces f
#
es inyectiva.
Si f es inyectiva entonces f
#
es sobreyectiva.
Prueba. Si f es sobreyectiva entonces, por 7.4 existe g tal que gf = I y por lo tanto
f
#
g
#
= (g f)
#
= I
#
= I.
Aplicando 7.3 obtenemos que f
#
es inyectiva. La prueba de la otra armaci on es an alo-
ga.
Ejercicio 119 Pruebe que si f es un isomorsmo entonces f
#
tambien lo es.
7.2 Funcionales bilineales
Sean E y F dos espacios vectoriales sobre K. A un funcional f : E F K se le
llama bilineal si se cumplen las dos siguientes propiedades
x E el funcional F 3 y 7f (x, y) K es lineal
y F el funcional E 3 x 7f (x, y) K es lineal
o en otras palabras un funcional bilineal es un funcional de dos variables que es lineal
en cada variable. Es claro que la suma de funcionales bilineales es tambien un fun-
cional bilineal. Lo mismo ocurre con el producto por escalares. Luego, el conjunto de
funcionales bilineales Bil (E, F) es un espacio vectorial.
200 Captulo 7. Funcionales y formas
Los funcionales bilineales est an en el mismo coraz on de muchas ramas de
las matem aticas: teora de n umeros, grupos de Lie, an alisis funcional, etc.
y tambien de la fsica: relatividad especial, teora cu antica, etc.
La notacion
Hay muchas funciones, funcionales, covectores, transformaciones lineales, etc. re-
lacionadas con los funcionales bilineales por esto es importante escoger una buena
notaci on, especial para los mismos. La primera observacion que debemos hacer, es que
el producto escalar can onico en K
n
denido por
(
1
, . . . ,
n
) (
1
, . . . ,
n
) =
1

1
+ +
n

n
es un funcional bilineal.
Por esto podemos pensar que un funcional bilineal es una especie de producto que a
dos vectores (sean del mismo espacio o no) le hace corresponder un elemento del campo,
o sea un escalar. Por esto, usaremos una notacion operacional que recuerde un producto
para denotar a los funcionales bilineales pero siempre entre comillas angulares. Asi por
ejemplo un funcional bilineal sera una funci on
: E F 3(x, y) 7 x y K
que cumple que x, x
0
E, y, y
0
F, K se tiene que
1. x +x
0
y = x y + x
0
y x y = x y
2. x y +y
0
= x y + x y
0
x y = x y
y as convertimos las propiedades de linearidad 1 y 2 en una especie de propiedades
distributivas a la derecha e izquierda y asociativas a la derecha e izquierda de nuestro
producto.
Observese que las propiedades 1 son equivalentes a que y F la funci on
y : E 3 x 7 x y K
es un funcional lineal, o sea los y son covectores en el espacio dual E
#
. De la
misma manera las propiedades 2 son equivalentes a que x E la funci on
x : F 3y 7 x y K
es un funcional lineal, o sea los x son covectores en el espacio dual F
#
.
Hagamos un resumen de nuestra notaci on
Bil (E, F) x F
#
x y K y E
#
Esta notaci on se debe pensar de la siguiente manera. Los x y son escalares.
Si jamos a x y variamos y entonces, obtenemos el covector x . Si jamos a y y
variamos x entonces, obtenemos el covector y . Si variamos a x y a y entonces,
obtenemos el funcional bilineal .
201 Seccion 7.2 Funcionales bilineales
Los funcionales bilineales en coordenadas
Sea M y N bases de E y F respectivamente. Si x E y y F entonces existen
combinaciones lineales nitas
x =
X
iM
x
i
i y =
X
jN
y
j
j
donde los x
i
y los y
j
son ciertos escalares. Aplicando las propiedades de linearidad
obtenemos
x y =
X
iM
x
i
i
X
jN
y
j
j =
X
iM
X
jN
x
i
y
j
i j
y si denotamos por
ij
al escalar i j obtenemos
x y =
X
iN
X
jM
x
i
y
j

ij
o sea, una forma bilineal. Los escalares
ij
forman una matriz
MN
llamada matriz del
funcional bilineal en las bases M y N.
Esto funciona incluso para los espacios de dimension innita pues para cada pareja de
vectores (x, y) solo un n umero nito de los productos x
i
y
j
son diferentes de cero. Sin
embargo, a la matriz
MN
no hay que pedirle que tenga columnas o renglones de soporte
nito. En esencia esto quiere decir que en el caso de dimensi on innita dimMor (E, F) < dimBil (E, F).
Debido al amplio uso de los funcionales bilineales muchas y muy varia-
das personas escriben de los funcionales bilineales, usan muchas diferentes
notaciones e incluso usan diferentes terminologas. Probablemente el ejem-
plo m as notable de esto es que los matematicos mas cl asicos que escriben en ingles (no
as en otros idiomas) abusan del lenguaje confundiendo el concepto de forma bilineal
con el de funcional bilineal cuando en realidad los funcionales bilineales se convierten
en formas bilineales solamente despues de escoger bases en los espacios.
Los isomorsmos Mor

E, F
#

Bil (E, F) Mor

F, E
#

La funci on que a cada funcional bilineal le hace corresponder su matriz en cierta


base es nos da para el caso de dimensi on nita un isomorsmo no can onico entre
Bil (E, F) y Mor (E, F) esto es f acil de probar y lo dejamos en calidad de ejercicio.
Mucho m as interesante es el hecho de que los espacios Bil (E, F) y Mor

E, F
#

son
isomorfos can onicamente. Para esto, primero observemos que para cada vector x E
tenemos que x es un covector en F
#
. Esto nos da una funci on
: E 3 x 7 x F
#
De la misma manera para cada vector y F tenemos que y es un covector en
E
#
. Esto nos da otra funci on
: F 3 y 7 y E
#
Las funciones y son de extrema importancia en el estudio de los funcio-
nales bilineales y el lector debe hacer un esfuerso por entenderlas muy bien.
202 Captulo 7. Funcionales y formas
.
8
7
Las funci ones y son transformaciones lineales.
Prueba. Por simetra de la denicion de funcional bilineal solo hay que probar una
de las dos armaciones. Probemos la primera. Debemos comprobar que x +x
0
=
x + x
0
y esto es trivial ya que y tenemos que x +x
0
y = x y +
x
0
y . De la misma manera vemos que x = x .
El resultado anterior nos da funci ones
Bil (E, F) 3 7 Mor

E, F
#

Bil (E, F) 3 7 Mor

F, E
#

y lo que queremos ver es que ambas funciones son en realidad isomorsmos de espa-
cios vectoriales. Por simetra de la denicion de funcional bilineal solo tenemos que
comprobar una de estas dos cosas digamos la primera. Para esto denotemos la primera
funci on por . De esta manera ( ) = . Veamos primero lo m as f acil: que
es una TL.
.
9
7
La funci on es una transformaci on lineal.
Prueba. Sean y dos funcionales bilineales. Su suma esta denida como
x( + ) y = x y + x y .
Luego, tenemos la igualdad de covectores
x( + ) = x + x
y de aqu la igualdad de TLs
( + ) = + .
Luego,
( + ) = ( ) +( ) .
Observese que el unico argumento que se usa para pasar de una igualdad a la siguiente
es la denicion de cuando dos funciones son iguales.
De la misma manera se comprueba que ( ) = ( ).
Nos queda por comprobar que es biyectiva. Para esto construiremos explcita-
mente su inversa.
.
1
0
7
Si f : E F
#
es una transformacion lineal entonces, la funci on

f
: E F 3 (x, y) 7 f (x) (y) K es un funcional bilineal.
Prueba. Es lineal en la primera variable porque f es lineal. Es lineal en la segunda
variable porque f (x) es un covector.
Denotemos por a la funci on del resultado anterior. Luego, (f) =
f
y por
denici on (f) (x, y) = x
f
y = f (x) (y).
203 Seccion 7.2 Funcionales bilineales
.
1
1
7
Las funciones y son inversas una de la otra.
Prueba. Para cualquier (x, y) E F tenemos que
(( )) (x, y) = ( ) (x, y) = (x) (y) =
= x (y) = x y = (x, y)
y por el otro lado
((f)) (x) (y) = (
f
) (x) (y) =
f
(x) (y) =
= x
f
(y) = x
f
y = f (x) (y)
Luego, (( )) = y ((f)) = f lo que concluye la prueba.
Con esto hemos concluido la demostracion del siguiente
.
1
2
7
La funci on Bil (E, F) 3 7 Mor

E, F
#

es un isomorsmo can onico de espacios vectoriales.


Por simetra de la denici on de funcional bilineal, tambien tenemos
.
1
3
7
La funci on Bil (E, F) 3 7 Mor

F, E
#

es un isomorsmo can onico de espacios vectoriales.


Nucleos de los funcionales bilineales
Sea : E F K un funcional bilineal. A los conjuntos
ker =

x E | x = 0 F
#

= {x E | x y = 0 y F}
ker =

y F | y = 0 E
#

= {y F | x y = 0 x E}
se les llama nucleo izquierdo y nucleo derecho del funcional bilineal .
Un funcional bilineal se le llama no singular o no degenerado si sus dos
nucleos son triviales. esto es equivalente a que las dos trasformaciones lineales y
sean inyectivas.
Hay una manera bastante facil de deshacernos de los nucleos de un funcional bilineal.
Denotemos por E
0
E al nucleo izquierdo de y por E
1
E a cualquier subespacio
complementario a E
0
. Denotemos por F
0
F al nucleo derecho de y por F
1
F
a cualquier subespacio complementario a F
0
.
.
1
4
7
La restriccion de a E
1
F
1
es no singular.
Prueba. Sea A = {x E
1
| x y = 0 y F
1
} el nucleo derecho de la restricci on
de a E F. Si y es un vector cualquiera en F entonces, y = y
0
+y
1
con y
0
F
0
204 Captulo 7. Funcionales y formas
y y
1
F
1
. Si adem as, x A E
1
entonces,
x y = x y
0
+ x y
1
= 0 +0
y por lo tanto A E
0
. Luego A E
0
E
1
= {0} y esto signica que A es trivial. La
prueba de que el nucleo izquierdo es trivial es an aloga.
Observese que el funcional bilineal esta determinado a priori por su restriccion
a E
1
F
1
ya que si (x, y) E F entonces (x, y) = (x
0
+x
1
, y
0
+y
1
) con (x
0
, y
0
)
E
0
F
0
y (x
1
, y
1
) E
1
F
1
. De aqu
x y = x
0
y
0
+ x
0
y
1
+ x
1
y
0
+ x
1
y
1
= x
1
y
1
ya que todos los dem as sumandos son cero.
Nucleos de los funcionales bilineales en dimension nita
.
1
5
7
Si E y F son nito dimensionales y
es no singular entonces, dimE = dimF.
Prueba. Como es no singular las TLs // y // son inyectivas por lo
que dimE dimF
#
y dimF dimE
#
. Como los espacios son nito dimensionales
dimE = dimE
#
y dimF = dimF
#
. De estas desigualdades obtenemos la prueba.
.
1
6
7
Si E y F son de la misma dimensi on nita entonces, los nu-
cleos derecho e izquierdo de tienen la misma dimensi on.
Prueba. Sean E
1
y F
1
subespacios complementarios a los nucleos derecho e izquierdo de
. Por 7.14 la restricion de a E
1
F
1
es no singular. Por 7.15 dimE
1
= dimF
1
.
Como por hip otesis E y F tienen la misma dimensi on, entonces los nucleos tienen la
misma dimensi on.
El siguiente resultado es una consecuencia directa del anterior.
.
1
7
7
Si E y F son de la misma dimensi on nita entonces,
las siguientes armaciones son equivalentes:
1. es no singular,
2. el nucleo derecho de es trivial,
3. el nucleo izquierdo de es trivial.
El doble dual
Veamos un funcional bilineal muy particular. Sea E un espacio vectorial sobre K.
205 Seccion 7.2 Funcionales bilineales
.
1
8
7
La funci on E E
#
3 (x, y) 7 y(x) K
es un funcional bilineal no singular.
Prueba. Es lineal en la primera variable porque y es un covector. Es lineal en la segun-
da variable por denici on de suma y producto por escalares de covectores. Probemos
que es no singular. Tenemos por denicion del 0 en E
#
que
(y(x) = 0 x E) (y = 0)
lo que signica que el nucleo derecho es trivial.
Por otro lado, sea x E un vector no nulo. Entonces, existe una base de E que lo
contiene. Denamos el funcional y tal que y(x) = 1 y y(a) = 0 para cualquier otro
vector a en la base. En todo el espacio y E
#
se dene por extension lineal.
Luego, si x es no nulo entonces existe un covector y tal que y(x) 6= 0. Esto signica
que el nucleo izquierdo es trivial.
Denotemos por al funcional bilineal del resultado anterior. Para este caso,
x : E
#
3 y 7 y(x) K es un vector del doble dual E
##
. Como es
no singular entonces, la funci on : E x 7 x E
##
es una TL inyectiva
can onica de E en E
##
. En el caso de que E sea nito dimensional cualquier TL inyectiva
entre espacios de la misma dimension es biyectiva y as obtenemos.
.
1
9
7
Si E es de dimension nita entonces, los es-
pacios E y E
##
son isomorfos canonicamente.
Ya sabamos de la seccion anterior que para espacios nito dimensionales se tiene que
dimE = dimE
#
= dimE
##
. El merito del resultado anterior est a en que el isomorsmo
es canonico o sea, no depende de la ambiguedad de escoger algo en el espacio E. Por
esto, podemos pensar sin ninguna duda que E y E
##
son el mismo espacio.
En matematicas, una dualidad es algo, que al aplicarselo dos veces a un objeto se
obtiene el original. Es por esto que a E
#
se le llama el espacio dual.
De las deniciones se desprende que el isomorsmo can onico entre E y E
##
es el
que a un vector x E le hace corresponder el funcional E
#
3 y 7 y(x) K o en
otras palabras a x le hace corresponder la evaluaci on en x.
Una dualidad
Veamos ahora una primera aplicaci on del isomorsmo can onico entre un espacio y
su doble dual. Para esto regresemos al caso en que : E F K es un funcional
bilineal denido entre espacios vectoriales no necesariamente iguales pero de dimensi on
nita.
.
2
0
7
Las TLs y son duales una de la otra.
206 Captulo 7. Funcionales y formas
Prueba. Probemos que h = ( )
#
es igual a . Tenemos h : F
##
E
#
y
como F = F
##
los dominios y codominios de h y coinciden. Sea (x, y) EF.
Como estamos identicando F con F
##
tenemos que y es tambien un elemento de F
##
y en esta interpretacion tenemos que y : F
#
3 z 7z(y) K. Hecha esta observacion
tenemos que
h(y) (x) = (y ) (x) = y( (x)) =
= y( x ) = x (y) = x y = (y) (x)
y por lo tanto h = . La prueba de que ( )
#
= es an aloga.
Los isomorsmos entre E y E
#
Si E es de dimension innita entonces, no hay isomorsmos entre E y E
#
ya que
dimE < dimE
#
. Si E es de dimension nita entonces, E y E
#
tienen la misma dimen-
sion y por lo tanto son isomorfos. Ahora, queremos ver que escoger un isomorsmo
entre E y E
#
es equivalente a escoger un funcional bilineal no singular en Bil (E, E).
.
2
1
7
La correspondencia que a cada funcional bilineal no singular le
hace corresponder el isomorsmo entre E y E
#
es biunvoca.
Prueba. Sea Bil (E, E) un funcional bilineal no singular. Por 7.8 la funcion
: E x 7 x E
#
es una TL inyectiva y como E y E
#
tienen la misma
dimensi on nita entonces, es un isomorsmo entre E y E
#
.
Recprocamente, sea f : E E
#
un isomorsmo. Entonces, de 7.10 la funcion

f
: E E 3 (x, y) 7 f (x) (y) K es un funcional bilineal. Probemos que
f
es no singular. En la prueba del resultado 7.12 ya vimos que
f
= f y como f es
un isomorsmo entonces, el nucleo izquierdo de
f
es no trivial. Por 7.17
f
es
no singular.
7.3 Anuladores (ortogonalidad)
Consideremos un funcional bilineal Bil (E, F). Sean A E y B F conjun-
tos de vectores. Los anuladores de A y B son los conjuntos
A

def
= {y F | x A x y = 0}
B

def
= {x E | y B x y = 0}
respectivamente.
Es importante recalcar aqu, para favorecer la intuici on, que si E = F = R
n
y
es el producto escalar can onico (el producto punto de vectores) entonces el anulador
de un conjunto de vectores A es el subespacio ortogonal, o sea el conjunto de todos los
vectores perpendiculares a todos los vectores del conjunto A. Esto quiere decir, que los
anuladores son una generalizaci on de la ortogonalidad.
207 Seccion 7.3 Anuladores (ortogonalidad)
Sin embargo, el lector no debe asumir que todo lo que se cumple para la ortogona-
lidad geometrica se cumple para los anuladores. Por ejemplo, si E = F = C
2
y nueva-
mente es el producto escalar can onico entonces (1, i) (1, i) = 1
2
+ i
2
= 0 o
sea, (1, i) se anula a si mismo cosa que no suele ocurrir con el concepto geometrico de
perpendicularidad.
Por otro lado, E

= ker es el nucleo derecho de y F

= ker es
el nucleo izquierdo de y por esto, los anuladores pueden considerarse como una
generalizaci on del concepto de nucleo de un funcional bilineal.
Primeras propiedades
.
2
2
7
Los anuladores son subespacios.
Prueba. Si y, y
0
A

y K entonces x A tenemos que


x y +y
0
= x y + x y
0
= 0 +0 = 0
x y = x y = 0 = 0
que es lo que se necesitaba demostrar.
.
2
3
7
Si A B entonces B

.
Prueba. Si x B x y = 0 entonces x A x y = 0.
.
2
4
7
A

= hAi

.
Prueba. Como A hAi entonces por el resultado anterior hAi

. Sea y A

y x hAi. Tenemos para ciertos escalares


i
una combinaci on lineal de soporte nito
x =
P
iA

i
i y por lo tanto
x y =
X
iA

i
i y =
X
iA

i
i y =
X
iA
0 = 0
que es lo que se necesitaba demostrar.
.
2
5
7 A
def
=

A

A.
Prueba. Tenemos que y A

y x A x y = 0. Luego, si x A entonces,
x

.
Todas estas propiedades de los anuladores son validas en un contexto muy general y
son bastante elementales. Para lograr algo m as substancial deberemos pedirle a nuestro
funcional bilineal propiedades adicionales.
208 Captulo 7. Funcionales y formas
Caso nito dimensional
Como los anuladores son una generalizacion de los nucleos, usaremos la misma
tecnica del resultado 7.14 para lidiar con ellos. Para esto necesitaremos una notaci on
r apida para denotar un subespacio complementario. Usaremos la de teora de conjuntos
o sea, si X es un subespacio entonces X denotar a a un subespacio jo pero arbitrario
complementario a X.
.
2
6
7
Si A es un subespacio de E entonces, la restric-
cion de a AA

tiene nucleo derecho trivial.


Prueba. Para el nucleo derecho Y de esta restricci on tenemos
Y
def
=

y A

| x y = 0 x A

{y F | x y = 0 x A} = A

Luego, si y Y entonces, y A

= {0}.
.
2
7
7
Si B es un subespacio de F entonces, la restricci on de a B

B
tiene su nucleo izquierdo contenido en el nucleo izquierdo de .
Prueba. Para el nucleo izquierdo X de esta restriccion tenemos
X
def
=

x B

| x y = 0 y B

Si y F entonces y = y
0
+ y
1
con y
0
B y y
1
B. Si adem as x X entonces,
x y
0
= 0 porque x B

y x y
1
= 0 porque x X. Esto prueba que x
est a en el nucleo izquierdo de .
.
2
8
7
Si E y F son nito dimensionales y Bil (E, F) es no singular en-
tonces, para cualquier subespacio A se tiene que A

= A y que dimA =
dimA

.
Prueba. Si A E entonces, por 7.26, la restriccion : A

A
#
es inyectiva.
Luego
dimA

dimA
#
= dimA.
Como es no singular, tiene nucleo izquierdo trivial y podemos aplicarle 7.27 a
B = A

y as obtener que la restriccion : A

#
es inyectiva. De aqu,
dimA

dimA

#
= dimA

.
Conjugando estas dos desigualdades obtenemos
dimA

dimA

dimA.
Como por 7.25 A A

estas desigualdades son en realidad igualdades y A

= A.
209 Seccion 7.4 Productos bilineales
De este resultado obtenemos que la funcion A 7 A

es biyectiva entre los subes-


pacios de E y F. Esta funci on revierte el orden de inclusi on y en particular transforma
a un espacio de dimension k en un subespacio de dimension complementaria n k.
El lector debe observar que las pruebas de esta seccion se hiceron solo de un lado
del funcional bilineal (escogamos A E y no A F) es evidente que esto es suciente
ya que si Bil (E, F) entonces, Bil (F, E) donde y x
def
= x y .
7.4 Productos bilineales
A partir de ahora nos restringiremos a estudiar los funcionales bilineales en Bil (E, E) ,
o sea, cuando los dos espacios son el mismo. En este caso, le llamaremos a estos fun-
cionales producto bilineal en E. Es mas, pensaremos que E trae consigo un producto
bilineal . Por esto le llamaremos a E espacio con producto bilineal. Si E es
nito dimensional y es nodegenerado entonces tenemos dos isomorsmos
y can onicos (no hay que escoger nada porque est a dado a priori) de E en
su dual E
#
. Al producto bilineal tal que x, y, x y = 0 lo llamaremos nulo.
Perpendicularidad
Sea un producto bilineal en E. Diremos que dos vectores x, y son perpen-
diculares y lo denotaremos por x y si x y = 0. Aqu tenemos un problema,
no hay nada que nos garantice que (x y) (y x). Es problem atico estudiar es-
pacios con producto bilineal en los cuales no se cumple esta implicaci on: habra que
denir perpendicularidad izquierda y derecha. Por esto, postularemos como axioma
esta propiedad de simetra de la perpendicularidad.
Todo producto bilineal cumple que x, y
( x y = 0) ( y x = 0)
Sean A y B dos conjuntos de vectores. Diremos que A es perpendicular a B y
escribiremos A B si cualquier vector en A es perpendicular a cualquier vector en B.
El anulador de A es el conjunto
A

= {x E | x y y A}
En otras palabras, A

es el conjunto m as grande tal que A A

. Observese que esta


denici on coincide con la de la secci on anterior y no tenemos que preocuparnos si A es
subconjunto de el espacio izquierdo o derecho del funcional gracias a la simetra de la
relaci on de perpendicularidad.
Se dice que un vector x es isotropico si x x o lo que es lo mismo si x x = 0.
Ya vimos que C
2
con el producto escalar can onico tiene vectores isotropicos no nulos.
El espacio de Minkowsky es R
4
con el producto bilinear denido por la forma bilineal
xx
0
+yy
0
+zz
0
c
2
tt
0
donde c es la velocidad de la luz. El espacio de Mikowsky es el espacio donde vive la
210 Captulo 7. Funcionales y formas
teora de la relatividad. Los vectores isotropicos en este espacio forman un cono x
2
+y
2
+
z
2
= c
2
t
2
llamado cono de luz. Los vectores isotropicos no nulos son posibles obst aculos
para que un subespacio sea disjunto con su ortogonal ya que

x A A

(x x).
A los vectores que no son isotr opicos se les llama anisotr opicos.
Diremos que un vector x es simetrico si para cualquier vector y se

0 1
1 0

tiene que x y = y x . En K
n
con el producto escalar canonico
todo vector es simetrico. En R
2
con el producto bilineal denido por la
matriz del recuadro a la derecha solo el vector nulo es simetrico y todo
vector es isotr opico. Es muy facil ver que el conjunto de todos los vectores simetricos
forman un subespacio. A los vectores que no son isotropicos se les llama asimetricos.
Consecuencias de la simetra de la perpendicularidad
En los ejemplos que hemos puesto la bilinearidad del producto es obvia. El hecho
de que estos espacios cumplen el axioma de simetra de la perpendicularidad ser a obvio
del siguiente resultado.
.
2
9
7
Un funcional bilineal tiene perpendicularidad simetrica si y
solo si todo vector es simetrico o todo vector es isotropico.
Prueba. Es obvio que si si todo vector es simetrico entonces la perpendicularidad es
simetrica. Si todo vector es isotr opico y x y = 0 entonces
0 = x +y x +y = x x + y y + x y + y x = y x
ya que todos los dem as sumandos son cero.
Recprocamente supongamos que la perpendicularidad es simetrica y que existe un
vector asimetrico. Tenemos que probar que todo vector es isotr opico. Para cualesquiera
pareja de vectores (x, y) denotemos
(x, y) = x y y x
que es un funcional bilineal. Sea a asimetrico. Existe b tal que (a, b) 6= 0. Observese
que b es tambien asimetrico.
Probemos primero que para cualquier vector x se cumple que
x a (x, a) = 0 ()
Efectivamente () se cumple porque (x a) ( x a = a x = 0). Para
probar () vemos que
0 = a x a b a x a b
1
= a (x a b a x b)
2
=
= (x a b a x b) a
3
= x a a b a x b a
4
=
= a x a b a x b a
5
= a x (a, b)
6
( a x = 0)
que es lo que se necesitaba probar. Las igualdades 1,3 son por bilinearidad, 2 es por
simetra de la perpendicularidad, 4 es porque (x, a) = 0, 5 es por denicion de (a, b)
y la implicaci on 6 es porque (a, b) 6= 0. Al lector que le parezca este razonamiento
m agico, le recomiendo leerlo de atr as hacia delante o sea, comenzando con lo que hay
211 Seccion 7.4 Productos bilineales
que probar.
Dos observaciones acerca de (). Primero, podemos reempazar a por cualquier
vector asimetrico y en particular por b. Segundo, como evidentemente (a, a) = 0
entonces a a o sea, cualquier vector asimetrico es isotropico. En particular, a y b
son isotr opicos.
Sea ahora x cualquier vector. Probemos que x es isotr opico. Podemos suponer que
x es simetrico y de () obtenemos que x {a, b}. Tenemos
(x +b, a) = (x, a) +(b, a) = (b, a) 6= 0
y por lo tanto x +b es asimetrico e isotr opico. Finalmente
0 = x +b x +b = x x + b x + x b + b b = x x
porque todos los dem as sumandos son cero.
A los productos bilineales tales que todos los vectores son simetricos se le lla-
man simetricos. Los productos simetricos son aquellos tales que x, y se tiene que
x y = y x . A los productos bilineales tales que todos los vectores son iso-
tr opicos se les llama alternantes. Los productos alternantes son aquellos tales que
x se tiene que x x = 0. Debido a 7.29 hay tres tipos de productos bilineales no
nulos:
Caracterstica
Tipo 1. Aquellos que son simetricos pero no alternantes arbitraria
Tipo 2. Aquellos que son alternantes pero no simetricos 6= 2
Tipo 3. Aquellos que son alternantes y simetricos. = 2
Si un producto bilineal es alternante entonces la igualdad
0 = x +y x +y = x y + y x
muestra que x, y se tiene que x y = y x . O sea el producto es an-
tisimetrico. Si un producto es simetrico, antisimetrico y no nulo entonces, hay un
escalar no nulo tal que = y por lo tanto el campo tiene caracterstica 2.
Recprocamente, si el campo es de caracterstica 2 entonces, las propiedades de ser
simetrico y antisimetrico son equivalentes. Esto muestra que los productos de tipo 2
solo existen sobre campos de caracterstica diferente de 2 y los de tipo 3 solo existen
sobre campos de caracterstica igual a dos. Los de tipo 1 existen sobre campos de
cualquier caracterstica (vease el producto escalar can onico).
Suma perpendicular externa
Sean (E, ) y (F, ) dos espacios con productos bilineales. En EF podemos
denir un funcional llamado suma perpendicular de la siguiente manera:
(x, y) (x
0
, y
0
) = x x
0
+ y y
0
.
212 Captulo 7. Funcionales y formas
La comprobaci on de que es bilineal es rutinaria. Por ejemplo
(x, y) + (a, b) (x
0
, y
0
) = (x +a, y +b) (x
0
, y
0
) =
= x +a x
0
+ y +b y
0
= x x
0
+ a x
0
+ y y
0
+ b y
0
=
= (x, y) (x
0
, y
0
) + (a, b) (x
0
, y
0
)
y las otras propiedades se prueban igual.
La propiedad de que sea un producto bilineal o sea, que la perpendicularidad
sea simetrica no siempre es cierta. Por otro lado, es facil ver que
y son simetricos es simetrico
y son alternantes es alternante
Luego, si sumamos dos productos bilineales del mismo tipo obtenemos un producto de
ese tipo. No podemos sumar un producto de tipo 2 con uno de tipo 3 ya que los dos no
podran ser sobre el mismo campo. Si sumamos un producto de tipo 2 con uno de tipo
1 entonces el funcional bilineal resultante no es un producto bilineal. Si sumamos un
producto de tipo 3 con uno de tipo 1 entonces obtendremos uno de tipo 1 (simetrico
pero no alternante). En resumen, solo se pueden sumar productos de diferentes tipos
si la caracterstica del campo es 2. Lo otro que podemos hacer siempre es sumarle a un
producto bilineal cualquiera el producto nulo.
Espacios irreducibles
Recprocamente, si E y F son subespacios perpendiculares y complementarios (o
sea E F = {0} , E + F = G y E F) de un espacio (G, ) con producto bilineal
entonces, escribiremos E F = G y diremos que (G, ) es la suma perpendicular
(interna) de (E, ) y (F, ). En este caso el producto bilineal en G es la suma
perpendicular externa de las restricciones del producto bilineal a los subespacios E y
F.
Diremos que un espacio con producto bilineal es reducible si existen subespacios
no triviales (diferentes de {0}) tales que el espacio es la suma perpendicular de ellos.
En otro caso se le llama irreducible.
Cualquier espacio de dimensi on 1 es irreducible ya que no tiene subespacios no
triviales. Cualquier espacio de dimension 2 o m as con producto bilineal degenerado
pero no nulo es reducible ya que seg un 7.14 es suma perpendicular de su nucleo y
cualquier subespacio complementario a el.
A un espacio (E, ) de dimension 2 tal que en cierta base (x, y) (x
0
, y
0
) =
xy
0
x
0
y, se le llama plano simplectico.
.
3
0
7
Los planos simplecticos son irreducibles.
Prueba. Los planos simplecticos son alternantes ya que (x, y) (x, y) = xyxy =
0. Como un plano simplectico tiene dimension 2 los unicos subespacios no triviales
tienen dimensi on 1 o sea estan generados por un vector x. Pero como x es isotr opico
213 Seccion 7.4 Productos bilineales
x hxi hxi

.
Caracterizacion de los productos irreducibles
.
3
1
7
Sea (E, ) de dimensi on nita con producto bilineal irreducible no nulo.
Si (E, ) es de Tipo 1 entonces, dimE = 1.
Si (E, ) es de Tipo 2 o 3 entonces, es un plano simplectico.
Prueba. Si (E, ) es de Tipo 1 entonces existe vector x que no es isotr opico y
por lo tanto hxi y hxi

son disjuntos. Como por 7.28 hxi y hxi

tienen dimensiones
complementarias entonces hxi y hxi

son complementarios. Luego hxi

riene que ser


trivial, o sea, de dimensi on cero.
Supongamos que (E, ) es de Tipo 2 o 3 o sea que es alternante. Un espacio
de dimension 1 no nulo no puede ser alternante y por lo tanto dimE 2. Sea x E
un vector. El vector x es isotr opico y por lo tanto para cualquier x hxi tenemos
que x x = 0. Si para cualquier otro vector z / hxi se tiene que x z = 0
entonces el nucleo de contiene a x y es no trivial esto contradice que el (E, )
es irreducible. Luego, existe z / hxi tal que x z = 6= 0. Sea y = z/. Tenemos
x y = 1 = y x (por ser alternante) y x x = 0 = y y
(porque todo vector es isotropico). Luego, el subespacio hx, yi es un plano simplectico.
Como los planos simpleticos son irreducibles solo nos falta por probar que hx, yi es
todo E.
Sea u = x +y hx, yi. Si adem as u hx, yi

entonces,
0 = x u = x x + x y =
0 = u y = x y + y y =
y por lo tanto hx, yihx, yi

= {0}. Por 7.28 tenemos que E = hx, yi hx, yi

. Como
E es irreducible hx, yi

tiene que ser trivial o sea E = hx, yi.


Espacios ortogonales y simplecticos
Como evidentemente cualquier espacio con producto bilineal es suma de irreducibles
entonces todos los primeros se obtienen sumando espacios de dimensi on 1 o planos
simplecticos.
Un espacio con producto bilineal no singular se le llama ortogonal si es suma
perpendicular de espacios de dimension 1. Es claro que si tomamos vectores generadores
de los espacios de dimension 1 obtenemos una base A del espacio que es un conjunto
ortogonal de vectores o sea que cualesquiera dos vectores en A son perpendiculares.
Reciprocamente, si existe una base ortogonal entonces el espacio es la suma directa.
Ejercicio 120 Pruebe que cualquier conjunto ortogonal de vectores anisotr opicos es
LI. [237]
214 Captulo 7. Funcionales y formas
Un espacio no singular se le llama simplectico si es suma perpendicular de planos
simplecticos. Una tercera posibilidad quedara excluida con el siguiente resultado.
.
3
2
7
La suma perpendicular de un espacio de dimensi on 1 no
nulo con un plano simplectico es un espacio ortogonal.
Prueba. Un espacio de dimension 1 no nulo es necesariamente de Tipo 1 porque
est a generado por un vector x y x x = 6= 0. Un plano simplectico es de Tipo 2
o 3. Si es de tipo 2 entonces no lo podemos sumar con otro espacio de Tipo 1. Luego,
necesariamente es de Tipo 3 y el campo es de caracterstica 2. La suma de estos dos
espacios es de Tipo 1 y en particular simetrico. El plano simplectico esta generado por
dos vectores isotr opicos y, z tales que z y = y z = 1 (tenemos 1 = 1).
Observese que en la suma perpendicular hxi hy, zi tenemos x y = x z =
0.
Los vectores denidos por las igualdades
a
def
= x +y +z , b
def
= x +y , c
def
= a +y
son una base del espacio y perpendiculares dos a dos (pruebelo usando que el campo
tiene caracterstica 2!). Luego, nuestro espacio es igual a hai hbi hci.
Este resultado nos permite armar que en caracterstica 2 la suma perpendicular
de espacios de Tipo 1 con espacios de Tipo 3 es un espacio ortogonal. Luego,los espa-
cios ortogonales son los de Tipo 1 y los simplecticos son los de los Tipos 2 y 3. Mas
detalladamente:
.
3
3
7
Todo espacio con producto interno o es ortogonal o es simplectico. Ambas posi-
bilidades son excluyentes. Los espacios ortogonales son exactamente aquellos en
los que el producto es simetrico pero no alternante. Los espacios simplecticos son
exactamente aquellos en los cuales el producto es alternante.
Debido a esto ya no nos veremos m as en la necesidad de usar los tipos de los pro-
ductos bilineales. Ahora simplemente los clasicaremos en ortogonales y simplecticos
y lo que sabemos de ellos queda resumido en la siguiente tabla.
ortogonal
def
base ortogonal
simetrico pero
no alternante
simplectico
def

suma de planos
simplecticos
alternante
Recalquemos que por denici on todo producto ortogonal o simplectico es no singu-
lar.
215 Seccion 7.5 Isomorsmos de espacios con producto bilineal
7.5 Isomorsmos de espacios con producto bilineal
Sean (E, ) y (F, ) dos espacios con producto bilineal. Un isomorsmo
f : E F de espacios vectoriales es un isomorsmo de los espacios con producto
bilineal si este preserva el producto o sea si x, y E se cumple que x y =
f (x) f (y) .
Ejercicio 121 Pruebe que la composicion de isomorsmos de espacios con producto
bilineal es un isomormo. Lo mismo para la funci on inversa.
La inversa de un isomorsmo es un isomorsmo. Si existe un isomorsmo entre
(E, ) y (F, ) entonces se dice que los espacios con producto bilineal son iso-
morfos.
A los isomorsmos entre espacios bilineales se les llama en la literatura isometras. Sin
embargo, esta palabra surge del hecho de que cuando el campo es R el funcional bilineal
dene un espacio metrico en el espacio vectorial. Nosotros reservaremos la palabra metrico
para funciones que preservan una distancia.
Ejercicio 122 Pruebe que los isomorsmos de espacios con producto bilineal pre-
servan la relaci on de perpendicularidad, los conjuntos ortogonales, la alternancia, la
simetra, la antisimetra y los nucleos de los productos bilineales.
Si dos espacios son isomorfos entonces o los dos son ortogonales o los dos son
simplecticos. A un isomorsmo entre espacios ortogonales los llamaremos isomorsmo
ortogonal. A un isomorsmo entre espacios simplecticos los llamaremos isomorsmo
simplectico. Si los isomorsmos son automorsmos entonces reciben los nombres de
operador ortogonal y operador simplectico respectivamente.
Si (E, ) es un espacio ortogonal entonces el conjunto de todos sus operadores
ortogonales es un subgrupo del grupo general lineal GL(E) y se le llama grupo orto-
gonal de (E, ) y lo denotaremos por
O
(E, ) o por
O
(E) si queda claro cual
es el producto bilineal.
Si (E, ) es un espacio simplectico entonces el conjunto de todos sus operadores
simplecticos es un subgrupo del grupo general lineal GL(E) y se le llama grupo sim-
plectico de (E, ) y lo denotaremos por Sp (E, ) o por Sp(E) si queda claro
cual es el producto bilineal.
Clasicacion de productos bilineales. Caso simplectico.
Ya sabemos como construir todos los productos bilineales posibles: sumando planos
simplecticos o sumando espacios de dimensi on 1. Sin embargo, es muy posible que al
construir dos espacios con producto bilineal de diferentes formas obtengamos el mismo
(salvo isomorsmos). En lo que sigue nos ocuparemos de este problema. El resultado
216 Captulo 7. Funcionales y formas
m as basico que usamos para probar que dos espacios son isomorfos es la extensi on
bilineal.
.
3
4
7
Si dos productos bilineales coinciden en una
base del espacio entonces, son el mismo.
Prueba. Sea N una base del espacio y x =
P
iN

i
i , y =
P
jN

j
j dos cualesquiera
de sus vectores. Tenemos
x y =
X
iN

i
i
X
jN

j
j =
X
iN
X
jN

j
i j
y por lo tanto x y est a denido a priori por los i j .
Ejercicio 123 Sean (E, ) y (F, ) dos espacios con producto bilineal con
bases N y M respectivamente. Pruebe que si f : N M es una funci on biyectiva
tal que i, j N, i j = f (i) f (j) entonces, la extensi on lineal de f es un
isomorsmo de espacios con producto bilineal.
Esto nos da inmediatamente que existe un solo espacio simplectico.
.
3
5
7
Cualesquiera dos espacios simplecticos
de la misma dimension nita son iso-
morfos.
Prueba. Sean (E, ) y (F, ) dos espacios simplecticos de la misma dimension
nita. Entonces, E = P
1
. . . P
n
y F = Q
1
. . . Q
m
donde los P
i
y los Q
j
son
planos simplecticos (todos de dimensi on 2). Luego 2n = 2m = dimE = dimF y por lo
tanto n = m. Cada plano simplectico tiene una base {x, y} de dos vectores isotropicos
tales que x y = y x = 1. Sean {x
i
, y
i
} P
i
y {x
0
i
, y
0
i
} Q
i
para i
{1, . . . , n} las bases de estos planos simplecticos. Los conjuntos N =
S
n
i=1
{x
i
, y
i
} y M =
S
n
i=1
{x
0
i
, y
0
i
} son bases de E y F respectivamente. Como la sumas son perpendiculares
entonces, para i 6= j tenemos que
x
i
x
j
= x
i
y
j
= y
i
x
j
= y
i
y
j
= 0
x
0
i
x
0
j
= x
0
i
y
0
j
= y
0
i
x
0
j
= y
0
i
y
0
j
= 0
y por lo tanto, la funci on f : N 3 a a
0
M es una biyecci on entre las bases que
preserva el producto bilineal.
Los espacios simplecticos a pesar de (o tal vez, debido a) su simplicidad tienen amplias
aplicaciones en la fsica ( optica geometrica, mec anica clasica, termodin amica, cuantizacion
geometrica, etc) y en la matem atica aplicada (teora de control). En matematicas (como ya
vimos) ellos surgen naturalmente y son importantes para muchos problemas del an alisis y el algebra.
217 Seccion 7.5 Isomorsmos de espacios con producto bilineal
Clasicacion de espacios ortogonales de dimensi on 1. Equivalencia cuadratica
La clasicaci on de los espacios ortogonales es mucho m as compleja que la de los
espacios simplecticos. Para empezar consideraremos E un espacio ortogonal de dimen-
sion 1. Entonces, para un vector no nulo x se tiene que x x = K y el producto
bilineal est a predeterminado por el escalar . Sea otro elemento del campo no nulo
y consideremos otro producto bilineal en E denido por x x =
2
. Tenemos que
la homotecia f : x 7x cumple que
x x =
2
=
2
x x = x x = f (x) f (x)
y por lo tanto f muestra que los espacios (E, ) y (F, ) son isomorfos.
Diremos que un escalar no nulo es un cuadrado si existe tal que =
2
.
Diremos que dos escalares no nulos y son cuadraticamente equivalentes si
existe otro escalar tal que =
2
. En otras palabras, si
1
es un cuadrado.
Clasicacion de los espacios ortogonales en dimension 1
.
3
6
7
Sean y dos productos bilineales denidos en un espacio vecto-
rial E de dimensi on 1. Sea x una base de E. Denotemos
def
= x x 6=
0 y
def
= x x 6= 0. Entonces, los productos y son iso-
morfos si y solo si y son cuadraticamente equivalentes.
Prueba. Ya vimos que si y son cuadraticamente equivalentes entonces los produc-
tos son isomorfos. Supongamos que f es un operador tal que x x = f (x) f (x) .
Como todo operador en diemensi on 1 es una homotecia, existe tal que f (x) = x y
por lo tanto

def
= x x = f (x) f (x) = x x =
2
x x =
2

lo que demuestra que y son cuadr aticamente equivalentes.


La equivalencia cuadr atica depende mucho del campo. Por ejemplo en C todo n ume-
ro es un cuadrado y por lo tanto dos complejos cualesquiera son cuadr aticamente equi-
valentes. En R los cuadrados son los n umeros positivos y por lo tanto hay dos clases
de equivalencia cuadr atica: los positivos y los negativos. En Q los cuadrados son los
productos y cocientes de cuadrados de n umeros primos y por lo tanto hay innitas cla-
ses de equivalencia cuadratica, una por cada racional de la forma p
1
q
1
. . . r
1
donde
p, q, . . . , r son primos todos diferentes.
.
3
7
7
En cualquier campo nito hay tantas clases de equivalencia
cuadratica como raices cuadradas de la unidad.
Prueba. Recalquemos (vease la soluci on al ejercicio ?? el Teorema de Lagrange para
grupos nitos: si F es un subgrupo de G entonces, las clases laterales xF = {xy | y F}
forman una partici on del grupo y todas tienen el mismo n umero de elementos. En
218
Captulo 7. Funcionales y formas
particular |F| es un divisor de |G| y el n umero de clases laterales es igual a |G| |F|. Al
conjunto de todas estas clases laterales lo denotaremos por G/F.
En nuestro caso G es el grupo multiplicativo del campo y F es el subgrupo de
todos los cuadrados no nulos. El lector deber a observar que una clase de equivalencia
cuadr atica no es m as que xF para cierto x G. Luego, |G/F| = |G| |F| es el n umero
de clases de equivalencia cuadr atica.
Sea H =

x G | x
2
= 1

el conjunto de raices cuadradas de la unidad. Observese


que H es otro subgrupo de G y que la funci on
f : G/H 3 xH 7x
2
F
es evidentemente sobreyectiva. Para ver que f es inyectiva supongamos que x
2
= y
2
entonces, x
2
y
2
= 1 y por lo tanto x
1
y H. Luego

x
1
yH = H

(yH = xH) .
Como f es una biyecci on, por el Teorema de Lagrange obenemos que |G| |H| = |F| y
por lo tanto |G| |F| = |H|.
Como en un campo cualquiera el n umero de raices del polinomio x
2
1 es 2 y en
un campo de caracterstica 6= 2 los n umeros +1 y 1 son dos raices cuadradas de la
unidad, obtenemos que, en un campo de nito de caracterstica 6= 2 hay exactamente
dos clases de equivalencia cuadr atica: aquellos que son cuadrados y aquellos que no lo
son. Para los campos de caracterstica 2 tenemos el siguiente:
.
3
8
7
En un campo nito de caracterstica 2 todo
elemento es un cuadrado.
Prueba. En cualquier campo de caracterstica 2 tenemos que
(x 1)
2
= x
2
2x +1 = x
2
+1 = x
2
1
y por lo tanto las raices cuadradas de 1 son las raices del polinomio (x 1)
2
el cual
tiene como unica raiz a 1. Aplicando 7.37 terminamos la prueba.
El resultado 7.37NO es necesariamente cierto para campos innitos. El ejem-
plo m as claro de esto es el campo de los n umeros racionales Q.
Clasicacion de espacios ortogonales. Casos particulares
Sea (E, ) un espacio ortogonal sobre K y N una de sus bases ortogonales. A
la N-ada
N
: N 3 i 7 i i K la llamaremos la huella del espacio ortogonal en
la base N. Como la base es ortogonal sabemos que i, j N se cumple que (i 6= j)
( i j = 0) y por lo tanto la huella dene completamente el producto bilineal. La
huella no es otra cosa que la diagonal de la matriz del producto bilineal en la base N.
Sean
N
K
N
y
M
K
M
. Diremos que
N
y
M
son cuadraticamente equi-
valentes si existe otra M-ada
M
K
M
y una biyecci on : MN tal que j M
219 Seccion 7.5 Isomorsmos de espacios con producto bilineal
se cumple que
(j)
=
2
j

j
.
.
3
9
7
(E, ) y (F, ) dos espacios ortogonales sobre K. Sean N y M ba-
ses ortogonales de E,y F respectivamente. Si la huella de E en la base N
es cuadraticamente equivalente a la huella de F en la base M entonces los
espacios son isomorfos.
Prueba. Sean
N
y
M
las dos huellas mencionadas. Sean
M
K
M
y una biyeccion
: MN tal que
(j)
=
2
j

j
. Sea f : F E el operador linear no singular tal que
f (j) =
1
j
(j).Tenemos j M
j j =
j
=
2
j

(j)
=
1
j
(j)
1
j
(j) = f (j) f (j)
y por lo tanto f es un isomorsmo de espacios ortogonales.
Para ver que el recproco de este resultado NO es cierto consideremos el producto bi-
lineal en Q
2
denido por (x, y) (x
0
, y
0
) = 5xx
0
+5yy
0
. Sea adem as (x, y) (x
0
, y
0
) =
xx
0
+yy
0
el producto escalar can onico. A pesar que 5 no es cuadraticamente equivalente
a 1 tenemos que el operador lineal denido por f (x, y) = (x +2y, y 2x) cumple que
f (x, y) f (x, y
0
) = (x +2y) (x
0
+2y
0
)+(y 2x) (y
0
2x
0
) = 5xx
0
+5yy
0
= (x, y) (x
0
, y
0
)
por lo que Q
2
on el producto es isomorfo a Q
2
con el producto escalar can onico.
La clasicaci on de los espacios ortogonales sobre Q y muchos otros campos es un
problema complicado. Por esto nos conformaremos con estudiar los casos m as sencillos
y que son los que mas nos interesan.
Si en el campo hay una sola clase de equivalencia cuadratica por ejemplo C y
cualquier campo nito de caracterstica 2 entonces 7.39 nos da que solo puede haber
salvo isomorsmos un solo producto ortogonal y podemos pensar que este es el producto
escalar can onico.
Si en el campo K hay exactamente dos clases de equivalencia cuadr atica entonces
podemos asumir que las coordenadas de las huellas son iguales a 1 o a un elemento de
K jo que no sea un cuadrado. Este tipo de huellas est a est a predeterminada por la
cantidad de 1 en ellas ya que las dem as forzosamente son iguales a . Esta cantidad de
1 puede ser desde cero hasta la dimension del espacio por lo que obtenemos.
.
4
0
7
En un espacio E sobre un campo con dos clases de equivalencia cuadratica
se pueden denir a lo m as 1 + dimE productos ortogonales diferentes.
El lector debe obervar el a lo mas ya que es muy posible que algunos de estos
productos sean isomorfos. Los ejemplos de que disponemos de campos con dos clases
de equivalencia cuadr atica son los reales y los campos nitos de caracterstica 6= 2.
En lo que sigue inmediatamente veremos que sobre R los 1 + dimE productos son
efectivamente diferentes, pero sobre los campos nitos hay de caracterstica 6= 2 hay
220 Captulo 7. Funcionales y formas
exactamente dos productos bilineales diferentes independientemente de la dimension
del espacio.
Ley de inercia de Silvestre
Un ordenamiento de un campo K es un subconjunto P K \ {0} cerrado para
la suma y el producto y tal que P P = K \ {0}. A los elementos de P se les llama
positivos y a los de P negativos. Observase que P y P son necesariamente disjuntos
ya que si x,x P entonces x + (x) P lo que contradice que 0 / P. Escribiremos
x > y si x y P.
El producto de dos negativos es positivo ya que si x, y P entonces (x) (y) =
xy P. En particular, cualquier cuadrado es positivo y como 1
2
= 1 tenemos que
1 > 0. De aqu, 1 + + 1 6= 0 por lo que un campo ordenado tiene necesariamente
caracterstica cero, o sea, contiene a Q. Cualquier campo K tal que Q K R se
puede ordenar pero estos no son los unicos.
Una bonita y util caracterizaci on de los campos que se pueden ordenar es el Teorema de
Artin - Schreier: Un campo se puede ordenar si y solo si 1 no es suma de cuadrados.
Se dice que un producto bilineal ortogonal denido en un espacio vectorial sobre
un campo ordenado es denido positivo si para cualquier vector x 6= 0 se tiene
que x x > 0. Tambien diremos que el espacio con producto bilineal es denido
positivo. Analogamente se denen que un producto bilineal es denido negativo si
para cualquier vector x 6= 0 se tiene que x x < 0.
.
4
1
7
La suma perpendicular de espacios denidos positivos es denida positiva.
Prueba. Si (x, y) E F entonces, (x, y) (x, y) = x x + y y > 0.
Como es l ogico, hay un resultado similar para los espacios denidos negativos. De
aqu, vemos que un producto es denido positivo (negativo) si y solo si existe una base
ortogonal tal que x x > (<) 0 para cualquier vector en la base.
Ley de inercia de Silvestre
.
4
2
7
Todo espacio ortogonal sobre un campo ordenado es suma perpendicular de
un subespacio denido positivo con otro denido negativo. Si el espacio es
nito dimensional entonces, las dimensiones de estos dos subespacios est an
denidas a priori por el producto bilineal.
Prueba. Sea A una base ortogonal y
A
+
def
= {x A | x x > 0} A

def
= {x A | x x < 0}
Los subespacios E
+
= hA
+
i y E

= hA

i son perpendiculares y denidos positivo y


221 Seccion 7.5 Isomorsmos de espacios con producto bilineal
negativo respectivamente. Luego E = E
+
E

es la descomposici on buscada.
Si F es un subespacio denido positivo arbitrario entonces F E

= {0}. Por la
igualdad modular tenemos que
dimF + dimE

= dim(F + E

) dimE
y por lo tanto
dimF dimE dimE

= dimE
+
Esto quiere decir que dimE
+
se puede caracterizar como la dimensi on m as grande
posible de un subespacio denido positivo y por lo tanto est a denida a priori por el
producto bilineal.
En R
n
la ley de inercia de Silvestre tiene como consecuencia que los n+1 productos
bilineales posibles son diferentes ya que las dimensiones de los subespacios denidos
positivos maximales son todas diferentes.
Productos bilineales sobre campos nitos
Ya vimos que en un campo nito de caracterstica 2 hay un solo producto bilineal
el can onico. Ademas sabemos que si la caracterstica es diferente de 2 entonces, en el
campo hay exactamente dos clases de equivalencia quadr atica.
En lo que sigue K es un campo nito de caracterstica diferente de 2 y es un
elemento de K que no es un cuadrado.
Es un error que pensar que podemos tomar = 1. Hay campos nitos de
caracterstica diferente de 2 en los cuales 1 es un cuadrado, por ejemplo, en
Z
5
tenemos 2
2
= 4 = 1.
.
4
3
7
Los productos ortogonales en K
2
con huellas {1, 1} y {, } son isomorfos.
Prueba. Sea {a, b} una base de K
2
y el producto ortogonal para el cual
a a = b b =
a b = b a = 0
Sea A
def
=

2
| K

. El conjunto A esta formado por el cero y por todos los


elementos no nulos de K cuadraticamente equivalentes a . Como K tiene exactamente
dos clases de equivalencia cuadratica, tenemos
|A| =
|K| 1
2
+1 =
|K| +1
2
Como la funci on K 3 x 7 1 x K es una biyeccion entonces |1 A| = |A| y por
lo tanto los conjuntos |1 A| y |A| tienen intersecci on no vaca. Esto quiere decir que
existen dos elementos del campo y tales que
2
= 1
2
o lo que es lo mismo

2
+
2
= 1. Observese que como no es un cuadrado entonces, ambos y son
diferentes de cero.
222 Captulo 7. Funcionales y formas
Sea c
def
= a +b. El conjunto {c, b} una base de K
2
ya que 6= 0 y tenemos que
c c =
2
+
2
= 1 b b =
c b = b c =
Lo malo de esta base es que no es ortogonal. Denamos d
def
= b c. El conjunto
{c, d} una base de K
2
y ahora tenemos que
c c = 1 d d =

1
2

=
2

2
c d = d c = 0
Como d d es un cuadrado entonces, podemos normalizar deniendo e =
d/. En la base ortogonal {c, e} la huella del producto bilineal es {1, 1}.
El resultado anterior nos permite armar que un producto bilineal sobre K o es el
can onico o tiene huella igual a {, 1, 1, . . . 1}. Solo falta probar que estos dos productos
son diferentes. Para esta prueba lo m as apropiado es usar el Teorema de Witt sobre
isomorsmos entre espacios con producto bilineal sobre cualquier campo.
Teorema de cancelaci on de Witt
.
4
4
7
Sea E un espacio ortogonal. Sean F y G dos subespaciosde E. Si F es iso-
morfo a G entonces, F

es isomorfo a G

.
La prueba de este resultado nos llevara lejos en el estudio del grupo ortogonal y
esto sale fuera de los objetivos de este libro.
Ejercicio 124 Pruebe usando el Teorema de Witt que los productos con huellas {1, }
y {1, 1} no son isomorfos. [237]
Ejercicio 125 Pruebe lo mismo, pero sin usar el Teorema de Witt. [238]
Ejercicio 1 (Secci on 1.1 pagina 2) La suma y el producto estan bien denidas en
N, Z, Q, R y C. La resta en Z, Q, R y C. La divisi on en Q, R y C. La exponenciacion
es mas complicada ya que aunque est a bien denida en N no esta bien denida en Z, Q
y R ya que

2
1
=
1
2
/ Z

,

2
1/2
=

2 / Q

y

(1)
1/2
= i / R

. Por otro lado, la


exponenciacion si esta bien denida en R
+
(los mayores que cero). Para ver esto. usamos
las f ormulas (p/q)
a
= p
a
/q
a
, a
p/q
=
q

a
p
, (lm
i
a
i
)
b
= lm
i
a
b
i
y nalmente si
c = lm
i
a
i
entonces b
c
= lm
i
b
a
i
. Con ellas reducimos la prueba a demostrar que
n

m es un real para cualesquiera (diferentes de cero) naturales n y m. Esto ultimo es


equivalente a ver que la funcion f (x) = x
n
m alcanza el valor cero. Como f (x) es
continua, f (1) 0 y f (m) 0 esto necesariamente tiene que ocurrir. No es difcil ver,
que la funcion y = a
x
es estrictamente creciente en la variable x por lo que esta tiene
una funci on inversa log
a
y denida en R
+
. Las operaciones maximo com un divisor y
mnimo com un m ultiplo est an denidas para los naturales (y polinomios).
Ejercicio 2 (Seccion 1.1 pagina 2) Una operaci on unaria en el conjunto A es una
funci on de A en A. Por ejemplo para cada entero x hay otro entero x. De esta manera
la operaci on x 7x es una operaci on unaria. Otros ejemplos comunes son el hallar el
complemento de un conjunto o el hallar el complejo conjugado de un n umero complejo.
Ejercicio 3 (Seccion 1.1 pagina 2) El area del tri angulo con lados a, b y c no es
una operaci on ternaria en R ya que no para cualesquiera a, b y c existe un triangulo
con lados de esas longitudes.
Ejercicio 4 (Seccion 1.1 pagina 3) La f ormula (a +b) (x +y) se expresa en nota-
cion suja como ab +xy + .
Ejercicio 5 (Seccion 1.1 pagina 3) La suma, el producto, el m aximo com un divisor
el mnimo com un m ultiplo y el maximo son operaciones conmutativas. Las dem as no
lo son.
Ejercicio 6 (Seccion 1.1 pagina 3) Ya vimos en el texto que la exponenciaci on no
es asociativa. Observemos que 4 = 4 (2 2) 6= (4 2) 2 = 0 por lo que la resta
no es asociativa. Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la divisi on no
es asociativa. Tampoco es asociativo el logaritmo. El resto de las operaciones si son
asociativas.
Ejercicio 7 (Seccion 1.1 pagina 4) La resta no tiene elemento neutro ya que de
224 Soluciones de ejercicios selectos
a e = a se sigue que e = 0 pero por otro lado 0 a = a 6= a. Lo mismo
ocurre con la divisi on. La operaci on de exponenciaci on no tiene elemento neutro ya
que e
1
= 1 e = 1 pero 1
2
= 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de
la suma es el cero, el neutro del producto es el uno. El 1 tambien es el neutro para el
mnimo com un m ultiplo. La operaci on de m aximo com un divisor no tiene neutro.
Ejercicio 8 (Seccion 1.1 pagina 5) Es importante se nalar que el inverso tiene sentido
solo si hay neutro. El inverso de a para la suma es a, para el producto es
1
a
. Aunque
el mnimo com un m ultiplo tiene neutro 1, esta operaci on no tiene inversos.
Ejercicio 9 (Secci on 1.1 pagina 5) Fijemonos en un conjunto U y en el conjunto
de todos los subconjuntos de U que denotaremos por 2
U
. En 2
U
est an bien denidas
las operaciones de uni on e intersecci on de conjuntos. Estas operaciones cumplen las
propiedades requeridas como se puede observar en los dos siguientes diagramas de
Venn.
A
B
C
A (B C) =
= (A B) (A C)
A
B
C
A (B C) =
= (A B) (A C)
Ejercicio 11 (Seccion 1.2 pagina 9) No porque (1, 0)(0, 1) = (0, 0) lo que muestra
que K
2
no es dominio de integridad y por lo tanto no es un campo.
Ejercicio 12 (Secci on 1.2 pagina 9) Supongamos que

n es un racional. De-
componiendo su numerador y denominador en factores primos obtenemos que

n =
p
n
1
1
p
n
2
2
. . . p
nt
t
para ciertos naturales primos p
1
p
2
. . . p
t
y ciertos n umeros enteros n
1
, n
2
, . . . , n
t
.
Pero entonces, n = p
2n
1
1
p
2n
2
2
. . . p
2n
t
t
y por lo tanto i {1, ..., t} 2n
i
0. Luego,
todos los n
i
son naturales lo que signica que

n es natural.
Ejercicio 13 (Seccion 1.2 pagina 9) Tenemos 1 <

2 < 2 y por lo tanto



2 no es
natural. Por el ejercicio anterior, no es racional.
Ejercicio 14 (Seccion 1.2 pagina 10) Siempre podemos medir un segmento de recta
con cada vez m as precisi on (al menos teoricamente). Cada medici on nos da un n umero
racional. Luego, la longitud del segmento es un lmite de racionales por lo que es un
real.
Ejercicio 18 (Secci on 1.3 pagina 12) Por 1.1.4 sabemos que f (0) = 0 y f (1) = 1.
Si f (a) = 0 y a no fuera el cero de A entonces tendramos 1 = f (1) = f

aa
1

=
f (a) f

a
1

= 0f

a
1

= 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0.


225 Soluciones de ejercicios selectos
Luego, si f (x) = f (y) entonces, f (x y) = 0 y por lo tanto x = y.
Ejercicio 21 (Seccion 1.4 pagina 17)
La tabla de multiplicar en Z
5
es la derecha. Luego el elemento
0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1
inverso de 1 es 1, el elemento inverso de 2 es 3, el elemento
inverso de 3 es 2 y el elemento inverso de 4 es 4. Observese que
en la tabla de multiplicar de Z
5
\0 en cada columna y en cada
renglon nos encontramos con todos los elementos posibles. Esto
es una propiedad de las operaciones binarias de los grupos. De
hecho, un conjunto con una operaci on binaria asociativa y con
elemento neutro es un grupo si y solo si su tabla de multiplicar cumple esta propiedad.
Ejercicio 22 (Secci on 1.4 pagina 17) Sea K un campo y G un subgrupo nito de
(K\ 0, ). Si x G entonces al natural n m as peque no tal que x
n
= 1 lo llamaremos
orden de x. En este caso todos los elementos de hxi =

1, x, x
2
. . . x
n1

son diferentes
y la funci on f : (hxi , ) 3 x
i
7i (Z
n
, +) es un isomorsmo de grupos. Luego, lo que
hay que probar es que en G existe un elemento de orden q = |G|.
1. Sea F un subgrupo de G. Para x G el conjunto xF = {xf | f F} se le llama
clase lateral de x. Tenemos que si f F entonces fF = F ya que F es un subgrupo.
De
(y xF) (y = xf)

x = yf
1

xF = yf
1
F

(xF = yF)
(y xF zF) (xF = yF = zF)
obtenemos que las clases laterales forman una particion de G. La funci on F 3
f 7 xf xF es la inversa de xF 3 xf 7 f F y por lo tanto cualquier clase
lateral tiene la misma cantidad de elementos que F. Luego |F| es un divisor de |G|
y el cociente |G| |F| es el n umero de clases laterales. Este hecho se conoce como
Teorema de Lagrange. En particular, el orden de cada x G es un divisor de
q = |G|.
2. Sea x de orden n y denotemos (n) el n umero de elementos de orden n en hxi.
Como x tiene orden n entonces, (n) 1. La funci on (n) no depende de x pues
cualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos.
Luego, (n) solo depende del natural n.
Como cualquier z hxi tiene cierto orden que por el Teorema de Lagrange es
un divisor de n y el n umero de elementos en hxi es n entonces,
P
d|n
(d) = n
donde la suma recorre todos los divisores de n. A se la conoce como Funcion
de Euler.
3. Denotemos por (n) al n umero de elementos de orden n en nuestro grupo G.
Como cualquier z G tiene cierto orden que por el Teorema de Lagrange es un
divisor de |G| = q entonces,
P
d|q
(d) = q donde la suma recorre los divisores
de q.
4. Si en G no hay un elemento de orden n entonces (n) = 0. Si por el contrario
x G tiene orden n entonces,y = x
k
hxi tenemos que y
n
=

x
k

n
= (x
n
)
k
=
226 Soluciones de ejercicios selectos
1. Luego, todos los n elementos de hxi son raices del polinomio z
n
1. Como
el polinomio z
n
1 no puede tener mas de n raices en el campo K (vease el
resultado 5.4) entonces, todos los elementos de G de orden n est an en hxi y por
lo tanto (n) = (n). De aqu, para cualquier n se tiene que (n) (n) 0.
5. De (2) y (3) tenemos que
0 =
X
d|q
(d)
X
d|q
(d) =
X
d|q
((d) (d))
y como por (4) (d) (d) 0 entonces, para cualquier d divisor de q = |G|
tenemos (d) = (d). En particular, (q) = (q) 1. Esto signica que en G
hay un elemento de orden q = |G|.
Ejercicio 23 (Secci on 1.4 pagina 17) La prueba de que es un anillo conmutativo es
directa de las denici ones de suma y producto. Para ver que es un campo observamos
que el producto (a, b) (x, y) = (ax +7by, ay +xb) tiene neutro (1, 0). Para hallar los
inversos multiplicativos resolvemos el sistema de ecuaciones lineales

ax +7by = 1
ay +xb = 0
que tiene como solucion unica x = a/ , y = b/ donde = a
2
7b
2
. Nos queda
comprobar que si = 0 entonces a = b = 0. Efectivamente, observando la siguiente
tabla calculada en Z
11
x 1 2 3 4 5 6 7 8 9 10
x
2
1 4 9 5 3 3 5 9 4 1
7x
2
7 6 8 2 10 10 2 8 6 7
vemos que ning un a
2
puede ser igual a un 7b
2
.
Ejercicio 24 (Secci on 1.5 pagina 20) No, porque t no es un elemento del campo
al contrario, t es un n umero natural. Lo que quiere decir tx es x + +x , t veces.
Ejercicio 25 (Seccion 1.5 pagina 20) De que a = a obtenemos que
0 = a +a = 1a +1a = (1 +1) a
Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si la
caracterstica del campo es diferente de 2 entonces, 1 +1 6= 0 por lo que la armaci on
del ejercicio es cierta. Si la caracterstica del campo es 2 entonces, 1 + 1 = 0 y por lo
tanto a = a para cualquier elemento del campo.
Ejercicio 26 (Seccion 1.6 pagina 22) En cualquier campo (xy)
p
= x
p
y
p
. Por
el binomio de Newton (x +y)
p
=
p
X
k=0
p!
k! (p k) !
x
k
y
nk
. El coeciciente binomial
p!/k! (p k) ! se divide entre p si k [1, ..., n 1]. Esto quiere decir (ver 1.15) que
en un campo de caracterstica p todos los sumandos del binomio de Newton excepto
el primero y el ultimo son cero. Luego (x +y)
p
= x
p
+ y
p
. Esto muestra que x 7 x
p
227 Soluciones de ejercicios selectos
es un morsmo. Como todo morsmo de campos es inyectivo (ver ejercicio 18) y toda
funci on inyectiva de un conjunto nito en si mismo es sobreyectiva obtenemos que este
morsmo es automorsmo para campos nitos.
Ejercicio 27 (Secci on 1.7 pagina 23) (a +b) = a

1 +a
1
b

= a

a
1
b +1

=
(b +a) .
Ejercicio 28 (Secci on 1.7 pagina 25) Las seis igualdades necesarias se pueden
obtener de la siguiente manera
(ijk = 1) (ijkk = k) (ij = k) (ijj = kj) (kj = i)
(ijk = 1) (iijk = i) (jk = i) (jkk = ik) (ik = j)
(ijk = 1) (kijkkj = kkj) (ki = j) (kii = ji) (ji = k)
Ejercicio 29 (Seccion 1.7 pagina 25) Por denicion de producto de quaterniones

(a +bi +cj +dk)


2
= 1

a
2

b
2
+c
2
+d
2

= 1
ab = ac = ad = 0

.
Como a es un real b
2
+c
2
+ d
2
6= 0 por lo que cualquier solucion de estas ecuaciones
requiere que a = 0.
Ejercicio 30 (Seccion 1.7 pagina 25) En los quaterniones (x i) (x +i) = x
2

ix + xi + 1 6= x
2
+ 1 lo que quiere decir que no es posible denir correctamente el
producto de polinomios.
Ejercicio 31 (Seccion 2.1 pagina 28)
El tri angulo abc es semejante al tri angulo uvw de hecho son
a
b c
u
w v
congruentes porque ac = uw (lados opuestos de un paralelogra-
mo tienen la misma longitud). Luego bc = wv y por lo tanto la
coordenada en x del vector

au es igual a la de

aw m as bc. La
prueba para la otra coordenada es igual.
Ejercicio 32 (Seccion 2.1 pagina 28) Tecnicamente hablando no ya que en el
Captulo 1 denimos una operaci on binaria como una funci on AA A y la multi-
plicacion de un escalar por un vector es una funci on del tipo B A A. Pero si es
una operaci on binaria en el sentido de que tiene dos argumentos.
Ejercicio 33 (Seccion 2.1 pagina 28) En la expresi on (a) se utiliza un solo tipo
de operacion (la de un escalar por un vector). En la expresion () a se utilizan dos
operaciones diferentes primero la del producto de escalares y despues la de un escalar
por un vector.
Ejercicio 35 (Secci on 2.2 pagina 29) Si 6= 0 entonces tiene inverso y por lo tanto
a = 0 a =
1
a =
1
0 = 0
228 Soluciones de ejercicios selectos
Ejercicio 36 (Seccion 2.2 pagina 29) El mnimo n umero de elementos en un espacio
vectorial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y
efectivamente un conjunto formado por un solo elemento es un espacio vectorial sobre
cualquier campo deniendo 0 = 0 para cualquier en el campo.
Ejercicio 38 (Secci on 2.3 pagina 38) Supongamos que x hN yi\hNi. Entonces,
existe una combinacion lineal x =
y
y +
P
iN

i
i. Tenemos que
y
6= 0 (ya que
x / hNi). Luego, despejando y obtenemos que y hN xi.
Ejercicio 39 (Seccion 2.4 pagina 40) Solo en la prueba de que 24 al despejar a.
Ejercicio 40 (Seccion 2.4 pagina 42) 1.- El conjunto vaco es LI y todo el espacio
E es generador. Luego existe N tal que N E que es base. 2.- Si M es LI entonces
existe una base N tal que M N E. 3.- Si L es generador entonces existe una base
N tal que N L.
Ejercicio 41 (Secci on 2.4 pagina 43) Sea A una base de E. Como F es generador
y A F es LI entonces por el Teorema de Existencia de Bases (2.14) existe una base
B de F que contiene a A. De aqu tenemos dimE = |A| |B| = dimF. Esta prueba es
valida independientemente de si los cardinales de A y B son nitos o no.
Ejercicio 42 (Seccion 2.4 pagina 43) El conjunto de todos los polinomios
P
a
i
x
i
tales que a
0
= 0 es un subespacio de K[x] de la misma dimensi on que K[x].
Ejercicio 43 (Seccion 2.4 pagina 45) Es consecuencia directa del Desarrollo de
Taylor (5.12) alrededor del punto x
0
.
Ejercicio 44 (Secci on 2.4 pagina 45) La diferencia entre el espacio de las (NM)-
adas y las NM-matrices es solo en las notaciones. Luego, el espacio de las NM-matrices
tiene dimension |NM| = |N| |M|. Para cada pareja i, j con i N y j M hay una
matriz e
ij
en la base can onica la cual tiene su entrada ij igual a 1 y todas las demas
igual a cero.
Ejercicio 45 (Seccion 2.5 pagina 45) Sean E
f
F
g
G transformaciones lineales.
Tenemos que f (g(x +y)) = f (g(x) +g(y)) = f (g(x)) + f (g(y)) y f (g(x)) =
f (g(x)) = f (g(x)) y esto era todo lo que se quera probar.
Ejercicio 48 (Secci on 2.6 pagina 53) 1.- Es facil probar que la aplicaci on EF 3
(a, b) 7 (b, a) F E es un isomorsmo can onico. 2.- Conmutatividad. 3.- El
isomorsmo can onico es ((a, b) , c) 7 (a, (b, c)) 7 (a, b, c). 4.- Si, la aplicaci on
E {0} 3 (a, 0) 7 a E es un isomorsmo can onico. Por esto podemos considerar
que E {0} = E.
Ejercicio 49 (Secci on 2.6 pagina 54) Denotemos por S a todo el espacio. Como
229 Soluciones de ejercicios selectos
cada vector se expresa como a +b con a E y b F tenemos S = E+F. Supongamos
que a 6= 0 EF entonces 0 = 0 +0 = a a lo que contradice que la descomposici on
de 0 es unica. Luego E F = {0} y por lo tanto S = E F.
Ejercicio 54 (Secci on 2.7 pagina 57) Si E = E+x y F = F+y son dos subespacios
paralelos o no entonces E + F es igual a (E + F) + (x +y) o sea, es un espacio afn
paralelo a E + F. Si E es paralelo a F entonces, E = F y por lo tanto E + F = E.
Si E y F se intersectan en z entonces z hE zi hE Fi = E + F y por lo tanto
E +F = E + F.
Ejercicio 59 (Seccion 3.4 pagina 76) Tomese x = (1, 0) , y = (0, 1) y z = (1, 1) .
Tenemos (xy) z = 0 (1, 1) = (0, 0) y x(yz) = (1, 0) 1 = (1, 0) por lo que (xy) z 6=
x(yz) .
Ejercicio 62 (Seccion 3.4 pagina 78)

cos sin
sin cos

Ejercicio 63 (Seccion 3.4 pagina 79) Para cualesquiera n N y k K tenemos


(
nM

ML
)
Lk
=
X
lL
(
nM

Ml
)
lk
=
X
lL
X
mM

nm

ml

lk
=
X
mM

nm
X
lL

ml

lk
=
X
mM

nm
(
mL

Lk
) =
nM
(
ML

Lk
)
Ejercicio 64 (Seccion 3.4 pagina 80) Las matrices de f, g y fg tienen que cumplir:

cos ( +) sin ( +)
sin ( +) cos ( +)

=

cos sin
sin cos

cos sin
sin cos

=
=

cos cos sin sin cos sin sin cos
cos sin + sincos cos cos sinsin

y por lo tanto
cos ( +) = cos cos sin sin
sin ( +) = cos sin + sin cos
Ejercicio 65 (Seccion 3.5 pagina 84) La prueba de la propiedad 1 es directa, la
prueba de la propiedad 3 es consecuencia de la propiedad 2. Probemos la propiedad 2.
Sean
E
f
F
g
G
TLs y h = g f. Sean A y B las matrices de f y g en ciertas bases. Observese que
la base de F debe ser com un para la denici on de las matrices A y B y entonces la
matriz de h es BA. La matriz de h
T
en estas bases es (BA)
T
= A
T
B
T
. Sean X, Y y Z
matrices de cambio de base en E, F y G respectivamente. Entonces, la matriz de h en
las nuevas bases es ZBAX =

ZBY
1

(YAX) y la matriz de h
T
es (YAX)
T

ZBY
1

T
y por lo tanto independientemente de las bases h
T
= f
T
g
T
.
Ejercicio 66 (Secci on 3.7 pagina 89) Sea f semilineal y y dos automors-
mos del campo tales que para cualquier escalar y cualquier vector a se cumple que
230 Soluciones de ejercicios selectos
f (a) = () f (a) = () f (a). Podemos escoger a tal que f (a) 6= 0 y por lo tanto
((() ()) f (a) = 0) (() = ()).
Ejercicio 67 (Seccion 3.7 pagina 89) Supongamos que supA existe. Entonces,
b R tenemos (a A b a) (b sup A) . Usando que f es una isotona vemos
que f (b) f (R) = R tenemos (f (a) f (A) f (b) f (a)) (a A b a)
(b supA) (f (b) f (sup A)) y esto prueba que f (sup A) = supf (A).
Ejercicio 68 (Secci on 3.7 pagina 90) (1 2) La conjugaci on compleja es continua.
(2 3) Tenemos (vease la prueba de 3.34) que f es la identidad en Q. De que los reales
son los lmites de los racionales y f es continua obtenemos que f es la identidad en R.
(3 1) Si f es la identidad en R entonces, f (a +bi) = a + bf (i). Como f (i)
2
=
f

i
2

= f (1) = 1 y f (i) 6= i entonces, f (i) = i.


Para ver que hay muchos automorsmos de C que no son la conjugaci on compleja vease
por ejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics
Magazine, May-June 1966, 135141.
Ejercicio 69 (Secci on 3.7 pagina 91) La funci on (x
1
, . . . , x
n
) 7 (x
1
, . . . , x
n
) es
biyectiva ya que 7

es biyectiva. Ademas, tenemos


(x
1
+y
1
, . . . , x
n
+y
n
) = (x
1
+y
1
, . . . , x
n
+y
n
) = (x
1
, . . . , x
n
) + (y
1
, . . . , y
n
)

x
1
, . . . , x
n

x
1
, . . . ,

x
n

=

(x
1
, . . . , x
n
)
y esto muestra que la funci on es un automorsmo semilineal.
Si f es una transformaci on semilineal arbitraria cuyo automorsmo del campo es
entonces, su composici on con el automorsmo semilineal estandar correspondiente a

1
es una transformacion lineal.
Ejercicio 71 (Secci on 3.7 pagina 94) Supongamos que 0 = a + c + b
c =( ) c + ( +) a. Como {a, c} es LI entonces, = y (1 +) = 0.
Como 6= 1 entonces, 0 = = .
Ejercicio 74 (Secci on 4.3 pagina 108) Denotemos
MM
=
(L)M
y
MM
=

M(N)
. Sabemos que det (
MM

MM
) = det (
MM
) det (
MM
) y esto es todo lo que se
necesitaba probar.
Ejercicio 76 (Seccion 4.3 pagina 111) Es saludable poner la matriz de Vander-
monde en
forma gr aca como se muestra en el recuadro a la dere-

1 1 1
x
1
x
2
x
n
x
2
1
x
2
2
x
2
n

x
n1
1
x
n1
2
x
n1
n

cha. Denotemos por v (x


1
, x
2
, . . . , x
n
) al determinante
de esta matriz. Denotemos
f (x
1
, x
2
, . . . , x
n
) =
Y
1i<jn
(x
j
x
i
)
Veamos que v (x
1
, x
2
, . . . , x
n
) = f (x
1
, x
2
, . . . , x
n
).
Por induccion en n. Para n = 1 tenemos f (x
1
) = v (x
1
) = 1. Supongamos que esta pro-
231 Soluciones de ejercicios selectos
bado hasta n 1. Pongamos y = x
n
. Tenemos que probar que v (x
1
, . . . , x
n1
, y) =
f (x
1
, . . . , x
n1
, y). Para esto veamos ambos lados de la igualdad como polinomios en
la variable y. Ambos polinomios tienen grado n 1.
Haciendo la expansi on de Laplace por la ultima columna vemos que el coeciente
principal de v (x
1
, . . . , x
n1
, y) es igual a v (x
1
, . . . , x
n1
). Por otro lado
f (x
1
, . . . , x
n1
, y) =
Y
1i<jn1
(x
j
x
i
)
Y
1in1
(y x
i
)
que tiene coeciente principal f (x
1
, . . . , x
n1
). Por hip otesis de induccion v (x
1
, . . . , x
n1
) =
f (x
1
, . . . , x
n1
) y por lo tanto nuestros dos polinomios tienen el mismo coeciente prin-
cipal.
Ademas, las raices de v (x
1
, . . . , x
n1
, y) son x
1
, . . . , x
n1
porque evaluando y en estos
valores obtenemos una matriz con dos columnas iguales. Es obvio que x
1
, . . . , x
n1
son
tambien las raices de f (x
1
, . . . , x
n1
, y).
Luego, v (x
1
, . . . , x
n1
, y) y f (x
1
, . . . , x
n1
, y) son dos polinomios del mismo grado, con
los mismos coecientes principales y las mismas raices y por lo tanto son polinomios
iguales.
Ejercicio 77 (Seccion 4.4 pagina 117) Las tres. Para la matriz A los bloques son
M
1
= {1} , M
2
= {2} y M
3
= {3}. Para la matriz B los bloques son M
1
= {3} , M
2
= {2}
y M
3
= {3}. Para la matriz C los bloques son M
1
= {2} , M
2
= {3} y M
3
= {1} ya que

23
=
21
=
31
= 0. Los determinantes de las tres matrices son iguales a abc.
Ejercicio 78 (Seccion 4.4 pagina 117)
El aspecto es el del recuadro a la derecha. Aqu hemos de-


0
0
0 0
0 0
0 0




notado por las entradas que pueden ser diferentes de cero.
Las entradas con 0 son las que obligatoriamente tienen que
ser cero. Ademas, hemos dividido con rectas los tres bloques
de la matriz. El determinante de una matriz de este tipo es
igual al producto de los determinantes de sus tres bloques
diagonales.
Ejercicio 81 (Seccion 5.1 pagina 136) Idea: todo lo demostrado para polinomios
se traduce tal cual para los enteros. La unica diferencia es que en lugar de usar el
concepto de grado de un polinomio hay que usar el concepto de valor absoluto de un
entero.
Ejercicio 82 (Secci on 5.1 pagina 136) Si r es el maximo com un divisor de p y
q entonces los polinomios p
0
= p/r y q
0
= q/r no tienen factores comunes. Por el
Teorema de Bezout existen polinomios y tales que p
0
+ q
0
= 1. La prueba
concluye multiplicando esta igualdad por r.
Ejercicio 85 (Secci on 5.1 pagina 139) Si i < k entonces la suma es vaca y por
lo tanto es cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este
232 Soluciones de ejercicios selectos
sumando es uno. Supongamos i > k. Haciendo los cambios de variables t = j k y
n = i k obtenemos
i
X
j=k
(1)
jk

j
k

i
j

=
n
X
t=0
(1)
t
(n +k) !
k!t! (t n) !
=

n +k
k

n
X
t=0
(1)
t

n
t

y esta ultima expresion es cero ya que


P
n
t=0
(1)
t

n
t

es el binomio de Newton de
(x 1)
n
evaluado en x = 1.
Ejercicio 86 (Seccion 5.1 pagina 139) De la prueba del Desarrollo de Taylor (5.12)
sabemos que si k {0, . . . , n} entonces, a
k
=
P
n
j=k
b
kj

j
donde b
kj
=

j
k

(x
0
)
jk
. Por
el ejercicio anterior tenemos
P
n
j=k
b
kj

j
=
P
n
i=k
P
i
j=k
(1)
jk

j
k

i
j

a
i
x
ik
0
==
P
n
i=k

ik
a
i
x
ik
0
= a
k
Luego,
P
n
j=k
b
kj

j
= a
j
y como el sistema de ecuaciones lineales a
k
=
P
n
j=k
b
kj

j
tiene
soluci on unica obtenemos que
j
=
j
.
Ejercicio 87 (Secci on 5.1 pagina 140) Formalmente (y en cualquier campo!) la
derivada de p(x) =
P
n
i=0
a
i
x
i
es p
(1)
(x) =
P
n
i=1
ia
i
x
i1
y por lo tanto p
(j)
(x) =
P
n
i=j
i!
(ij)!
a
i
x
ij
= j!
P
n
i=j

i
j

a
i
x
ij
0
. Del ejercicio anterior obtenemos la prueba.
Ejercicio 88 (Seccion 5.2 pagina 141) Las raices del polinomio z
n
1 son x
k
=
cos k
2
n
+i sin k
2
n
para k {0, . . . , n 1}. Tenemos
x
k
x
m
= cos

(k +m)
2
n

+i sin

(k +m)
2
n

= cos `
2
n
+i sin `
2
n
= x
`
donde ` = (k +m) mod n. Para el producto, estas raices forman un grupo isomorfo a
Z
n
.
Ejercicio 89 (Seccion 5.2 pagina 142) Sean a, b y c tres lados de un triangulo.
Por simetra solo tenemos que probar que |a b| c. Podemos suponer que a b.
Por la desigualdad del triangulo b +c a y de aqu c a b.
Ejercicio 90 (Secci on 5.2 pagina 144) Para usar

1 t
k

p(z
0
)

=

1 t
k

kp(z
0
)k.
Ejercicio 91 (Seccion 5.3 pagina 146) Para la propiedad 2 vemos que
(a +bi) + (c +di) = (a +c) + (b +d) i =
= (a +c) (b +d) i = (a bi) + (c di) = (a +bi) + (c +di)
Finalmente, para probar la propiedad 3 vemos que
(a +bi) (c +di) = (ac bd) + (ad +bc) i =
= (ac bd) (ad +bc) i = (a bi) (c di) = (a +bi) (c +di)
Ejercicio 92 (Seccion 5.4 pagina 147) Tenemos ab = ba por lo que (a, b) (a, b)
lo que signica que la relaci on es reexiva. De ad = bc obtenemos cb = da. Esto
signica que si (a, b) (c, d) entonces (c, d) (a, b) por lo que la relacion es simetrica.
233 Soluciones de ejercicios selectos
Si ad = bc y cf = de entonces adcf = bcde por lo que af = be. Esto signica que
si (a, b) (c, d) y (c, d) (e, f) entonces (a, b) (e, f) por lo que la relacion es
transitiva.
Ejercicio 93 (Seccion 5.4 pagina 149) El campo de funciones racionales Z
2
(x)
contiene a Z
2
y por lo tanto es de caracterstica 2. Este campo tiene evidentemente un
n umero innito de elementos.
Ejercicio 94 (Secci on 5.4 pagina 149) El campo de fracciones de un campo es el
mismo.
Ejercicio 95 (Secci on 5.5 pagina 150) Sea I = {p(x, y) x +q(x, y) y | p(x, y) , q(x, y) K[x, y]}.
Es facil ver que I es un ideal. Como los polinomios x y y ambos est an en I y estos son
coprimos entonces, I no es principal.
Ejercicio 96 (Seccion 6.1 pagina 156) Sean (a, b), (a
0
, b
0
) E F. Tenemos
(f g) ((a, b) + (a
0
, b
0
)) = (f g) (a +a
0
, b +b
0
) = (f (a +a
0
) , g(b +b
0
)) =
= (f (a) +f (a
0
) , g(b) +g(b
0
)) = (f (a) +, g(b)) + (f (a
0
) , g(b
0
)) =
= (f g) (a, b) + (f g) (a
0
, b
0
)
con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que
(f g) ((a, b)) = (f g) (a, b) = (f (a) , g(b)) = ((f g) (a, b)).
Ejercicio 97 (Seccion 6.1 pagina 156)
(f
0
g
0
) (a, b) = f
0
(g
0
(a, b)) = f
0
(a, g(b)) = (f (a) , g(b)) = (f g) (a, b).
Ejercicio 98 (Seccion 6.2 pagina 162) Sea p el perodo de a. Si p es de grado cero
entonces, p = 1 y por lo tanto 0 = p
h
(a) = h
0
(a) = a.
Ejercicio 99 (Secci on 6.2 pagina 162) Si p = x entonces p
h
(a) = h(a) por lo que
p
h
(a) = 0 si y solo si a ker h.
Ejercicio 100 (Seccion 6.3 pagina 165) Como pq divide a p
0
q
0
y p
0
q
0
divide a
pq entonces pq = p
0
q
0
. Sean p = p
i
1
1
p
ia
a
y q = q
j
1
1
q
j
b
b
las descomposiciones en
factores irreducibles. Como p y q son coprimos entonces, todos los p
`
son distintos a los
q
`
y la descomposici on pq = p
i
1
1
p
i
a
a
q
j
1
1
q
j
b
b
es la descomposici on en factores irre-
ducibles de pq. Como p
0
divide a p y q
0
divide a q entonces, p
0
q
0
= p
i
0
1
1
p
i
0
a
a
q
j
0
1
1
q
j
0
b
b
(donde i
0
`
i
`
y j
0
`
j
`
) es la descomposici on en irreducibles de pq. Como p
0
q
0
= pq,
de la unicidad de la descomposici on en irreducibles, obtenemos i
0
`
= i
`
y j
0
`
= j
`
o sea,
p = p y q = q.
Ejercicio 101 (Seccion 6.4 pagina 170) Sea f un operador lineal en End (E/F) y
G un subespacio complementario a F. Denimos h como la funci on nula en F, como
h(a) = G f (a + F) en G y en todo el espacio por extensi on lineal. Para ver que
h es lineal solo hay que comprobar que es lineal en G. Esto es trivial porque en G la
234 Soluciones de ejercicios selectos
funci on h cumple h = nat
1
f nat donde a
nat
7 a + F es el isomorsmo can onico
entre el cociente y un complementario. Para ver que f =
e
h basta comprobarlo para los
vectores a que estan en G. Pero f (a + F) = h(a) + F ya que f = nat h nat
1
.
Para calcular el nucleo comprobamos que para cualquier vector a se cumple que

e
h(a) = O(a)

(h(a) + F = F) (h(a) F).


Ejercicio 102 (Seccion 6.4 pagina 171) Sea p un polinomio cualquiera. Si p
h
(a) =
0 entonces p

h
(a + F) = p
h
(a)+F = F. Si p

h
(a + F) = F entonces, p
h
(a) hai
h
F y
por hip otesis p
h
(a) = 0. Luego, el h-anulador de a+F es igual al
e
h-anulador de a+F
y por lo tanto per

h
(a + F) = per
h
(a + F). Sea b F y q un polinomio. Como F y
hai
h
son h-invariantes, tenemos que
(q
h
(a +b) = 0) (q
h
(a) = q
h
(b)) (q
h
(a) = q
h
(b) = 0) (q
h
(a) = 0) .
La implicacion (q
h
(a) = 0) (q
h
(a) = q
h
(b) = 0) es valida porque si q
h
(a) = 0
entonces q es un multiplo de per
h
(a) que es m ultiplo de per
h
(F) que a su vez es
multiplo de per
h
(b) y por lo tanto q
h
(b) = 0.
Luego, el h-anulador de a coincide con el h-anulador de a + F. Esto quiere decir que
per
h
(a + F) = per
h
(a).
Ejercicio 106 (Seccion 6.6 pagina 177) Es facil ver que hA Bi
h
hAi
h
+hBi
h
=
F + G = E y por lo tanto A B es h-generador. Comprobemos que A B es h-
independiente. Observese que A B = ya que 0 no est a en ning un conjunto h-
independiente y A B F G = {0}. Luego una h-combinacion de A B es de la
forma
p
h
(a
1
) + +q
h
(a
n
) +r
h
(b
1
) + +s
h
(b
n
)
donde A = {a
1
, . . . , a
n
} y B = {b
1
, . . . , b
m
}. Si esta h-combinacion es igual cero en-
tonces
F = hAi
h
3 p
h
(a
1
) + +q
h
(a
n
) = r
h
(b
1
) s
h
(b
n
) hBi
h
= G
y por lo tanto,
p
h
(a
1
) + +q
h
(a
n
) = r
h
(b
1
) + +s
h
(b
n
) = 0
y como A y B son h-independientes deducimos que
p
h
(a
1
) = = q
h
(a
n
) = r
h
(b
1
) = = s
h
(b
n
) = 0.
Ejercicio 108 (Secci on 6.6 pagina 180) Demostremos primero que hai
h
hbi
h
=
{0}. Tenemos para cualquier polinomio r que
(p
h
r
h
(a) = r
h
(p
h
(a)) = 0) (r
h
(a) ker p
h
)
y por lo tanto hai
h
ker p
h
. An alogamente hbi
h
ker q
h
. Por el Lema de Descomposi-
cion de Nucleos (6.16) sabemos que ker p
h
ker q
h
= {0} y por lo tanto hai
h
hbi
h
= {0}.
De r
h
(a +b) = r
h
(a)+r
h
(b) concluimos que ha +bi
h
hai
h
+hbi
h
. Demostraremos
que ambos subespacios tienen la misma dimension (nita) y por lo tanto son iguales.
Como hai
h
hbi
h
= {0} el conjunto {a, b} es una h-base de hai
h
+ hbi
h
y por 6.36
dim(hai
h
+ hbi
h
) es la suma de los grados de p y q. De la misma manera que en la
prueba de 6.21 podemos demostrar que per
h
(a +b) = pq. Por 6.36 dimha +bi
h
es
235 Soluciones de ejercicios selectos
igual al grado de pq o sea, igual a la suma de los grados de p y q.
Ejercicio 109 (Seccion 6.6 pagina 180)
Sean p, q, . . . , r los factores irreducibles del polinomio mni-
p
`
1
p
`
2
p
`t
q
m
1
q
m
2
q
m
t
.
.
.
.
.
.
.
.
.
r
n
1
r
n
2
r
n
t
mo del OL h. Organizaremos los polinomios en el tipo de
una descomposici on de h en componentes irreducibles en
una tabla donde `
i
`
i+1
, m
i
m
i+1
y n
i
n
i+1
. Pa-
ra hacer nuestra tabla cuadrada puede ser que necesitemos
hacer algunos de los exponentes iguales a cero. O sea, hacia
la derecha de la tabla pueden haber polinomios iguales a 1.
Cada entrada diferente de 1 de esta tabla se corresponde con una componente irredu-
cible de h. Los renglones de la tabla corresponden a las componentes radicales de h.
Para cada columna i {1, . . . , t} denotemos por g
i
a la suma directa de las compo-
nentes irreducibles de h correspondientes a las entradas de la columna. Por el Lema de
Descomposici on de Nucleos (6.16) el polinomio mnimo de g
i
es igual a p
`
i
q
m
i
r
n
i
y por lo tanto el polinomio mnimo de cada g
i
es un m ultiplo del polinomio mnimo
de g
i+1
. Por el ejercicio anterior los g
i
son cclicos. Denotando f
i
= g
ti
obtenemos la
descomposici on deseada.
Ejercicio 110 (Seccion 6.6 pagina 180) El tipo de tales descomposiciones esta for-
mado por los productos de los polinomios en las columnas de la tabla del ejercicio
anterior. De la unicidad del tipo de las descomposici ones en componentes irreducibles
se desprende la unicidad de la tabla salvo reordenamiento de los renglones.
Ejercicio 111 (Secci on 6.7 pagina 182) Queremos ver que el siguiente diagrama
de transformaciones lineales es conmutativo:
F
j
h
E

i
F
i
p
k
h
p
k
h
p
k
h
F
j+k

h
E

i+k
F
i+k
El cuadrado de la izquierda es conmutativo por la conmutatividad de los polinomios
evaluados en OL. Para probar la conmutatividad del cuadrado de la derecha compro-
bemoslo en la base B
m
= A
1
A
m
. Si x A
i+k
entonces, p
k
h
(x) A
i
y por lo
tanto
i
p
k
h
= I = p
k
h

i+k
. Si x B
m
\ A
i+k
entonces p
k
h
(x) B
m
\ A
i
y por lo
tanto
i
p
k
h
= O = p
k
h

i+k
. Luego, todo el diagrama es conmutativo y por lo tanto
teniendo en cuenta la denici on de
ij
obtenemos que p
k
h

ij
=
i+k,j+k
p
k
h
. Como en
este caso p
k
h
es biyectiva obtenemos
i+k,j+k
= p
k
h

ij

p
k
h

1
.
Ejercicio 113 (Secci on 6.7 pagina 187) Sean f y g del mismo tipo. Entonces,
usando la Forma normal can onica (6.47) vemos que existen bases del espacio en las
cuales f y g tienen la misma matriz. Esto quiere decir que en la misma base f y g
tienen matrices A y CAC
1
donde C es la matriz adecuada de cambio de bases. La
matriz C es la matriz de un OL invertible h por lo que f = h g h
1
.
236 Soluciones de ejercicios selectos
Recprocamente, supongamos que f = hgh
1
. Si A, B y C son las matrices de f, g y
h respectivamente en cierta base entonces A = CBC
1
. Luego , en otra base (denida
por el cambio de base C), la matriz de g es A. Por lo tanto, existen bases en las cuales
las matrices de g y f son las mismas. Como el tipo de un operador se puede calcular
por su matriz sin usar la base entonces, los tipos de f y g son el mismo.
Si al lector no le gusta esta ultima armaci on, puede proceder de otra forma. Sea G
un subespacio g-invariante y denotemos F = h(G). Tenemos que
f (F) =

h g h
1

(F) = h(g(G)) h(G) = F


por lo que F es f-invariante. Esto quiere decir que h transforma biyectivamente subes-
pacios g-invariantes en subespacios f-invariantes. M as a un
f
k
= h g h
1
h g h
1
h g h
1
= h g
k
h
1
y por lo tanto para cualquier polinomio p
p
f
= h p
g
h
1
Luego, p esta en el g-anulador del vector a si y solo si p esta en el f-anulador del vector
h(a) y tambien
h

hai
g

= hh(a)i
f
As, vemos que h preserva los perodos y transforma biyectivamente subespacios g-
cclicos en subespacios f-cclicos.
Ejercicio 115 (Seccion 6.8 pagina 191) Si el polinomio mnimo es un producto de
diferentes polinomios de grado 1 entonces las componentes radicales son homotecias
ya que para cualquier vector a en el subespacio radical de tipo x se cumple que
h(a) a = 0. Las homotecias tienen matrices diagonales en cualquier base y la suma
directa de operadores diagonalizables es diagonalizable.
Si en cierta base N el OL h tiene matriz diagonal
NN
entonces, podemos denotar
N

= {i N |
ii
= }. Tambien denotemos h

a la restricci on de h al subespacio
generado por N

. Los operadores h

son homotecias porque en la base N

su matriz
es I y por lo tanto el polinomio mnimo de h

es x . Tenemos que h es la suma


directa de los h

y que su polinomio mnimo es el producto de los x ya que todos


estos son diferentes.
Ejercicio 116 (Seccion 6.8 pagina 191) Es f acil ver que para que un operador f sea
triangulable es necesario y suciente que exista una torre de subespacios invariantes
{0} = E
0
E
1
E
n
= E
tales que dimE
i
= i.
Supongamos que f = f
1
f
2
es triangulable y sean F
1
y F
2
los correspondientes subes-
pacios invariantes. Sean
1
y
2
las proyecciones de E a F
1
y F
2
respectivamente. Sea
x un vector. Tenemos que
a =
1
(x)
b =
2
(x)

f (x) = f (a) +f (b)


f (a) F
1
f (b) F
2

{
1
(f (x)) = f (
1
(x))
237 Soluciones de ejercicios selectos
y en particular si denotamos E
0
i
=
1
(E
i
) tenemos
f (E
0
i
) = f (
1
(E
i
)) =
1
(f (E
i
))
1
(E
i
) = E
0
i
y por lo tanto, todos los subespacios E
0
i
son invariantes. Sea x
i
E
i
\ E
i1
. Como la
dimensi on de E
i
es uno mas que la dimensi on de E
i1
entonces, cualquier base de E
i1
se extiende a una base de E
i
agregandole x
i
. De aqu, tenemos
(
1
(x
i
) E
i1
)

E
0
i
= E
0
i1

(
1
(x
i
) / E
i1
)

dimE
0
i
= 1 + dimE
0
i1

y si en la torre de subespacios invariantes


{0} = E
0
0
E
0
1
E
0
n
= F
1
eliminamos las repeticiones obtenemos que f
1
es triangulable. Analogamente, f
2
es
triangulable.
Recprocamente, si f
1
y f
2
son triangulables entonces en cierta base la matriz de f es
diagonal con dos bloques y cada uno de ellos triangular. Luego, f es triangulable.
Ejercicio 117 (Secci on 6.8 pagina 191) Por el ejercicio anterior solo hay que
probarlo para operadores cclicos radicales. La ( unica) torre de subespacios invariantes
en 6.44 cumple lo que se necesita si y solo si = 1. O sea, si el polinomio mnimo (=
caracterstico) es potencia de un polinomio de grado 1.
Ejercicio 118 (Secci on 7.1 pagina 195) Para cada sucesion (innita) (a
0
, a
1
, ...)
con elementos en K hay un funcional lineal
K[x] 3
n
X
i=0

i
x
i
7
n
X
i=0
a
i

i
K
y estos son todos, pues estos funcionales restringidos a la base canonica A =

1, x, x
2
, ...

nos dan todas las funciones de A en K. En este caso no tenemos base dual. Los fun-
cionales
A

e
j
:
n
X
i=0
a
i
x
i
7a
j
| j N

son un conjunto LI pero no generador pues con combinaciones lineales nitas solo
podemos generar funciones de A en K de soporte nito.
Ejercicio 120 (Secci on 7.4 pagina 211) Supongamos que A es ortogonal y que
x A. Supongamos que hay una combinaci on lineal nula de A y multipliquemosla por
x
0 = x 0 = x
X
iA

i
i =
X
iA

i
x i =
x
x x
Como x es anisotr opico, x x 6= 0 entonces, x A
x
= 0.
Ejercicio 124 (Seccion 7.5 pagina 220) Supongamos que son isomorfos. Sean {a, b}
y {c, d} bases ortogonales en las cuales el producto bilineal tiene huellas {1, 1} y {1, }
respectivamente. Tenemos que los subespacios hai y hci son isomorfos pero los su-
bespacios hai

= hbi y hci

= hdi por Clasicaci on de los espacios ortogonales en


238 Soluciones de ejercicios selectos
dimensi on 1 (7.36) no lo son. Esto contradice el Teorema de Witt.
Ejercicio 125 (Secci on 7.5 pagina 220) Sean {a, b} y {c, d} bases ortogonales en
las cuales el producto bilineal tiene huellas {1, 1} y {1, } respectivamente. Sean , ,
y escalares tales que c = a +b y d = a +b. Tenemos
c d = + = 0
c c =
2
+
2
= 1
d d =
2
+
2
=
De = 0 obtenemos que = 1, = 0 y
2
= lo que contradice que no es un
cuadrado. Luego, podemos suponer que 6= 0. Multiplicando la tercera igualdad por

2
y usando las dos primeras obtenemos que

2
=
2

2
+
2

2
=
2

2
+
2

2
=

2
+
2

2
=
2
y de aqu obtenemos que es el cuadrado de /. Esto contradice que no es un
cuadrado.

Algebra. Espacio vecto-


rial con un producto de vectores asocia-
tivo, distributivo, con elemento neutro y
que conmuta con el producto por escala-
res . . . . . . . . . . . . . . . . . . . . . . . . . . . 71, 79, 103

Algebra conmutativa.

Alge-
bra en la cual el producto de vectores es
conmutativo . . . . . . . . . . . . . . . . . . . . 71, 160
Anillo. Conjunto
con dos operaciones binarias denotadas
por + y que es grupo abeliano para la
suma, que el producto es asociativo con
elemento neutro y distributivo respecto
a la suma . . . . . . . . . . . . . . . . . . . . . 8, 12, 71
Anillo conmutativo.
Anillo en el cual el producto es conmu-
tativo . . . . . . . . . . . . . 8, 15, 23, 132, 147
Anulador de un conjunto de vectores.
La intersecci on de los anuladores de to-
dos los vectores en el conjunto. . . . . . 162
Anulador de un OL. El anulador de
todo el espacio. . . . . . . . . . . . . . . . . . . . . . . 162
Anulador de un vector. El conjunto de
polinomios p tales que p
h
(a) = 0 . . 162
Argumento de un complejo.
El angulo que forma el vector

0z con el
eje real del plano complejo. . . . . . . . . . 140
Asociatividad. Propiedad de algunas
operaciones binarias que consiste en que
a (b c) = (a b) c
para cualesquiera elementos a, b y c del
conjunto en el cual est a denida la ope-
raci on . . . . . . . . . . 3, 14, 20, 70, 79, 132
Asociatividad del producto por escalares.
Axioma de espacio vectorial:
(a) = () a . . . . . . . . . . . . . . . . . . . . . . . . 29
Automorsmo. Endomorsmo
biyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Automorsmo de Frobenius.
La funcion K 3 x 7 x
p
K donde
K es un campo nito de caracterstica
p > 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Automorsmo semilineal.
Transformacion semilineal biyectiva de
un espacio en si mismo. . . . . . . . . . . . . . . 90
Base. Conjunto de
vectores que es generador y LI. Conjun-
to generador minimal. Conjunto LI ma-
ximal . . . . . 41, 46, 50, 63, 73, 80, 119
Base can onica.
El conjunto de N-adas {e
i
| i N} donde
la j-esima coordenada de e
i
es el delta
de Kronecker
ij
. . . . . . . . . . . . . 44, 78, 83
Base de las columnas. Conjunto
de columnas diferentes que son una base
del espacio de columnas. . . . . . . . . . . . . 119
Base de los renglones. Conjunto
de renglones diferentes que son una base
del espacio de renglones. . . . . . . . . . . . . 119
Base de una matriz.
Submatriz no singular maximal por con-
tenci on. . . . . . . . . . . . . . . . . . . . . . . . . 120, 126
Binomio de Newton.
F ormula para expandir (x +y)
n
22, 139
Cadena. Subconjunto de un
conjunto ordenado que est a totalmente
ordenado . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 62
Cambio de ndices. Biyecci on
mediante la cual los ndices de una N-
ada (o columnas, o renglones) obtienen
nuevos nombres. Es la operaci on en que
una biyecci on : N L se le aplica
a las columnas de una matriz
MN
pa-
240 cam coc
ra obtener la matriz
ML
=
M(N)
que
cumple que
ij
=
i
1
(j)
. Analogamen-
te se denen los cambios de ndices de
los renglones . . . . . . . . . . . . . . . . . . . . . . . . . 107
Campo. Anillo conmutativo en
el cual todo elemento diferente de cero
tiene inverso . . . . . . . . . . . . . . . . . . 8, 16, 17
Campo algebraicamente cerrado.
Campo en el cual todo polinomio de gra-
do al menos uno tiene una raz. Campo
el cual los polinomios irreducibles son to-
dos de grado uno . . . . 10, 48, 140, 147
Campo de fracciones.
Entre las fracciones de un dominio de in-
tegridad se dene la suma y el producto
exactamente de la misma manera que se
denen estas operaciones en Q. Para es-
tas operaciones el conjunto de fracciones
es un campo . . . . . . . . . . . . . . . . . . . . . . . . . 148
Campo ordenado.
Campo con una relacion de orden en el
cual todo elemento es comparable con el
cero. Los elementos mayores que cero se
les llama positivos y los menores que cero
negativos. Los axiomas que debe cumplir
la relacion de orden son:
1. El opuesto de un positivo es negativo,
2. El opuesto de un negativo es positivo,
3. La suma de positivos es positiva,
4. El producto de positivos es positivo.
Los campos R y Q est an ordenados.
Cualquier campo ordenado tiene que ser
de caracterstica cero. Adem as, C no se
puede ordenar . . . . . . . . . . . . . . . . *, 9, 109
Campo primo. Campo cuyo unico
subcampo es el mismo . . . . . . . . . . . . . . . 18
Caracterstica de un campo.
Es cero si el campo contiene como sub-
campo a Q. Es igual al n umero primo p
si el campo contiene como subcampo a
Z
p
. . . . . . . . . . . . . . . . . . . 19, 100, 108, 149
Celda canonica. Matriz cua-
drada triangular superior por bloques de
orden el grado de p, con la matriz acom-
pa nante de p en la diagonal, en la parale-
la inmediatamente superior a la diagonal
matrices nulas salvo la entrada superior
derecha en que es 1 y ceros en las dem as
entradas. Todo OL sobre cualquier cam-
po es diagonalizable por bloques que son
celdas canonicas. . . . . . . . . . . . . . . . . . . . . 187
Celda cuadratica. Matriz cuadrada
triangular superior por bloques de orden
2 con

a b
b a

en la diagonal,

0 1
0 0

en
la paralela inmediatamente superior a la
diagonal y ceros en las demas entradas.
Todo OL real es diagonalizable por blo-
ques que son celdas de Jord an o celdas
cuadraticas. . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Celda de Jordan.
Matriz cuadrada triangular superior con
en la diagonal, 1 en la paralela inme-
diatamente superior a la diagonal y ceros
en las dem as entradas. Todo OL comple-
jo es diagonalizable por bloques que son
celdas de Jord an. . . . . . . . . . . . . . . . . . . . . 184
Cerradura lineal. El conjun-
to de todas las combinaciones lineales de
un conjunto de vectores . . . . . 37, 46, 50
Ciclo. Permutaci on del
grupo simetrico de N que cambia un con-
junto {x
0
, . . . , x
n1
} N seg un la regla
(x
i
) = x
i+1 modn
y deja todos los demas
elementos de N jos 98, 104, 110, 117
Ciclos disjuntos. Ciclos tales
que los conjuntos de elementos que ellos
no dejan jos no se intersectan . . . . . . 98
Clases de equivalencia. Si es una re-
laci on de equivalencia en A entonces, las
clases de equivalencia son los subconjun-
tos de A para los cuales a b si y solo si
a y b estan en la misma clase *, 56, 63
Coalineacion. Funcion biyectiva de un
espacio vectorial en si mismo que tal que
f y f
1
preservan subespacios anes. 91
Cociente.
Al efectuar la division con resto de un
elemento p de un anillo conmutativo (Z,
241 cod coo
K[x]) entre otro q obtenemos la igualdad
p = cq+r. Al elemento c se le llama co-
ciente de la divisi on de p entre q. . . 133
Codominio de una funcion.
Sea f : A B una funcion. Al conjun-
to B se le llama codominio de la funci on
f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12, 85
Coeciente principal. El coe-
ciente diferente de cero de un polinomio
que multiplica a la potencia m as grande
de la variable . . . . . . . . . . . . . . . . . . . . . . . . 131
Coecientes de un polinomio.
(vease polinomio) . . . . . . . . . . . . . . . . . . . 131
Cofactor. De la entrada
ij
es el escalar
sgndet
N\i (N\j)
donde es cualquier permutaci on de N
tal que (j) = i . . . . . . . . . . . . . . . . . . . . . 109
Columna de una matriz.
Dada una matriz
NM
y j M a la N-
ada
Nj
(j esta jo, los elementos de N
varan) se le llama j-esima columna de la
matriz
NM
. . . . . . . . . . . . . . . . . . . . . . 34, 76
Combinaci on lineal. Los vec-
tores de la forma
P
iN

i
i (donde solo
un n umero nito de los a
i
es diferente de
cero) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36, 50
Complemento algebraico.
Cofactor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Componente radical.
Restricci on del OL a un subespacio radi-
cal maximal . . . . . . . . . . . . . . . . . . . . . . . . . 167
Composici on de funciones.
Operaci on entre dos funciones que con-
siste en aplicar primero una funci on y
despues la otra . . . . . 14, 45, 70, 78, 97
Conexion de Galois (anttona).
Se obtiene de una conexion de Galois
monotona invirtiendo la relacion de or-
den en uno de los conjuntos . . . . . . . . 164
Conexion de Galois (mon otona). Una
pareja de funciones monotonas f

: A
B y f

: B A tales que (f

(a) b)
(a f

(b)) . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Conjunto acotado inferiormente.
Conjunto que tiene una cota infe-
rior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 144
Conjunto acotado superiormente.
Conjunto que tiene una cota superior . *
Conjunto generador. Conjunto de
vectores cuya cerradura lineal es todo el
espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39, 46
Conjunto h-independiente. Conjunto
de vectores no nulos tales que los suman-
dos de cualquier h-combinacion nula son
nulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Conjunto inductivamente ordenado.
Conjunto ordenado no vaco dentro del
cual cada cadena tiene cota superior 62
Conjunto LD. Acronimo de conjunto
linealmente dependiente . . . . . . . . . . . . . 40
Conjunto LI. Acronimo de conjunto
linealmente independiente . . . . . . . . . . . 40
Conjunto linealmente dependiente.
Conjunto de vectores que no es LI . . 40
Conjunto linealmente independiente.
Conjunto de vectores A tal que a A
se cumple que hA\ai 6= hAi . . . . 40, 119
Conjunto ordenado. Conjunto
en el cual est a denida una relacion de
orden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 62
Conjunto totalmente ordenado.
Conjunto ordenado en el cual dos ele-
mentos cualesquiera son comparables . *
Conmutatividad. Propiedad de algunas
operaciones binarias que consiste en que
a b = b a
elementos a y b del conjunto en el cual
est a denida la operacion . . . . . . . . . . . . . . 3
Contraccion. Homotecia cuyo escalar es
un real mayor que 0 y menor que 1 . 66
Coordenada.
De la n-ada (a
1
, a
2
, ..., a
n
) es alguno de
los a
i
. De la N-ada a
N
es alguno de los
a
i
para i N. . . . . . . . . . . . . . . . . . . . . . . . . 30
Coordinatizacion.
Dada una base N de F, es el isomorsmo
F 3
P
iN

i
i 7
N
K
{N}
. . . . . . 47, 80
242 cot ele
Cota inferior. Una
cota inferior de un subconjunto A de un
conjunto ordenado B es un elemento b
de B tal que cualquier elemento de A es
mayor o igual que B. . . . . . . . . . . . . . *, 144
Cota superior. Una cota superior
de un subconjunto A de un conjunto or-
denado B es un elemento b de B tal que
cualquier elemento de A es menor o igual
que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 62
Covector. Vector en el espacio dual.
Sin onimo de funcional lineal. . . . . . . . 193
Dena la multiplicidad de una raz.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
Delta de Kronecker.
Funci on
ij
de dos variables que toma
valor 1 si i = j y toma valor 0 si i 6=
j . . . . . . . . . . . . . . . . . . . . . . . . . . . 139, 79, 103
Desarrollo de Taylor.
Expresi on de una funcion como serie
de potencias f (x) =
P
a
i
(x x
0
)
i
. El
coeciente de la serie a
i
es la i-esi-
ma derivada de f evaluada en el punto
x
0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139, 144
Determinante. El determinante de

NN
es
P
S
N
sgn
Q
iN

i
i
. . 101, 22, 126
Determinante de un OL.
Determinante de su matriz en una base.
No depende de la base escogida . . . . 114
Diagrama. Reperesentaci on gr aca
de una familia de conjuntos y de funcio-
nes entre ellos mediante la utilizaci on de
echas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Diagrama conmutativo.
Diagrama en el cual cualesquiera dos ca-
minos dirigidos (que siguen el orden de
las echas) de un conjunto a otro repre-
sentan dos descomposiciones de la misma
funci on como composici on de las funcio-
nes de las echas de los caminos . . . . 82
Dilataci on. Homotecia cuyo escalar es
un real mayor que 1 . . . . . . . . . . . . . . . . . . 66
Dimension.
El cardinal de cualquier ba-
se. . . . . . . . . . . . . . . . . . . . . . . . 43, 51, 56, 86
Dimension de un OL. Dimension
del espacio donde est a denido el opera-
dor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Dimension de un subespacio afn. Si
E es una traslaci on del subespacio E en-
tonces la dimension de E es la dimensi on
de E. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Distributividad.
Relaci on de una operaci on binaria con
respecto a otra que consiste en que las
igualdades
a (b c) = (a b) (a c)
(b c) a = (b a) (c a)
se cumplen para cualesquiera elementos
a, b y c del conjunto en el cual est a de-
nida la operacion. . . . . . . . 5, 21, 70, 79
Distributividad del producto por escalares.
Axioma de espacio vectorial:
(a +b) = a +b y ( +) a =a+a 29
Divisor. Para dos elementos p y q
de un anillo con division se dice que q es
un divisor de p si el resto de la divisi on
de p entre q es cero . . . . . . . . . . . . . . . . . 133
Dominio de integridad. Anillo
conmutativo en el cual el producto de
elementos diferentes de cero es diferente
de cero . . . . . . . . . . . . . . . . . . . . . . 16, 20, 149
Dominio de una funcion. Sea
f : A B una funcion. Al conjunto A se
le llama dominio de la funci on f . 12, 85
Ecuaci on lineal.
Ecuaci on
N
x
N
=
N
donde las N-adas

N
y
N
son conocidos y el vector x
N
es
inc ognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Ecuaci on matricial. Ecuaci on AX = B
donde la matrices A y B son conocidas y
la matriz X es inc ognita. . . . . . . . . . . . . 129
Elemento maximal. Elemento
tal que cualquier otro no es mayor que
el . . . . . . . . . . . . . . . . . . . . . . . . *, 41, 62, 120
Elemento minimal. Elemento tal que
243 ele fun
cualquier otro no es menor que el *, 41
Elementos comparables. Dos elementos
a y b de un conjunto ordenado para los
cuales o a b o b a o los dos . *, 41
Endomorsmo. Morsmo cuyo dominio
y codominio coinciden . . . . . . . . . . . . . . . 14
Entension lineal de una funcion.
Extension que es transformaci on lineal.
Si la funcion tiene como dominio una ba-
se, entonces la extensi on lineal existe y es
unica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Entrada de una matriz.
Coordenada de una NM-ada . . . . . . . . 34
Epimorsmo. Morsmo sobreyectivo 14
Escalar. Elemento del campo
(la escala!) sobre el cual esta denido el
espacio vectorial . . . . . . . . . . . . . . . . . . 28, 29
Espacio cociente. Si E
es un subespacio de F entonces, el espa-
cio cociente F/E es el conjunto de todos
los subespacios anes paralelos a E do-
tado con la suma de subespacios anes
y el producto de subespacios anes por
escalares . . . . . . . . . . . . . . . . . . . . . . . . . . 57, 87
Espacio de columnas.
El espacio generado por las columnas de
una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Espacio de renglones.
El espacio generado por los renglones de
una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Espacio vectorial. Grupo
abeliano con un producto por escala-
res distributivo, asociativo y con neu-
tro. . . . . . . . . . . . . . . . . . . 29, 48, 55, 57, 69
Extension de una funcion.
Si f es una restricci on de g entonces g es
una extension de f . . . . . . . . . . . . . . . . . . . 72
Factor de un polinomio. Divisor de
grado al menos 1 de un polinomio. . 133
Factor propio.
Factor m onico diferente al polino-
mio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Forma polar de un complejo.
Es la expresi on r (cos +i sin) donde
r es el m odulo de z y es el argumento
de z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Formula multinomial. F ormula
para expandir la n-sima potencia de una
suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Fraccion. Pareja de elementos
de un dominio de integridad (por ejem-
plo K(x) o Z) que se denota por a/b.
Dos fracciones a/b y c/d se consideran
iguales si ad = bc . . . . . . . . . . . . . . . . 147, 8
Funcion. Informalmente
es una regla o procedimiento me-
diante el cual para cada elemento
de un conjunto a podemos obtener
(calcular) otro unico elemento f (a) de
otro conjunto y que llamamos la imagen
de a mediante la funci on f. Formalmen-
te, una funcion f : A B es un subcon-
junto del producto cartesiano f AB
que cumple que para cualquier a A
existe una unica pareja (a, b) f. . . . . . *
Funcion antipodal. La funcion
x 7x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Funcion biyectiva. Funcion inyectiva. y
sobreyectiva . . . . . . . . . . . . . . . . . *, 97, 107
Funcion continua. Funcion continua en
todos los puntos de su dominio . . . . . 141
Funcion continua en un punto. La
funcion f es continua en z
0
si > 0
tal que kz z
0
k < kf (z) f (z
0
)k <
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
Funcion de evaluacion.
De un polinomio p(x) es la funcion:
p : K 3 b 7p(b) K. . . . . . 133
Funcion identidad. La que a todo
elemento le corresponde el mismo . . . 66
Funcion inversa. La inversa
de una funcion f : A B es una funcion
g tal que f g = I
B
y g f = I
A
. Una
funcion tiene inversa si y solo si esta es
biyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 46
Funcion inyectiva. Cada
elemento de la imagen tiene una unica
preimagen . . . . . . . . . . . . . . . . . . . . . . . . . *, 85
244 fun inm
Funci on nula. La que a todo elemento le
corresponde el cero . . . . . . . . . . . . . . . . . . . 66
Funci on racional.
Fracci on de dos polinomios . . . . . . . . . 149
Funci on sobreyectiva.
Funci on tal que su imagen coincide con
su codominio . . . . . . . . . . . . . . . . . . . . . . *, 87
Funcional. Funci on de un espacio
vectorial en su campo . . . . . . . . . . . . . . . 112
Funcional bilineal.
Funcional lineal en sus dos variables 112
Funcional lineal. TL del espacio en el
campo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Funcional lineal. TL del espacio en el
campo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Funcional lineal en una variable.
Funci on de muchas variables con image-
nes en un campo que para cualesquiera
valores jos de las demas variables de-
termina un funcional lineal de la variable
que se trata . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Funcional multilineal.
Funcional lineal en todas sus varia-
bles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Grado de un polinomio. La poten-
cia mayor de la variable con coeciente
diferente de cero. Si el grado es cero el
polinomio es un elemento del campo. No
est a denido el grado del polinomio ce-
ro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Grupo. Conjunto con una operaci on bina-
ria asociativa que tiene elemento neutro
y en el cual todo elemento tiene inver-
so. . . . . . . . . . . . 7, 12, 14, 17, 58, 72, 97
Grupo abeliano. Grupo en el cual la
operaci on es conmutativa . . . . . . . . . . . . . . 7
Grupo alternante.
El subgrupo (del grupo simetrico) de to-
das las permutaciones pares . . . . . . . . 100
Grupo general lineal. El grupo
de automorsmos de un espacio vecto-
rial. El grupo de operadores lineales no
singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Grupo simetrico.
El grupo de todas las permutaciones con
la operacion de composici on . . . . . . . . . 97
h-base. Conjunto h-
independiente y h-generador. Todo OL
h tiene h-bases . . . . . . . . . . . . . . . . . . . . . . 174
h-cerradura. Conjunto de todas las
h-combinaciones . . . . . . . . . . . . . . . . . . . . . 172
h-combinacion. Vector de
la forma p
h
(v
1
) +q
h
(v
2
) + +r
h
(v
n
)
donde p, q, ..., r son polinomios . . . . . 171
h-generador. Conjunto de vectores que
h-genera a todo el espacio . . . . . . . . . . 172
Homotecia. Transformacion lineal
que consiste en la multiplicacion por un
escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Ideal. Subconjunto I de un anillo A tal
que
1. p, q I p +q I,
2. p I r A rp I . . . . . . . . . . 134
Ideal principal. Ideal formado por todos
los m ultiplos de un polinomio . . . . . . 135
Idempotencia. Propiedad de una funcion
que consiste en que f f = f
2
= f. . . . 37
Igualdad de Moivre. F ormula
para calcular la n-esima potencia de un
n umero complejo en forma polar . . . 141
Imagen de un elemento. (vease:
Funci on) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *
Imagen de una funcion. El
conjunto de los elementos del codominio
que tienen alguna preimagen. Se denota
por Imf . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 85
Imagen de una matriz.
La imagen de su transformacion lineal.
Su espacio de columnas . . . . . . . . . . . . . 125

Inmo.
El maximo de las cotas superio-
res . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 144

Inmo de un conjunto de reales.


El n umero maximo x tal que x a para
cualquier a A. Para el nmo x de A
siempre existe una sucesi on {a
k
} de ele-
mentos de A cuyo lmite es x . . . . . . . 145
Inmersi on. Restricci on de la funcion
245 inv mat
identidad a un subconjunto . . . . . . 67, 86
Inverso.
De un elemento a para la operaci on bi-
naria es un elemento b que cumple que
ab = ba = e para cualquier elemento
a del conjunto en el cual est a denida la
operaci on. Si un elemento tiene inverso
entonces este es unico. En los anillos y
campos es el inverso para el producto. 5
Isomorsmo. Morsmo biyecti-
vo. La inversa de cualquier isomorsmo
es tambien un isomorsmo. . . . . . . 13, 52
Isomorsmo can onico. Isomorsmo
cuya construcci on no depende de esco-
ger algo (una base, un complementario,
etc.) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52, 58
Isomorsmo de espacios vectoriales.
Transformacion lineal biyectiva. . 45, 74
Isomorsmo lineal.
Isomorsmo de espacios vectoriales . 45
Lmite de una sucesion.
La sucesion {z
k
} tiene lmite z si > 0
N tal que k > N kz
k
zk < . . . . 143
Matriz. Es una NM-ada o sea un
conjunto indexado por dos conjuntos 34
Matriz acompa nante de un polinomio.
Matriz cuadrada cuya ultima columna es
el vector de coecientes del polinomio,
la paralela inferior a la diagonal contie-
ne unos y todas las demas entradas son
cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Matriz ampliada.
Del sistema Ax = b es la matriz
(A|b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Matriz cuadrada.
Matriz con la misma cantidad de colum-
nas y renglones . . . . . . . . . . . . . . . . . 107, 80
Matriz de cambio de base.
Escogidas dos bases V y N de un espacio
vectorial la matriz
NV
cuyas columnas
son los coecientes de las expresiones de
la base V como combinacion lineal de la
base N. O sea, para cualquier v V se
cumple que v =
P
iN

iv
i. Si
V
son
las coordenadas de un vector en la base
V entonces
NV

V
son las coordenadas
del mismo vector en la base N. . . . . . . 81
Matriz de permutaci on. La
matriz que se obtiene al permutar las co-
lumnas o los renglones de la matriz iden-
tidad. Matriz que tiene exactamente un
1 en cada rengl on y columna y todas las
demas entradas son cero . . . . . . . . . . . . 106
Matriz de una transformaci on lineal.
Escogidas una base N en el dominio
y otra M en el codominio de una TL
f la matriz
MN
cuyas columnas son
los coecientes de las expresiones de
las imagenes de la base N como com-
binaci on lineal de la base M. O sea,
para cualquier j N se cumple que
f (j) =
P
iM

ij
i . . . . . . . . . . . . 78, 75, 81
Matriz del sistema. La ma-
triz A del sistema de ecuaciones lineales
Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Matriz diagonal. Matriz
MM
en la
cual si i 6= j entonces,
ij
= 0. . . . . . . 116
Matriz diagonal por bloques. Matriz

MM
en la cual hay una particion del
conjunto de ndices M
1
M
t
= M
y que
ij
= 0 si i y j pertenecen a blo-
ques diferentes . . . . . . . . . . . . . . . . . . . . . . . 116
Matriz identidad.
La matriz I
NN
cuyas entradas son el del-
ta de Kronecker: unos en la diagonal y
ceros en el resto de las entradas. La ma-
triz de la transformacion lineal identi-
dad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79, 103
Matriz inversa. La matriz
cuadrada
MN
es la inversa de
NM
si

NM

MN
= I
NN
y
MN

NM
= I
MM
.
Si ambos N y M son nitos entonces,
basta comprobar una de las dos igualda-
des. Una matriz cuadrada tiene inversa
si y solo si su determinante es diferente
de cero . . . . . . . . . . . . . . 79, 113, 119, 129
Matriz singular.
246 mat nuc
Matriz cuadrada con determinante igual
a cero . . . . . . . . . . . . . . . . . . . . 108, 119, 123
Matriz triangular.
Matriz triangular por bloques en la cual
cada bloque es de cardinalidad 1 . . . 116
Matriz triangular inferior.
Matriz
MM
en la cual M = {1, . . . , m}
y tal que en su representaci on graca to-
das las entradas por encima de la diago-
nal son cero. . . . . . . . . . . . . . . . . . . . . . . . . . 116
Matriz triangular por bloques. Matriz

MM
en la cual hay una particion del
conjunto de ndices M
1
M
t
= M
y que
ij
= 0 si i M
p
, j M
q
y
p < q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Matriz triangular superior.
Matriz
MM
en la cual M = {1, . . . , m}
y tal que en su representaci on graca to-
das las entradas por debajo de la diago-
nal son cero. . . . . . . . . . . . . . . . . . . . . . . . . . 116
Maximo. El maximo de un subconjunto
A de un conjunto ordenado B es una co-
ta superior que pertenece a A. Si existe
entonces, el m aximo es unico . . . . . . . . . . *
Mnimo.
El mnimo de un subconjunto A de un
conjunto ordenado B es una cota inferior
que pertenece a A. Si existe entonces, el
mnimo es unico . . . . . . . . . . . . . . . . . . *, 145
M odulo de un complejo. La longitud
del vector

0z en el plano complejo . 140
Monomorsmo. Morsmo inyectivo. 14
Monotona.
Propiedad de una funcion de un conjun-
to ordenado a otro que consiste en que
x y f (x) f (y) . . . . . . . . . . . . . . . . . 37
Morsmo. Es una funcion f : A B que
cumple que f (x y) = f (x) f (y) donde
es una operaci on denida en A y es
una operacion denida en B . . . . . 10, 45
Morsmo de algebras. TL
que conmuta con el producto y preserva
el 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Morsmo de anillos.
Funci on entre dos anillos que es mors-
mo para la suma y para el producto 12
Morsmo de campos.
Funci on entre dos campos que es mors-
mo para la suma y para el producto 12
Morsmo de espacios vectoriales.
Funci on f de un espacio vectorial a otro
sobre el mismo campo que es un mors-
mo de los grupos abelianos de vectores
y que cumple f (a) = f (a) para cual-
quier vector a y cualquier escalar . 45
Morsmo de grupos.
Morsmo cuyo dominio y codominios son
grupos . . . . . . . . . . . . . . . . . . . . . . 12, 97, 107
Multiplicidad de una raz.
El elemento del campo es una raz de
multiplicidad n del polinomio p si n es el
mayor natural tal que p es un m ultiplo
de (x )
n
. . . . . . . . . . . . . . . . . . . . . . . . . . 134
M ultiplo. Para dos elementos p y q de
un anillo con division se dice que p es un
m ultiplo de q si c tal que p = cq . 133
n-ada. Elemento (a
1
, a
2
, ..., a
n
) del
producto cartesiano A
n
. . . . . . . . . . . . . . 30
N-ada. Funci on en una notaci on
diferente,
N
: N 3 i
i
A. A N se
le llama el conjunto de ndices y a las
i
se le llaman coordenadas. . . . . . . . . 31, 77
Neutro. De una operacion
binaria es un elemento e que cumple
que a e = e a = a para cualquier a
del conjunto en el cual est a denida la
operacion. Si una operacion tiene neutro
entonces este es unico . . . . . . . . . . . . . . . . . . 4
Nucleo de un morsmo. El
el caso de grupos la preimagen del neu-
tro. Para anillos y espacios vectoriales la
preimagen del cero . . . . . . . . . . . . . . . . . . . 85
Nucleo de un polinomio.
La colecci on de sus raices. Cada raz
aparece tantas veces como su multipli-
cidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
Nucleo de una matriz. El nucleo
de su transformacion lineal. El conjun-
247 nuc pre
to solucion de un sistema de ecuaciones
con vector de coecientes libres igual a
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Nucleo de una TL. La preimagen del
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Nucleo trivial. Nucleo igual a {0} . . 85
OL. Acronimo de operador lineal . . . 70
Operacion binaria.
Funci on mediante la cual para cuales-
quiera dos elementos a y b de un con-
junto A podemos encontrar otro elemen-
to de A que es el resultado de la opera-
ci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Operador cclico. OL h tal que todo el
espacio es h-cclico . . . . . . . . . . . . . . . . . . 173
Operador diagonalizable. OL tal
que existe una base en la cual su matriz
es diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
Operador irreducible. OL
que no se puede decomponer como suma
directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Operador lineal. Transformacion lineal
de un espacio en si mismo . . . . . . . . . . . 70
Operador radical. OL cuyo polinomio
mnimo (o caracterstico) es potencia de
un polinomio irreducible . . . . . . . . . . . . 166
Operador singular. OL no biyectivo 71
Operador triangulable. OL tal
que existe una base ordenada en la cual
su matriz es triangular . . . . . . . . . . . . . . 191
Opuesto. El inverso de un elemento de
un anillo o campo respecto a la suma . 8

Orbita de una permutacion. Clase


de equivalencia de la relacion (a b)
(a =
n
(b)) . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Orden de un ciclo. El n umero de
elementos que un ciclo no deja jos . 98
Orden de una matriz.
El n umero de renglones y columnas de
una matriz cuadrada . . . . . . . . . . . . . . . . 107
Perodo de un conjunto de vectores.
El generador del anulador del conjunto
de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
Perodo de un vector.
El polinomio monico p mas peque no tal
que p
h
(a) = 0. El generador del anula-
dor del vector. . . . . . . . . . . . . . . . . . . . . . . . 162
Permutacion. Biyecci on de un conjunto
nito en si mismo . . . . . . . . . . . . . . 97, 106
Permutacion de las columnas.
Es la operaci on en que una permuta-
ci on se le aplica a las columnas de
una matriz
MN
para obtener la ma-
triz
MN
=
M(N)
que cumple que

ij
=
i
1
(j)
. . . . . . . . . . . . . . . . . . . . . . . . 104
Permutacion de los renglones .
Es la operaci on en que una permuta-
ci on se le aplica a los renglones de
una matriz
MN
para obtener la ma-
triz
MN
=
(M)N
que cumple que

ij
=

1
(i)j
. . . . . . . . . . . . . . . . . . . . . . . . 104
Permutacion impar. Permutaci on que
se descompone en la composici on de un
n umero impar de transposiciones. . . 100
Permutacion par. Permutacion
que se descompone en la composici on de
un n umero par de transposiciones . . 100
Plano.
Subespacio afn de dimensi on
dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56, 36
Polinomio. Expresi on formal
P
n
i=0
a
i
x
i
donde los coecientes a
i
son
elementos de un campo . . . . . . . . . . . . . 131
Polinomio caracterstico. El po-
linomio det (xI h). Es un m ultiplo del
polinomio mnimo y tiene los mismos fac-
tores irreducibles que el polinomio mni-
mo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Polinomio irreducible. Polinomio
m onico de grado al menos 1 sin factores
propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Polinomio mnimo. El
polinomio m onico m as peque no que anu-
la un OL. El generador del anulador del
operador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Polinomio m onico. Polinomio cuyo
coeciente principal es 1 . . . . . . . . . . . . 136
Preimagen de un elemento. Sea b
248 pro ser
un elemento del codominio de f. La prei-
magen de b es el conjunto de todos x en
dominio tales que f (x) = b . . . . . . . *, 85
Producto de matrices.
Si
MN
y
NL
son dos matrices en-
tonces
ML
=
MN

N,L
es la matriz
cuyas entradas son los productos esca-
lares canonicos
ij
=
iN

Nj
de los
renglones de
MN
por las columnas de

NL
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76, 105
Producto de un escalar por una funcion.
Si en el codominio de f esta denido un
producto por escalares entonces f es la
funci on tal que (f) (a) = f (a) . . . . 69
Producto de un vector por una matriz.
Es la combinaci on lineal de los renglones
de la matriz cuyos coecientes son las
coordenadas del vector . . . . . . . . . . . . . . . 77
Producto de una matriz por un vector.
Es la combinaci on lineal de las columnas
de la matriz cuyos coecientes son las
coordenadas del vector . . . . . . . . . . . . . . . 77
Producto escalar. Producto
bilineal de dos vectores cuyo resultado es
un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Producto escalar canonico.
Producto escalar denido en K
{N}
como:

N
=
P
iN

i

i
. . . . . . . . . . . . . . . . . . 76
Proyeccion. Si C = AB entonces,
la funcion f : c = (a, b) 7 a se le lla-
ma proyecci on de C a A a lo largo de B.
En particular, nosotros la usamos en el
caso de que E = F G (la suma directa
es un producto cartesiano!). En este caso
las proyecciones son TLs . . . . . . . . . 67, 86
Punto. Subespacio afn de dimensi on
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Raz de un polinomio.
Elemento del campo en el cual la funci on
de evaluaci on del polinomio toma valor
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
Rango de una matriz. El orden de sus
bases.
La dimension de su espacio de columnas.
La dimension de su espacio de renglo-
nes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Recta.
Subespacio afn de dimensi on
uno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56, 36
Regla del tablero de ajedrez.
Regla mediante la cual se hallan los sig-
nos de los cofactores de una matriz en
forma graca. El signo del cofactor de

ij
es (1)
i+j
. . . . . . . . . . . . . . . . . . . . . . . . 111
Relaci on antisimetrica.
Si a b y b a entonces, a = b . . . . . *
Relaci on de equivalencia. Relaci on
simetrica, reexiva y transitiva . . . *, 56
Relaci on de orden.
Relaci on antisimetrica, reexiva y tran-
sitiva . . . . . . . . . . . . . . . . . . . . . . . . . *, 62, 120
Relaci on en un conjunto. Subconjunto
del producto cartesiano AA = A
2
. . *
Relaci on reexiva.
Para todo a se tiene a a . . . . . . . . . . . . *
Relaci on simetrica.
(a b) (b a) . . . . . . . . . . . . . . . . . . . . . *
Relaci on transitiva.
Si a b y b c entonces, b a. . . . . . *
Rengl on de una matriz. Dada
una matriz
NM
e i N a la M-ada
iM
(i est a jo, los elementos de M varan)
se le llama i-esimo rengl on de la matriz

NM
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34, 76
Resto. Al efectuar la di-
visi on con resto de un elemento p de un
anillo conmutativo (Z, K[x]) entre otro
q obtenemos la igualdad p = cq + r. Al
elemento r se le llama resto de la divisi on
de p entre q . . . . . . . . . . . . . . . . . . . . 133, 15
Restriccion de una funcion.
Una funcion f : A
0
B se le llama res-
tricci on de g : A B si A
0
A y pa-
ra cualquier a A
0
se cumple f (a) =
g(a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Serie. Expresion formal del tipo
P

i=0
a
i
x
i
. A los elementos del campo a
i
249 sig ten
se le llaman coecientes de la serie . . 31
Signo de una permutacion.
Funci on que a cada permutaci on le hace
corresponder 1 si esta es par y 1 si esta
es impar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Sistema de ecuaciones lineales.
Ecuaci on Ax = b donde la matriz A y
el vector b son conocidos y el vector x es
inc ognito . . . . . . . . . . . . . . . . . . . . . . . . 122, 86
Soporte. De una funcion
f es el conjunto de elementos del domi-
nio cuya imagen es diferente de cero. De
una N-ada es el conjunto de ndices cu-
yas coordenadas son diferentes de cero.
De una combinacion lineal es el conjun-
to de sumandos con coeciente diferente
de cero . . . . . . . . . . . . . . . . . . . . . . . 32, 36, 47
Subalgebra. Subespacio vectorial que
contiene al 1 y en el cual el producto es
interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Subanillo. Subconjunto de un anillo que
es un anillo para las mismas operaciones
del anillo m as grande . . . . . . . . . . . . . . . . 18
Subcampo. Subconjunto de un campo
que es un campo para las mismas opera-
ciones del campo m as grande . . . . 18, 32
Subespacio. Subconjunto de un espacio
vectorial que es a su vez espacio vectorial
para las mismas operaciones que las de
todo el espacio. . . . . . . . . . 35, 49, 53, 85
Subespacio afn.
Traslaci on de un subespacio 56, 68, 88
Subespacio generado. Cerradura
lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Subespacio h-cclico. Subespacio
h-generado por un solo vector . . . . . . 173
Subespacio h-generado. La h-cerradura
de un conjunto de vectores . . . . . . . . . 172
Subespacio invariante. Subespacio
donde est a bien denida la restriccion de
un OL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Subespacio radical. Subespacio
invariante en el cual el operador es radi-
cal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Subespacios anes paralelos.
Dos subespacios anes son paralelos si
uno es traslaci on del otro . . . . . . . . . . . . 56
Subespacios complementarios.
Dos subespacios cuya suma es todo el
espacio y cuya intersecci on es el ori-
gen . . . . . . . . . . . . . . . . . . 53, 55, 57, 67, 86
Subgrupo. Subconjunto de un grupo que
es un grupo para la misma operaci on del
grupo mas grande . . . . . . . . . . . . . . . . . . . . 18
Submatriz. Dada una matriz

NM
a cualquier matriz
N
0
M
0 tal que
N
0
N y M
0
M se le llama submatriz
de
NM
. . . . . . . . . . . . . . . . . . . . . . . . . 34, 120
Sucesi on. Elemento (a
0
, a
1
, ..., a
n
, ...) del
conjunto A
N
de funciones f : N A 30
Sucesi on acotada.
La sucesion {z
k
} es acotada si existe un
real M tal que k kz
k
k M. . . . . . . . 143
Sucesi on convergente.
Una sucesion que tiene lmite. . . . . . . 143
Suma de conjuntos.
Si A y B son conjuntos y entre sus ele-
mentos hay una operaci on de suma en-
tonces:
A+B = {a +b | a A y b B} . . . . . 50
Suma de funciones. Si en el
codominio mutuo de f y g esta denida
una suma entonces f+g es la funcion tal
que ( +g) (a) = f (a) +g(a). . . . . . . 69
Suma directa de espacios. El producto
cartesiano de los subespacios con la su-
ma denida por coordenadas y tambien
el producto por escalares. Si la intersec-
ci on de dos subespacios tiene dimension
cero entonces, la suma directa de ellos es
canonicamente isomorfa a la suma . . 52
Suma directa de OL.
OL denido por coordenadas en la suma
directa de espacios . . . . . . . . . . . . . . . . . . 155
Supremo. El mnimo de las cotas
inferiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *
Tensor de exponente n. Un conjunto
indexado por n conjuntos de ndices 34
250 tip vec
Tipo de una descomposicion.
Si h = f
1
f
n
es una descomposi-
ci on de h entonces, su tipo es la sucesi on
de los polinomios mnimos de f
1
, . . . , f
n
.
Dos tipos son iguales si uno se puede ob-
tener del otro reordenando la sucesion.
En el tipo pueden haber polinomios igua-
les . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
TL. Acr onimo de transformaci on
lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Transformacion elemental. Una trans-
formacion elemental de los renglones de
una matriz consiste en sumarle a un re-
gl on otro multiplicado por un escalar.
Analogamente se denen las transforma-
ciones elementales de las columnas . 126
Transformacion lineal. Morsmo de
espacios vectoriales . . . . . . . . . . 45, 65, 72
Transformacion lineal de una matriz.
Dada la matriz
MN
es la funci on:
K
N
3
N

MN

N
K
M
. . . . . . . . . . 77
Transformacion semilineal. Funci on de
un espacio vectorial a otro que es mor-
smo para la suma y que cumple que
f (x) =

f (x) para cierto automorsmo
7

del campo de escalares. . . . . . . . 89


Transposici on. Ciclo de orden dos. . 99
Transpuesta.
Matriz que se obtiene de otra intercam-
biando los subndices de sus entradas, o
sea si A =
NM
y A
T
= B =
MN
en-
tonces
ij
=
ji
. . . . . . . . . . . . . . . . . . . . . . 103
Traslacion de un conjunto de vectores.
Si A es un conjunto de vectores y x otro
vector entonces A+x es la traslaci on de
A con el vector x . . . . . . . . . . . . . . . . . . . . . 55
Valor propio. Escalar tal que para cierto
vector propio a se tiene que h(a) = a.
Raz del polinomio caracterstico . . . 188
Vector.
Elemento de un espacio vectorial. En R
n
son los segmentos dirigidos del origen a
un punto del espacio . . . . . . . . . . . . . 28, 29
Vector columna.
Matriz con una sola columna . . . . . . . . 77
Vector de coecientes libres. El vec-
tor b del sistema de ecuaciones lineales
Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Vector propio. Vector a tal que la recta
hai es invariante. . . . . . . . . . . . . . . . . . . . . 188
Vector renglon.
Matriz con un solo rengl on . . . . . . . . . . 77
Para todo.
Existe.
! Existe y es unico.
P Q Si P entonces Q.
P implica Q.
P es suciente para Q.
P Q P solo si Q.
P es necesario para Q.
P Q P si y solo si Q.
P y Q son equivalentes.
P es necesario y suciente para
Q.
b B b pertenece a B.
B 3 b B contiene a b.
A B A es subconjunto de B.
A B A es sobreconjunto de B.
A B A es subconjunto propio de B.
O sea, A B y A 6= B.
A ! B A es sobreconjunto propio de B.
O sea, A B y A 6= B.
AB La union de A y B.
AB La intersecci on de A y B.
A\B La resta de conjuntos. El conjun-
to de los elementos de A que no
pertenecen a B.
AB El producto cartesiano de dos
conjuntos. El conjunto de todas
las parejas (a, b) con a A y
b B.
2
A
El conjunto de todos los subcon-
juntos del conjunto A. El con-
junto de todas las funciones
f : A {0, 1}.
A
n
El producto cartesiano de Acon-
sigo mismo n veces. El conjunto
de todos las n-adas (a
1
, . . . , a
n
)
donde todos los a
i
est an en A.
A
N
El conjunto de todas las funcio-
nes f : N A. El conjunto
de todos las N-adas a
N
donde
i N el elemento a
i
pertenece
a A. Si N = {1, . . . , n} entonces
A
N
= A
n
.
0 El vector cero. El origen de co-
ordenadas.
0 Cero es elemento neutro para la
suma de un anillo o campo.
1 Uno es el elemento neutro para
el producto de un anillo o cam-
po.
1 Menos uno es el opuesto de 1 en
un anillo o campo.
I
NN
Matriz identidad.
I La funci on identidad. La permu-
taci on identidad
O La funci on nula. La matriz nula

0
El cardinal de N.
K Un campo arbitrario.
K
n
El espacio de las n-adas.
K
N
El espacio de las N-adas.
K[x] El algebra de polinomios en la
variable x con coecientes en K.
K[[x]] El algebra de series en la variable
x con coecientes en K.
K(x) El campo de funciones racionales
en x con coecientes en K.
N El conjunto de los naturales.
Z El anillo de los enteros.
Z
n
El anillo de restos modulo n.
Para n primo Z
n
es un campo.
252 Notaciones
Q El campo de los racionales.
R El campo de los reales.
C El campo de los complejos.
S
N
El grupo simetrico de N.
A
N
El grupo alternante de N.
A

N
Las permutaciones impares de
N.
f : A B
Una funci on que tiene dominio
A y codominio B.
f : A 3 a 7f (a) B
Usada para denotar funciones
concretas por ejemplo,
f : R 3 a 7a
2
R
+
es la funci on con dominio R y
codominio R
+
que a cada real le
hace corresponder su cuadrado.
pmod q El resto de la divisi on de p en-
tre q. Esta bien denido en cual-
quier anillo con divisi on. Por
ejemplo, en los n umeros enteros
y en los polinomios con coecien-
tes en un campo.
n! El factorial del natural n. Se de-
ne como n! = 1 2 n.
|A| El cardinal del conjunto A. Pue-
de ser nito o innito.
kzk El m odulo del n umero complejo
z.
hNi La cerradura lineal de N. El con-
junto de todas las combinaciones
lineales de N.
lmz
k
El lmite de la sucesi on {z
k
}.
dimE La dimension de E.
sgn El signo de la permutaci on .
det A El determinante de la matriz A.
Imf La im agen de la funci on f.
ker f El nucleo del morsmo f.
A+B La suma de dos conjuntos de
vectores.
A El producto de un escalar por un
conjunto de vectores.
A+x El conjunto de vectores A tras-
ladado mediante el vector x. Si
A es un subespacio entonces, es
un subespacio afn.
EF La suma directa de dos espacios.
Si E y F son subespacios que se
intersectan solo en el origen en-
tonces es canonicamente isomor-
fa a la suma de E y F.

MN
Una matriz cuyos renglones
est an indexados por M y cuyas
columnas est an indexadas por
N.

ij
La entrada
ij
de una matriz

MN
.

iN
El i-esimo rengl on de la matriz

NM
.

Mj
La j-esima columna de la matriz

NM
.

M(N)
Si es una permutacion de N,
es la matriz
MN
cuyas colum-
nas estan permutadas mediante
. Si : N L es una biyec-
cion, es la matriz cuyas colum-
nas estan indexadas por L me-
diante el cambio de ndices .

(M)N
Lo mismo que el anterior pero
para los renglones

ij
El cofactor de la entrada
ij
de
una matriz cuadrada.
A

La matriz de cofactores de A.
A
T
La matriz transpuesta de A.
(A|b) La matriz ampliada del sistema
Ax = b.
253 Notaciones
254 Notaciones
Alfabeto gotico
A B C D E F G H I J K L M
A B C D E F G H I J K L M
N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z
a b c d e f g h i j k l m
a b c d e f g h i j k l m
n o p q r s t u v w x y z
n o p q r s t u v w x y z
Alfabeto caligr aco
A B C D E F G H I J K L M
A B C D E F G H I J K L M
N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z
Alfabeto griego
A B E Z H I

alfa beta gamma delta epsilon zeta eta zita iota
K M N O P
o
kappa lamda mu nu xi omicron pi ro sigma
T X

tau upsilon chi psi omega
Captulo 1
1. Dena los siguientes conceptos:
Operaci on binaria.
Propiedad conmutativa.
Propiedad asociativa.
Propiedad distributiva.
Elemento neutro.
Elemento inverso.
2. En cualquier campo 0x = 0.
3. Dena los siguientes conceptos:
Grupo y grupo abeliano.
Anillo y anillo conmutativo.
Campo.
4. Dena los morsmos.
5. Los morsmos preservan las operaciones
binarias.
6. Los morsmos preservan la conmutativi-
dad.
7. Los morsmos preservan la asociativi-
dad.
8. Los morsmos preservan el neutro.
9. Los morsmos preservan el inverso.
10. Los morsmos preservan la distributivi-
dad.
11. La inversa de un isomorsmo es un iso-
morsmo.
12. Dena la suma y el producto en Z
n
.
13. (Z
n
, +, ) es un anillo conmutativo.
14. Todo campo es un dominio de integri-
dad.
15. Z
n
es un dominio de integridad si y solo
si n es primo.
16. Todo dominio de integridad nito es un
campo.
17. Denicion de subcampo.
18. Denicion de campo primo
19. Todo campo K contiene un unico sub-
campo primo que esta contenido en cual-
quier subcampo de K.
20. Q es un campo primo.
21. Los campos Z
p
son primos.
22. Teorema de Clasicaci on de Campos Pri-
mos.
23. Dena la caracterstica de un campo.
24. En un campo de caracterstica t para
cualquier elemento x se cumple que tx =
0 .
25. Demuestre la f ormula del binomio de
Newton en base a la formula multino-
mial.
Captulo 2
1. Denici on de espacio vectorial.
2. Que es una n-ada? Que es una N-ada?
Cual es su conjunto de ndices? Que
son sus coordenadas?
3. Que es una NM-matriz? Que es una
entrada, rengl on, columna?
4. Denici on de subespacio.
5. Los subespacios son los conjuntos cerra-
dos para la suma y el producto por esca-
lares.
6. La uni on de subespacios no es un subes-
pacio.
7. La intersecci on de subespacios es un su-
bespacio.
8. Denici on de combinacion lineal y sus
coecientes.
9. El conjunto de todas las combinaciones
lineales de un conjunto de vectores es un
subespacio.
10. Los siguientes tres conjuntos de vectores
coinciden:
256 Gua de estudio
El conjunto de todas las combinacio-
nes lineales de N.
La intersecci on de todos los subespa-
cios que contienen a N.
El subespacio mas peque no que con-
tiene a N.
11. Propiedades b asicas de la cerradura li-
neal:
incremento,
monotona,
idempotencia.
12. Todo sobreconjunto de un conjunto ge-
nerador es generador.
13. Teorema de caracterizaci on de conjuntos
LI.
14. Todo subconjunto de un conjunto LI es
LI.
15. Lema de aumento de un conjunto LI.
16. Teorema de caracterizaci on de bases.
17. Teorema de existencia de bases.
18. Propiedad del cambio de las bases.
19. Dos bases cualesquiera de un espacio vec-
torial tienen el mismo cardinal.
20. Si E es un subespacio de F y dimE =
dimF < entonces, E = F.
21. Describa las bases can onicas de los espa-
cios vectoriales K
{N}
y K[x].
22. La inversa de un isomorsmo lineal es un
isomorsmo lineal.
23. Un isomorsmo transforma conjuntos LI
en conjuntos LI, conjuntos generadores
en conjuntos generadores y bases en ba-
ses.
24. Describa el isomorsmo de coordinatiza-
ci on en una base.
25. Dos espacios vectoriales sobre un mismo
campo son isomorfos si y solo si tienen
la misma dimensi on.
26. Todo espacio vectorial nito dimensional
es isomorfo a K
n
.
27. El n umero de elementos en un campo -
nito es potencia de un n umero primo.
28. hE Fi = {a +b | a E, b F}
29. La igualdad modular (incluye la demos-
traci on del lema).
30. Si E y F son subespacios tales que EF =
{0} entonces la funci on
E F 3 (a, b) 7a +b E + F
es un isomorsmo de espacios vectoria-
les.
31. Que es un isomorsmo can onico. De-
muestre que EF y FE son canonica-
mente isomorfos.
32. Todo subespacio tiene complementario.
33. Si E y F son dos subespacios complemen-
tarios entonces cada vector x se expresa
de forma unica como x = a +b donde
a E y b F.
34. Dena los subespacios anes.
35. Que es el paralelismo de subespacios a-
nes?
36. Todo subespacio afn es paralelo a un so-
lo subespacio vectorial.
37. Dos diferentes subespacios anes parale-
los no se intersectan
38. Que es el espacio cociente? Cuales son
sus operaciones?
39. Cualquier subespacio complementario a
E intersecta al subespacio afn (E +x) en
un solo punto.
40. D/E es canonicamente isomorfo a cual-
quier complementario de E.
Captulo 3
1. Denici on de transformacion lineal.
2. Toda TL transforma subespacios en su-
bespacios.
3. Toda TL de un espacio de dimension 1
es una homotecia.
4. Denici on de proyecci on. Toda proyec-
ci on es una TL.
5. El producto de un escalar por una TL es
una TL.
6. La suma de dos TLs es una TL.
7. La composicion de TLs es una TL.
8. Propiedades de la composici on de TLs:
asociatividad, distributividad y conmu-
tatividad con el producto por escalares.
257 Gua de estudio
9. Denicion de

Algebra. De tres ejemplos
de algebras. Que es el grupo general li-
neal?
10. Las extensiones lineales son TLs.
11. Las TLs estan predeterminadas por sus
valores en una base.
12. Si N es una base de E entonces, la fun-
ci on que a cada TL h Hom(E, F) le ha-
ce corresponder su restricci on h
N
F
N
es un isomorsmo de espacios vectoria-
les.
13. Una TL es un isomorsmo si y solo si su
restricci on a una base es inyectiva y la
imagen de esta restricci on es una base.
14. Propiedades del producto escalar canoni-
co de N-adas conmutatividad, distributi-
vidad y conmutatividad con el producto
por escalares.
15. Denicion del producto de matrices.
16. Cual es la TL denida por una matriz?.
Cual es la matriz de una TL?
17. La matriz de la composicion de dos TLs
es igual al producto de las matrices de
las TLs.
18. Dena las matrices de cambio de base.
19. La N-ada de las coordenadas de un vec-
tor en la base nueva se obtiene multipli-
cando la matriz de cambio de base por la
V-ada de las coordenadas del vector en
la base vieja.
20. Sea f : E F una TL. Sean B y C ma-
trices de cambio de base en E y F respec-
tivamente. Si A es la matriz de f en las
bases viejas entonces CAB
1
es la matriz
de f en las bases nuevas.
21. Propiedades principales de la transpues-
ta de una matriz.
22. Dena la transpuesta de una TL.
23. La transpuesta de una inmersion es una
proyecci on.
24. Denicion de nucleo e im agen de una TL.
25. La imagen y el nucleo son subespacios.
26. Una TL es injectiva si y solo si su nucleo
es trivial.
27. Si K es un subespacio complementario a
ker f entonces, la restriccion de f a K es
inyectiva.
28. Pruebe que dimImf = dimImf
T
y que
dimker f = dimker f
T
.
29. Sean E y F dos espacios tales que
dimE = dimF < . Una TL de E a
F es inyectiva si y solo si es sobreyectiva.
30. Los subespacios anes paralelos a ker f
son precisamente los conjuntos de vecto-
res en que la TL f es constante.
Captulo 4
1. Si |M| = |N| entonces, los grupos simetri-
cos S
M
y S
N
son isomorfos.
2. El n umero de permutaciones de un con-
junto con n elementos es n!.
3. Que son las orbitas de una permutacion.
4. La restriccion de una permutacion a una
orbita es un ciclo.
5. Denici on de permutaciones pares e im-
pares. Denicion del signo.
6. La composicion de una permutacion con
una transposici on cambia la paridad de
la permutacion.
7. Toda permutacion es composici on de
transposiciones.
8. Pruebe que sgn( ) = sgnsgn y
que sgn
1
= sgn.
9. Denici on de determinante de una ma-
triz. Regla del tri angulo para los deter-
minantes de orden 3.
10. El determinante de la matriz identidad
es 1.
11. Si una matriz tiene una columna o un
renglon nulo entonces, su determinante
es cero.
12. El determinante no se altera al transpo-
ner una matriz.
13. Si una matriz tiene dos columnas iguales
entonces, su determinante es cero.
14. Al permutar las columnas o los renglo-
nes de una matriz con la permutaci on
el determinante se altera por un factor
258 Gua de estudio
igual a sgn.
15. Si y son dos cambios de ndices de
N en M entonces, se cumple la igualdad:
det
M(N)
=
sgn

det
M(N)
.
16. Denicion de matriz no singular.
17. Denicion de cofactores de una entrada
de una matriz. Pruebe que los cofactores
no dependen del cambio de ndices usado
para calcular el determinante.
18. Teorema de expansi on de Laplace.
19. Denicion de funcional multilineal
20. El determinante es un funcional multili-
neal de los renglones.
21. det A
1
= (det A)
1
.
22. A
1
= A
T
/ det A.
23. El determinante de un OL no depende
de la base que se use para calcularlo.
24. Enuncie la expansion generalizada de La-
place
25. El determinante de una matriz triangu-
lar por bloques es igual al producto de
los determinantes de sus bloques.
26. Enuncie la caracterizaci on de matrices
no singulares.
27. Las dimensiones del espacio de columnas
y del espacio de renglones de una matriz
coinciden.
28. Lema de aumento de submatrices no sin-
gulares.
29. Caracterizaci on de las bases de una ma-
triz
30. Regla de Cramer.
31. Teorema de existencia de soluciones.
32. Lema de eliminaci on de ecuaciones de-
pendientes.
33. Describa el procedimiento general de so-
luci on de los sistemas de ecuaciones li-
neales.
34. Las transformaciones elementales no
cambian los determinantes.
35. Las transformaciones elementales de los
renglones de la matriz ampliada no cam-
bian el subespacio afn soluci on de un sis-
tema de ecuaciones lineales.
36. Resuelva un sistema de ecuaciones linea-
les por el metodo de Gauss.
37. Encuentre la inversa de una matriz por
el metodo de eliminaci on de Gauss
Captulo 5
1. Dena los polinomios sobre un campo,
sus coecientes, el grado y el coeciente
principal.
2. Dena la suma y el producto de polino-
mios.
3. Dena la funcion de evaluacion de un po-
linomio.
4. Un polinomio de grado n esta predeter-
minado por su evaluacion en n + 1 dife-
rentes elementos del campo.
5. Divisi on con resto de polinomios.
6. Dena los divisores, los m ultiplos y los
factores de un polinomio.
7. Dena las raices de un polinomio.
8. Para que b sea una raz de p es necesario
y suciente que (x b) sea un factor de
p.
9. Un polinomio de grado n tiene a lo mas
n raices.
10. Dena los ideales de un anillo y los idea-
les principales.
11. Todo ideal de polinomios es principal.
12. Teorema de Bezout.
13. Dena factores propios, polinomios
monicos, factores irreducibles.
14. Si p y q son dos polinomios y r es un
factor irreducible de pq entonces r es un
factor de p o de q.
15. Sea p = p
1
p
n
una descomposicion
en factores irreducibles de p. Si q es cual-
quier factor irreducible de p entonces, q
es igual a alguno de los p
i
.
16. Teorema de Factorizaci on de Polinomios.
17. Desarrollo de Taylor.
18. Enuncie el Teorema de Gauss.
19. Usando el Teorema de Gauss demuestre
la clasicaci on de los polinomios comple-
259 Gua de estudio
jos irreducibles.
20. Demuestre la clasicaci on de los polino-
mios reales irreducibles.
21. Denicion de polinomio de muchas va-
riables
22. Denicion de la funcion de evaluacion de
un polinomio de muchas variables.
23. Denicion de forma lineal
24. Denicion de forma cuadratica
25. Denicion de forma bilineal
26. Denicion de forma multilineal.
Captulo 6
1. Dena la suma directa de operadores li-
neales.
2. Dena los subespacios inveriantes de un
operador lineal.
3. Un OL se descompone como suma direc-
ta de dos OLs si y solo si el tiene dos su-
bespacios invariantes complementarios.
4. Dena los operadores lineales irreduci-
bles.
5. Demuestre que todo operador lineal se
descompone en suma de irreducibles.
6. Demuestre que si un operador lineal se
descompone en suma directa de otros dos
entonces, en cierta base su matriz es dia-
gonal por bloques (con dos bloques).
7. Dena la funcion de evaluaci on de un po-
linomio en un operador lineal.
8. La funcion de evaluaci on de polinomios
en un operador lineal es un morsmo de
algebras.
9. La imagen de la funcion de evaluacion de
polinomios es una subalgebra conmuta-
tiva del algebra de operadores lineales.
10. El nucleo del morsmo de evaluaci on en
h es un ideal de K[x].
11. Dena el polinomio mnimo de un ope-
rador lineal.
12. Dena el anulador de un conjunto de vec-
tores.
13. Dena el h-perodo de un conjunto de
vectores.
14. Invariancia de los nucleos.
15. Monotona de los nucleos.
16. per
h
(A) divide a p si y solo si A
ker p
h
.
17. per
h
(A) es el mnimo com un m ultiplo de
los perodos de los vectores en A.
18. Lema de Descomposici on de Nucleos.
19. Enuncie el Lema de los Perodos de los
Nucleos (sin demostracion)
20. Dena los operadores lineales radicales.
21. Si h es irreducible entonces, es radical.
22. Enuncie el Teorema de Descomposici on
en Componentes Radicales (sin demos-
traci on.
23. Para cualquier operador lineal h existe
un vector tal que su perodo es igual al
polinomio mnimo de h.
24. El conjunto End
F
(E) de todos los opera-
dores lineales que dejan invariante F es
una subalgebra de End(E).
25. La funci on End
F
(E) 3 h 7
e
h
End(E/F) es un morsmo de algebras.
26. Pruebe que f p
h
= p

h
.
27. per

h
(a + F) es un divisor de per
h
(a).
28. Denici on de h-combinaci on y sus coe-
cientes.
29. El conjunto de todas las h-
combinaciones de V es un subespacio
invariante.
30. Propiedades de incremento, monotona e
idempotencia de la h-cerradura (sin de-
mostraci on).
31. Denici on de Subespacio h-generado y
conjunto de vectores h-generador.
32. per
h
hVi
h
= per
h
V.
33. Denici on de subespacio h-cclico y de
operador cclico.
34. Denici on de conjunto h-independiente.
35. Si V = {v
1
, . . . , v
n
} es h-independiente
entonces hVi
h
= hv
1
i
h
hv
n
i
h
.
36. Denici on de h-base.
37. Denici on de matriz acompa nante de un
polinomio.
38. Sea h un OL cclico con polinomio mni-
260 Gua de estudio
mo p de grado n. Sea a un vector
h-generador. El conjunto de vectores

a, h(a) , . . . , h
n1
(a)

es una base del


espacio vectorial y la matriz de h en esta
base es la matriz acompa nante de p.
39. Si A es una h-base entonces, la dimen-
si on del espacio es igual a la suma de los
grados de los h-perodos de los vectores
en A.
40. Si A es una h-base entonces, el polinomio
mnimo de h es igual al mnimo com un
multiplo de los h-perodos de los vectores
en A.
41. Lema del perodo (sin demostraci on)
42. Lema del cociente.
43. Teorema de Existencia de h-bases.
44. Teorema de Descomposici on en Compo-
nentes Radicales Cclicas
45. Dena el tipo de una descomposici on.
46. Teorema de Unicidad del Tipo (sin de-
mostraci on).
47. Teorema de Caracterizacion de los OLs
irreducibles.
48. Sea h : E E un operador irreducible
con polinomio mnimo p
m
y E
k
= ker p
k
h
entonces, {0} = E
0
E
1
E
m
=
E.
49. Sea h : E E un operador irreducible
con polinomio mnimo p
m
y E
k
= ker p
k
h
entonces, E
k
= p
h
(E
k+1
).
50. Sea h : E E un operador irre-
ducible con polinomio mnimo p
m
y
E
k
= ker p
k
h
entonces, (E
k
= hxi
h
)
(E
k1
= hp
h
(x)i
h
)
51. Sea h : E E un operador irreducible
con polinomio mnimo p
m
de grado y
E
k
= ker p
k
h
entonces, dimE
k
= k.
52. Denicion de celda de Jordan.
53. Forma normal de Jordan (sin demostra-
ci on).
54. Denicion de un vector propio y un valor
propio de un operador lineal.
55. La recta hai es h-invariante si y solo si
a es un vector propio de h.
56. Denici on de polinomio caracterstico.
Cual es el grado del polinomio carac-
terstico (sin demostraci on).
57. Demuestre que las raices del polinomio
caracterstico son los valores propios.
58. Si h = f g entonces, el polinomio ca-
racterstico de h es igual al producto de
los polinomios caractersticos de f y g.
59. Si h es cclico entonces, los polinomios
mnimo y caracterstico de h coinciden.
60. Teorema de Hamilton-Caley-Frobenius.
Captulo 7
1. Denici on de Funcional Lineal
2. Denicici on del Espacio dual
3. Denici on de la base dual
4. Explique la diferencia entre los funcional
lineales y las formas lineales
5. Denici on de Transformacion Lineal
Dual
6. Explique que quiere decir que los covec-
tores son contravariantes
7. Denici on de funcional bilineal
8. Cual es la matriz de un funcional bili-
neal.
9. Que es la funcion ?
10. Cual es la inversa de la funci on
( ) = .
11. Dena los nucleos de los funcionales bi-
lineales
12. Si E y F son nito dimensionales y
es no singular entonces, dimE = dimF.
13. La funcion E E
#
3 (x, y) 7y(x) K
es un funcional bilineal no singular.
14. Cual es el isomorsmo can onico entre un
espacio y su doble dual.
15. Demuestre que los funcionales bilineales
no singulares est an en correspondencia
biunvoca con los isomorsmos entre un
espacio y su dual.
16. Denici on de anulador
17. Los anuladores son subespacios.
18. Si A B entonces B

.
19. A

= hAi

.
261 Gua de estudio
20.

A
21. Como se relacionan las dimensiones de A
y A

en el caso nito dimensional.


22. Cual es la diferencia entre funcinal bili-
neal y producto bilineal.
23. Demuestra que si un producto bilineal es
simetrico y alternante entonces la carac-
teristica del campo es 2.
24. Denicion de suma perpendicular (inter-
na y externa)
25. Denicion de plano simplectico
26. Caracterizaci on de los productos irredu-
cibles (enunciado y demostracion)
27. Denicion de espacios ortogonales y sim-
plecticos
28. La suma perpendicular de un espacio de
dimensi on 1 no nulo con un plano sim-
plectico es un espacio ortogonal.
29. Denicion de isomorsmo de espacios
con producto bilineal.
30. Si dos productos bilineales coinciden en
una base del espacio entonces, son el mis-
mo.
31. Cualesquiera dos espacios simplecticos
de la misma dimensi on nita son isomor-
fos.
32. Denici on de equivalencia cuadr atica
33. En cualquier campo nito hay tantas cla-
ses de equivalencia cuadr atica como rai-
ces cuadradas de la unidad.
34. Denici on de la huella de un espacio or-
togonal en una base.
35. Denici on de productos denidos positi-
vos.
36. Ley de inercia de Silvestre
37. Si K es un campo nito de caractersti-
ca diferente de 2 y es un elemento de
K que no es un cuadrado entonces, los
productos ortogonales en K
2
con huellas
{1, 1} y {, } son isomorfos.
38. Cuantos productos bilineales no isomor-
fos se pueden denir en un espacio de
dimension n sobre C, R y los campos -
nitos.

Potrebbero piacerti anche