Sei sulla pagina 1di 248

ES P A C IO S V E C T O R IA L E S

F IN IT O -D IM E N S IO N A L E S
por
P aul R. Halmos

Se presenta el álgebra lineal en


un espíritu axiomático puro. En
cada uno de las etapas el texto só-
para obtener el resultado deseado.
porqué necesariamente fallaría un

En esta nueva edición el profe­


sor Halmos ha agregado literal-
alejan de la rutina y hacen refle­
xionar al lector y que cubren todos
los aspectos de la teoría.
Muchos de los problemas llevan
del lector, pidiéndole que descubra
si la aseveración es verdadera o
falsa, demostrar que es verdadera,
formular un ejemplo contrario si
es falsa y estudiar las alteraciones
de hipótesis y las conclusiones que
haga que las verdaderas sean fal­
sas y las falsas verdaderas.

to como el enunciado tiene senti­


do, antes de desarrollar el meca-
E1 estudiante que intenta" aun sin
éxito, solucionar tales ejercicios
equívocos, está capacitado para re­
solver mejor los desarrollos subse-
ESPACIOS VECTORIALES FINITO— DIMENSIONALES
ESPACIOS VECTORIALES
FINITO—DIM EN SIO N A LES

Por
PAUL R. HALMOS
Profesor de Matemáticas
Universidad de Michigan

COMPAÑIA EDITORIAL CONTINENTAL. S. A.


Calzada de Tlalpan Núm. 4620. Milico 22. D. F.
SUCURSALES, DEPOSITOS Y REPRESENTACIONES EN:
ARGENTINA — Bolivia — Brasil — Colombia — Costa Rica — CHILE
Dominicana — Ecuador — Estados Unidos — ESPAÑA — Guatemala
Honduras — Nicaragua — Panamá — Paraguay — PERU — Portugal
Puerto Rico — El Salvador — Uruguay — VENEZUELA
Titulo original en inglés:
FINITE—DIMENSIONAL VECTOR SPACES

Traducido por:
PROF. GABRIEL AGUIRRE CARRASCO
Catedrático de la Universidad Autónoma de Puebla

Edición autorizada por:


D. VAN NOSTRAND COMPANY INC. - PRINCETON, NEW JERSEY

Librar? of Congress Catalog Card No. 58-8446

Primera edición en español:

MIEMBRO DE LA CAMARA NACIONAL


DE LA INDUSTRIA EDITORIAL
Registro Núm. 43

Derechos Reservados © Compañía Editorial Continental, S. A.


Calzada de T lalpan Núm . 4620 - México 22, D. F. - Primera
Edición en E spañol. - Octubre de 1965
PREFACIO

Mi propósito en este libro es tratar las transformaciones lineales


sobre espacios vectoriales finito dimensionales por los métodos de
teorías más generales. La idea es hacer hincapié en las nociones
geométricas simples comunes a muchas partes de las matemáticas
y sus aplicaciones, y hacerlo en un lenguaje que ponga de mani­
fiesto los secretos de la materia y diga al estudiante qué es lo que
está en el fondo de la mente de gente que prueba teoremas sobre
ecuaciones integrales y espacios de Hilbert. Sin embargo, el lector
no tiene que participar de mi prejuiciada motivación. Con excep­
ción de alguna referencia ocasional a matemática de subgraduados.
el libro es autárquico y puede ser leído por cualquiera que trate de
lograr cierta percepción de los problemas lineales usualmente dis­
cutidos en curso sobre teoria de matrices o álgebra "más elevada".
Los métodos algebraicos, libres de coordenadas, no pierden poder
y elegancia por especialización a un número finito de dimensiones, y
son. en mi opinión, tan elementales, como el tratamiento clásico
de coordenadas.
Originalmente tuve el propósito de que este libro contuviera
un teorema si y sólo si existe una generalización infinito-dimen-
sion.il del mismo. La tentadora facilidad de algunas nociones y
resultados finito-dimensionales fue, sin embargo, irresistible y en
d resultado final mis intenciones iniciales eran apenas visibles. Se
sen muy claramente en el énfasis, puesto en todas partes en méto­
dos generalizables, en vez de resultados lo más precisos posibles. El
lector puede algunas veces ver algún método obvio de acortar las
yniebas que doy. En esos casos las posibilidades son de que el análo­
go infinito-dimensional de la prueba más corta sea mucho más
larga o también no existente.
Durante varios años ha estado circulando una edición prelí-
remar del libro (Anales de Estudios Matemáticos, No. 7, publicado
por primera vez por la Princeton University Press en 1942). Ade­
más de algunos cambios menores en estilo y orden, la diferencia entre
b versión precedente y ésta es la que la segunda contiene el si-
gmente material nuevo: (1) Una breve discusión de campos y, en
d tratamiento de espacios vectoriales con productos interiores, espe­
cial atención al caso real. (2 ) Una definición de deterffiinantes en
6

términos de invariantes, vía la teoría de formas multilineales. (3 )


Ejercicios.
Los ejercidos (m ás de trescientos) constituyen una importante
adición; espero que resultarán útiles tanto para el estudiante, como
para el maestro. Hay dos cosas sobre los mismos que el lector de­
bería conocer. Primero, si un ejerdcio no es ni imperativo (“prué­
bese que. . . ”) ni interrogativo ("¿es verdad que. . . ? ”), sino mera­
mente declarativo, entonces se ofrece como un tema a discusión.
Para esos ejercidos se pide al lector que descubra si la aserdón
es verdadera o falsa, que pruebe si es verdadera y construya un
contraejemplo si es falsa y, lo que es más importante de todo,
discuta las alteraciones de hipótesis y conclusión que hagan falsas
las verdaderas, y verdaderas las falsas. Segundo, los ejercicios, cual­
quiera que sea su forma gramatical, no se colocan siempre de
modo que su misma posición constituya una pista para su solu­
ción. Frecuentemente se enuncian los ejerddos tan pronto como
Ninguno de los teoremas y sólo muy pocos de los ejerddos
desarrollado la maquinaria para una rápida soludón. Un lector
que trate (aun sin buen éxito) de resolver esos ejerddos “mal
colocado”, es probable que aprecie y comprenda mucho mejor los
desarrollos subsecuentes para su intento. Teniendo en cuenta posi­
bles ediciones futuras de este libro, pido al lector me dé a conocer los
errores de los ejerddos y me sugiera mejoras y adiciones. (Es
innecesario decir que lo mismo es bueno respecto al texto.)
Ninguno de los teoremas y sólo muy pocos de los ejerddos
han sido descubrimientos míos; la mayor parte de ellos son cono­
cidos de los matemáticos en ejercicio y han sido conocidos durante
largo tiempo. Aunque no doy una detallada lista de mis fuentes,
estoy, sin embargo, perfectamente enterado de mi deuda con los
libros y papeles en que aprendí y con los amigos y conocidos que,
antes de la publicación de la primera versión, me dieron mucha
crítica y aliento valiosos. Estoy particularmente agradeddo a tres
personas: J. L. Dobb y Arlen Brown, que leyeron todo el manus­
crito de la primera y segunda versión, respectivamente, e hicieron
muchas sugestiones útiles, y a John von Neumann, quien fue uno
de los creadores del método y espíritu modernos que he tratado de
presentar, y cuyas enseñanzas fueron una inspiración para este

P. R. H.
C O N T E N I D O

C ap . PAg-
1. ESPACIOS ...................................................................................... 9

1. Campos, 9; 2. Espacios vectoriales, 11; 3. Ejemplos, 12;


4. Comentarios, 14; 5. D ependencia lineal, 16; 6. Combina­
ciones lineales, 18; 7. Bases, 19; 8. Dimensión, 23; 9. Iso-
m orfismo, 24; 10. Subespacios, 26; 11. Cálculo de subespa-
cios, 27; 12. Dimensiones de u n subespacio, 29; 13. Espacios
duales, 30; 14. Corchetes, 32; 15. Bases duales, 33; 16. Re-
flexividad, 35; 17. Aniquiladores, 37; 18. Sum as directas, 40;
19. Dimensión de u n a sum a directa, 42; 20. Dual de u n a
sum a directa, 43; 21. Espacios por cocientes, 45; 22. Di­
mensión de un espacio cociente, 46; 23. Form as bilineales,
48; 24. Productos tensoriales, 51; 25. Bases de productos, 53;
26. Permutaciones, 55; 27. Ciclos, 58; 28. Paridad, 60; 29.
Form as multilineales, 62; 30. Form as alternas, 64; 31. For­
m as alternas de grado máximo, 67.

S. TRANSFORMACIONES L IN E A L E S......................................... 71

32. Transform aciones lineales, 71; 33. Transform aciones


como vectores, 72; 34. Productos, 75; 35. Polinomios, 76; 36.
Inversos, 79; 37. M atrices, 82; 38. Matrices de transform a­
ciones, 85; 39. Invariancia, 90; 40. Reducibilidad, 91; 41. Pro­
yecciones, 92; 42. Com bnaciones de proyecciones, 93; 43.
Proyecciones e invariancia, 96; 44. A djuntos, 98; 45. Ad­
juntos de proyecciones, 100; 46. Cambio de base, 102; 47.
Similaridad, 104; 48. Transform aciones por cociente, 109;
49. Alcance y espacio nulo, 110; 50. Rango y nulidad, 112; 51.
Transform aciones de rango uno, 114; 52. Productos tenso­
riales de transformaciones, 117; 53. D eterm inantes, 121; 54.
Valores propios, 126; 55. Multiplicidad 127; 56. Form a trian­
gular, 130; 57. N ilpotencia, 133; 58. Form a de Jordán, 137.
Cap . PAG.
3. ORTOGONALIDAD 145

59. Productos interiores, 145; 60. Productos interiores com­


plejos, 147; 61. Espacios de productos interiores, 148; 62. Or-
togonalidad. 149; 63. Completividad, 152; 64. Desigualdad de
Schwarz, 153; 65. Conjuntos ortonormales completos, 157; 66
Teorema de las proyecciones, 158; 67. Funciones lineales,
159; 68. Paréntesis contra corchetes, 161; 69. Isomorfismos
naturales, 162; 70. Transformaciones autoadjuntas, 166; 71.
Polarización, 168; 72. Transformaciones positivas, 170;
73. Isometrías, 173; 74. Cambio de bases ortonormales, 175;
75. Proyecciones perpendiculares, 178; 76. Combinaciones de
proyecciones perpendiculares, 80; 77. Complejificación, 183;
78. Caracterización de espectros, 186; 79. Teorema espectral,
189; 80. Transformaciones normales, 193; 81. Transform a­
ciones ortonormales, 197; 82. Funciones de transformacio­
nes, 200; 83. Descomposición polar, 204; 84. Conmutativi-
dad, 207; 85. Transformaciones autoadjuntas de rango uno,
208.

4. ANALISIS ............................................................................. 211

86. Convergencia de vectores, 211; 87. Norm a, 212; 88. Ex­


presiones para la norma, 214; 89. Límites de una transfor­
mación autoadjunta, 216; 90. Principio minimax, 217; 91.
Convergencia de transformaciones lineales, 219; 92. Teore­
ma ergódico, 222; 93. Series de potencias, 223.

Apéndice. ESPACIO DEHILBERT ............................................. 227

Lecturas que se recomiendan ................................................... 233

Indice de símbolos ....................................................................... 235

Indice alfabético ........................................................................... 237


CAPITULO 1

ESPACIOS

§1. CAMPOS

En lo que sigue tendremos ocasión de usar varias clases de


números (tales como la clase de todos los números reales o la clase
de todos los números complejos). En virtud de que no seria posi­
ble, en esta etapa inicial, confinamos dentro de ninguna clase en
particular, adoptaremos el expediente de referimos a los números
como escalares. El lector no perderá nada esencial si consistente­
mente interpreta los escalares como números reales o como núme­
ros complejos; en los ejemplos que habrán de estudiarse aparecerán
ambas clases. Para ser más concretos (y también para operar en el
nivel adecuado de generalidad) procederemos a listar todos los
hechos generales que será necesario suponer con respecto de los es-

(A) A cada par, a y /9, de escalares corresponde un escalar


a + p. llamado la suma de a y p, de manera que
(X) la adición es conmutativa, a + p = p + a,
( 2) la adición es asociativa, a + ( p + y) = (a + p ) + y,
( 3 ) existe un escalar único, 0 (llamado cero), tal que a + 0 = a
para todo escalar a, y
C4) a cada escalar no-cero a corresponde un escalar único
que a + ( - a ) = 0.
(B) A cada par, a y p, de escalares corresponde un escalar ap,
llamado el producto de a y p, en tal forma que
( 1 ) la multiplicación es conmutativa, ap = /Ja,
(2 ) la multiplicación es asociativa, a(Py) = (a/3)y,
(3 ) existe un escalar único, distinto de cero, o no cero, 1
(llamado uno), tal que a l = a para cada escalar a,-y
(4 ) a cada escalar no cero « corresponde un escalar único <r'
^o tal que <mt> = 1.

(C) La multiplicación es distributiva con respecto de la adición,


o(/J + r ) = «/} + «y.
Si la adición y la multiplicación se definen dentro de algún
conjunto de objetos (escalares), de manera que se satisfagan las
condiciones (A ), (B) y (C ), entonces ese conjunto (juntamente
con las operaciones dadas) se llama un campo. Así, por ejemplo, el
conjunto Q de todos los números racionales (con las definiciones
ordinarias de suma y producto) es un campo, y lo mismo es cierto
respecto del conjunto <R de todos los números complejos. Y el con­
junto 6 de todos los números complejos.
EJERCICIOS
I. Casi todas las leyes de la aritmética elemental son consecuencia de
los axiomas que definen un campo. Pruébese, en particular, que si 5 , es un

(b) SI+»°+ 0°'= a + y. entonces 0 = y.


(c) a + (fi - .) = 0. (Aqui 0 - a = 0 + ( - «).)
(d) 0-0 = 0-a = 0. (Para claridad o énfasis, usamos algunas veces el

En cuanto a "positivo'', indicamos con esta palabra, aqui y en todo este libro,
"mayor que o igual a cero". Si ha de excluirse a cero, diremos "estrictamente
positivo".)
(c) ¿Pueden cambiarse las respuestas a estas preguntas volviendo a de­
finir la adición o la multiplicación, o ambas?
3. Sea m un entero, m > 2. y sea el conjunto de todos los enteros
sea a + 0 el menor resto positivo obtenido m dividiendo la suma (ordinaria)
de a y 0 por m, y de modo semejante, sea a0 el menor resto positivo obtenido
dividiendo el producto (ordinario) de a y 0 por m. (Ejemplo: al m = 12,

(b) ¿Qué es - 1 ra Z,? 1,0


(c) ¿Qué es % en Z.T _
leyes elementales de la aritmética son válidas en los campos; en Zr, por

crucial en el segundo.)
S. Sea <X-v/5) el conjunto de todos los números reales de la forma
a + ffy /2, donde « y p son racionales.
(a) ¿Es tJíVJ) un campo?
(b) ¿Y qué si se requiere que o y 0 sean enteros?

y (a,ffl + ( r , i ) - ( o + 7 ,í + J)
(«,»(■?, «-(ory./W),

(b) Si la adición y la multiplicación se definen como


y (o,ffl + (T ,» -(o + Y.Í + fl
S)(y, S) - (ar, - ffS,aS+ frr),
l 5 es. entonces, un campo?
(c) ¿Qué sucede (en los dos casos anteriores), consideramos pares or­
denados de números complejos?

§ 2. ESPACIOS VECTORIALES
Llegamos ahora al concepto básico de este libro. Para la defi­
nición que sigue suponemos que se nos da un campo particular
los escalares que han de usarse habrán de ser elementos de 7.
Definición. Un espacio vectorial es un conjunto t) de ele­
mentos que satisfacen los siguientes axiomas.
(A) A cada par, x y y, de vectores en v corresponde un vector
x + y, llamado la suma de x y y, en tal forma que
( 1 ) la adición es conmutativa, x + y = y + x,
(2) la adición es asociativa, x + (y + x ) = ( x +_«/) + z,
( 3 ) Existe e n t ) un vector único 0 (llamado el origen), tal que
x + 0 = x, para cada vector x, y
( 4 ) A cada vector x e n u corresponde un vector único —x, tal
que x + ( —x ) = 0.
(B) A cada par, a y x, donde a es un escalar y x es un vector
en ti, corresponde un vector ax, en V, llamado el producto de a y
x, en tal forma que
(1 ) La multiplicación por escalares es asociativa, a(fix) =
(«P)x. y
( 2) lx = x para todo vector x.
( C ) ( 1 ) La mult plicación por escalares es distributiva con res­
p ecto^ la adición de vectores, (o + j8)x = «x + /Jx.
(2 ) La multiplicación por vectores es distributiva con respecto a la
adición escalar (« + p )x = ax + @x.
No se pretende que estos axiomas son lógicamente indepen­
dientes; son meramente una conveniente caracterización de los obje­
tos que deseamos estudiar. La relación entre un espacio vectorial u
y el campo subyacente 5 es usualmente descrita diciendo que v
es un espacio vectorial sobre S. Si ff es el campo <R de números
reales, ü se llama un espacio vectorial real; de modo semejante,
si 5 es Q o si 5 es e, hablamos de espacios vectoriales racionales
o de espacios vectoriales complejos.

5 3. EJEMPLOS
Antes de discutir las implicaciones de los axiomas, damos algu­
nos ejemplos. Nos referiremos a estos ejemplos u n a y otra vez, y
usaremos la notación aquí establecida en todo el resto de nuestro
trabajo.
( 1 ) Sea e ‘( - C) el conjunto de todos los números complejos;
si interpretamos x + y y «x como adición numérica compleja común
y multiplicación, respectivamente, e 1 se convierte en u n espacio
vectorial complejo.
( 2 ) Sea <p el conjunto de todos los polinomios, con coeficientes
complejos, en una variable t. Para convertir a ( en u n espacio
vectorial complejo, interpretamos la adición vectorial y la multi­
plicación escalar como la adición ordinaria de dos polinomios y
como la multiplicación de un polinomio por un número complejo,
respectivamente; el origen de f es el polinomio idéntico a cero.
El ejemplo ( 1 ) es demasiado sencillo y el ejemplo ( 2 ) es de-
(como veremos después, es suficientemente general para todos
nuestros propósitos.
(3 ) Sea C", n = 1, 2, • • • , el conjunto de todos los n tupios
de números complejos. Si x = ({„ • ■•, {„) y y = (y. ■• •, v .) son
elementos de e", escribimos, por definición,
* + V “ (ft + Vii ■• 'i {» + n%),
ax - (ofi, •••,<«$.),
0 - (0, •••,0),
-{.)■
Es fácil verificar que todas las partes de nuestros axiomas (A).
(B) y (C ), § 2, se satisfacen, de manera que C" es un espacio
vectorial complejo; será llamado espacio complejo coordenado n-
dimensional.
(4 ) Para cada entero positivo n, sea <?„ el conjunto de todos los
polinomios (con coeficientes complejos, como en el ejemplo (2 ))
de grado g n — 1, juntamente con el polinomio idéntico a cero.
(En la discusión usual de grado, el grado de este polinomio no está
definido, de manera que no podemos decir que tenga un grado
g n - 1.) Con la misma interpretación de las operaciones lineales
(adición y multiplicación escalar) que en (2), í>. es un espacio
vectorial complejo.
( 5 ) Un pariente cercano de e" es el conjunto ai" de todos
los n-tuplos de números reales. Con las mismas definiciones for­
males de adición y multiplicación escalar que para C", excepto que
ahora consideramos solamente escalares reales «, el espacio «*
es un espacio vectorial real; será llamado espacio n-dimensional
real coordenado.
( 6) Todos los ejemplos precedentes pueden generalizarse. Así,
por ejemplo, puede describirse una obvia generalización de ( 1) di­
ciendo que todo campo puede ser considerado como un espacio
vectorial sobre si mismo. Una generalización común de (3 ) y de
(5 ) comienza con un campo arbitrario ¡F y forma el conjunto 5*
de n-tuples de elementos de 5; las definiciones formales de las
operaciones lineales son las mismas que para el caso J - C.
(7 ) Un campo, por definición, tiene cuando menos dos ele­
mentos; un espacio vectorial, en cambio puede tener solamente
uno. Puesto que todo espacio vectorial contiene un origen, hay esen-
clalmente (esto es, por notación), solamente un espacio vectorial
que tenga solamente un vector. Este espacio vectorial sumamente
trivial será denotado por 0.
( 8) Si, en el conjunto <R de todos los números reales, se define
la adición como de costumbre y la multiplicación de un número
real por un número racional se define como de costumbre, entonces
dt se convierte en un espacio vectorial racional.
(9 ) Si, en el conjunto e de todos los números complejos, la
adición se define como de costumbre y la multiplicación de un
número complejo por un número real se define como de costumbre,
entonces C se convierte en un espacio vectorial real. (Compárese este
ejemplo con ( 1 ); son enteramente diferentes.)

§ 4. COMENTARIOS
Proceden algunos comentarios sobre nuestros axiomas y nota­
ción. Hay sorprendentes similaridades (e igualmente sorprendentes
diferencias) entre los axiomas de un campo y los axiomas de un
espacio vectorial sobre un campo. En ambos casos, los axiomas
(A) describen la estructura aditiva del sistema, los axiomas (B)
describen su estructura multiplicativa, y los axiomas (C) describen
la conexión entre las dos estructuras. Los familiarizados con la
terminología algebraica habrán reconocido los axiomas (A ) (tanto
en el § 1 como en el § 2) como las condiciones que definen un
grupo abeliano (conmutativo); los axiomas (B ) y (C) (en el § 2),
expresan el hecho de que el grupo admite escalares y operadores.
Mencionamos de paso que si los escalares son elementos de un
anillo (en vez de un campo), el concepto generalizado correspon­
diente a un espacio vectorial se llama módulo.
Espacios especiales vectoriales reales (como « ’ y «*) son fa­
miliares en geometría. Parece no haber excusa en esta etapa por
nuestra insistencia, sin aparente interés, en campos distintos de di,
y, en particular, en el campo c de números complejos. Esperamos
que el lector esté dispuesto a confiar en que tendremos que hacer
uso posteriormente de profundas propiedades de los números com­
plejos. (conjugación, oclusión algebraica) y que los números comple­
jos desempeñan un papel importante tanto en las aplicaciones de
los espacios vectoriales a la ffsica moderna (mecánica cuántica),
como a la generalización matemática de nuestros resultados en el
espacio de Hilbert. Su única gran desventaja es la dificultad de
representación gráfica; la representación gráfica ordinaria (diagra­
ma de Argand) de e 1 no se distingue de la de «*, y una represen­
tación gráfica de e3 parece estar fuera del alcance humano. En
las ocasiones en que tengamos que usar lenguaje gráfico, usaremos
en consecuencia la terminología de <R" en c", y hablar de e2, por
ejemplo, como de un plano.
Finalmente, hacemos un comentario sobre la notación. Obser­
vamos que el símbolo 0 ha sido usado con dos significados: una
vez como escalar y una vez como vector. Para hacer peor la situa­
ción, posteriormente, cuando introduzcamos las funcionales lineales
y las transformaciones lineales le daremos otros significados más.
Afortunadamente las relaciones entre las varias interpretaciones
de 0 son tales que, después de esta palabra de advertencia, no debe
suscitarse confusión por esta práctica.

EJERCICIOS

(?) - ? = < - » r ° “ 0 b 0> x 0 (o “ bo*)


(*> ¥ + < » - * > = x. (Aqui X - y = x + ( - »).)
2. Si p es una prima, entonces Z,' es un espacio vectorial sobre Z,
(rf. { 1. Ex. 3); ¿cuántos vectores hay en este espacio vectorial?
SI x = (£„ {.) y*»1= (?,. »,) son elementos de V. escriba

« -(< * ,< »
0 —(0, 0)
- * - < - 6, - 6).

4. Algunas veces un subconjunto de un espacio vectorial es él mismo


un vector espacial (con respecto de las operaciones lineales ya dadas).
Considérese, por ejemplo, el espacio vectorial e’ y los subconjuntos V de
§ 5. DEPENDENCIA LINEAL

Ahora que hemos descrito los espacios con que trabajaremos,


debemos especificar las relaciones entre los elementos de esos es­
pacios que serán de interés para nosotros.
Comenzaremos con unas cuantas palabras sobre la notación
de la suma. Si correspondiendo a cada uno de un conjunto de
índices i hay un vector dado x,, y si no es necesario o no es conve­
niente especificar exactamente el conjunto de Indices, simplemente
hablaremos de un conjunto {x,} de vectores. (Admitimos la posi­
bilidad de que el mismo vector corresponda a dos índices distintos
Con toda honradez, en consecuencia, debe enunciarse que lo impor
tante no es cuáles vectores aparezcan en {xi}, sino cómo aparecen.)
Si el conjunto de Índices que se considera es finito, denotaremos la
suma de los correspondientes vectores por x,- (o, cuando sea
deseable, por un símbolo más explícito, como ¿?_,x¡). A fin de
evitar frecuentes y molestas distinciones de casos, es buena idea
admitir dentro de la teoría general sumas como x , , aun cuando
no hay índices i que hayan de sumarse o, más precisamente, aun
cuando esté vacío el conjunto de índices que se considera. (En ese
caso, por supuesto, no hay vectores que sumar o, más precisamente,
el conjunto (xi) está también vacío). El valor de esa “suma vacía"
se define, con toda naturalidad como el vector 0.
Definición. Un conjunto finito {xt> de vectores es linealmen­
te dependiente, si existe un conjunto correspondiente {a,} de esca­
lares. no todos cero, tales que
“¡xi = 0.
Si. por otra parte, aíi¡ = 0 implica que a, = 0 para cada i,
el conjunto (xi) es Unealmente independiente.
La redacción de esta definición está hecha en forma que cubra
el caso del conjunto vacio; el resultado en ese caso, aunque posible­
mente paradójico, se enlaza muy satisfactoriamente al resto de la
teoría. El resultado es que el conjunto vacío de vectores es linealmen­
te independiente. En realidad, si no hay índices i, entonces no es
posible escoger algunos de ellos y asignar a los seleccionados un
escalar distinto de cero, de manera que cierta suma desaparezca.
La dificultad no está en evitar la asignación de cero; está en encon-
rar un índice al cual algo pueda ser asignado. Nótese que este argu­
mento muestra que el conjunto vacío no es linealmente dependiente;
para el lector no familiarizado con el “argumento de vacuidad", la
equivalencia de la definición de independencia lineal con la nega­
ción directa de dependencia lineal, necesita un poco más de justi­
ficación intuitiva. El modo más fácil de sentirse cómodo con respec­
to de la aserción a,x¡ - 0 implica que « = 0 para cada t", en
caso de que no haya índices i, es volverla a redactar en esta forma:
“si a(c¡ —0, entonces no hay índice i para el cual a, 0. Esta
versión es obviamente verdadera sí no existe ningún índice i.
La dependencia y la independencia lineales son propiedades de
conjuntos de vectores; se acostumbra, sin embargo, aplicar esos
adjetivos a los vectores mismos, y así, algunas veces diremos “un
conjunto de vectores linealmente independientes", en vez de “un con­
junto linealmente independiente de vectores". Será conveniente tam­
bién hablar de la dependencia e independencia lineales de un con­
junto no necesariamente finito, a:, de vectores. Oiremos que *r es
linealmente independiente si lo es cada subconjunto finito de X ;
de otro modo X es linealmente dependiente.
Para lograr una mayor comprensión del signifcado de la depen­
dencia lineal, estudiemos los ejemplos de espacios vectoriales que
ya tenemos.
( 1) Si x y y son dos vectores cualesquiera en e 1, entonces x y
y forman un conjunto linealmente dependiente. Si x = y = 0, esto
es trivial; si no, entonces tenemos, por ejemplo, la relación yx +
( - x ) y = 0. Puesto que está claro que todo conjunto que contiene
un subconjunto linealmente independiente, es él mismo linealmente
dependiente, esto demuestra que en e l cada conjunto que contiene
más de un elemento es un conjunto linealmente dependiente.
(2) Más interesante es la situación en el espacio i?. Los vectores
x , y y z , definidos por
v(Q - « i - O,
*(o - 1 - e,
son, por ejemplo, linealmente dependientes, puesto que x + y - z
= 0. Sin embargo, el conjunto infinito de vectores Xo, x, x,, . . . . de­
finido por
*«(0 - 1, *i(0 - *. *«(0 -**, •••>
es un conjunto linealmente independiente, pues si tuviéramos cual­
quier relación de la forma
oo*o + 01*1 -I b efe*, - 0,
tendríamos entonces una identidad polinómica
oo + ail + • • •+ o , f = 0,
de donde

(3) Como mencionamos anteriormente, los espacios e" son el


prototipo de lo que deseamos estudiar: examinemos, por ejemplo
el caso n = 3. A los que están familiarizados con la geometría de
más alto número de dimensiones, la noción de dependencia lineal
en este espacio (o, más propiamente hablando, en su análogo real
Sts) tiene un significado geométrico concreto, que solamente men­
cionaremos. En lenguaje geométrico, dos vectores son linealmente
dependientes si y sólo si son coplanares con el origen. (Si uno piensa
en un vector no como un punto en un espacio, sino como una flecha
que apunta desde el origen a algún punto dado, el enunciado ante­
rior podría modificarse tachando la expresión "con el origen" las dos
veces que ocurre). Introduciremos inmediatamente la noción de múl­
tiples lineales (o subespacios vectoriales) en un espacio vectorial y,
en ese respecto, ocasionalmente usaremos el lenguaje sugerido por
tales consideracionese geométricas.

§ 6. COMBINACIONES LINEALES
sencillas implicaciones gramaticales de esta terminología. Diremos,
pues, en caso de que x sea una combinación lineal de {xi}, que x
es linealmente dependiente de {x;}, dejaremos al lector la prueba de
que si (*,} es liealmente independiente, entonces una condición su­
ficiente y necesaria para que x sea una combinación lineal de (xi)
es que el conjunto agrandado que se obtiene uniendo x a (Xi), sea
lincalmente dependiente. Nótese que, de acuerdo con la definición
de una suma vacía, el origen es una combinación lineal del conjunto
vacio de vectores; es, además, el único vector con esta propiedad.

Teorema. El conjunto de vectores no-cero x es lineal-


mente dependiente si y sólo si xk, 2 £ k £ ti, es una combinación
lineal de los precedentes.
Prueba. Supongamos que los vectores x„ . . . , x» son linealmen­
te dependientes y sea k el primer entero entre 2 y n para el cual
x„ , x* son linealmente dependientes. (En el caso de lo peor, nues­
tro supuesto nos asegura de que bastará con hacer k = n ). Entonces
<*1X1 H 1- asxk - 0
para un adecuado conjunto de alfas (no todas cero); además, cuales­
quiera que sean las alfas, no podemos tener a, = 0, pues entonces
tendríamos una relación de dependencia lineal entre x Xt-i-
contraria a la definición de k. De aquí

como había de ser probado. Esto prueba la necesidad de nuestra con­


dición; la suficiencia es clara, puesto que, como hemos observado
anteriormente, cada conjunto que contiene un conjunto linealmente
dependiente, lo es también.

§ 7. BASES
Definición. Una base (lineal) (o un sistema de coordenadas)
en un espacio vectorial v es un conjunto X de vectores linealmente
independientes tales que cada vector de v es una combinación lineal
de elementos de a:. Un espacio vectorial v es finito-dimensional si
tiene una base finita.
Excepto para la ocasional consideración de ejemplos-restringiré-
mos nuestra atención, en todo este libro, a espacios vectoriales
finito-dimensionales.
Para ejemplos de bases, volvemos de nuevo a los espacios 9 y e \
En <P,el conjunto (*.}, donde x„(t) = P , n = 0, 1, 2 es una
base; cada polinomio es, por definición, una combinación lineal de
un número finito de x„. Además, 9 no tiene base finita, pues dado
cualquier conjunto finito de polinomios podemos hallar un polinomio
de grado más alto que cualquiera de ellos; este último polinomio, ob­
viamente, no es una combinación lineal de los anteriores.
Un ejemplo de una base en e" es el conjunto de vectores x¡,
1 = 1, . . . . n, definido por la condición de que la coordenada de
orden j de x, sea 8¡(. (Aquí usamos por primera vez la popular 8
de Kronecker; se define como Si, = 1, si i = j y 8„ = 0, si i=£j).
Afirmamos asi que en e8los vectores x, = ( 1, 0, 0 ), x, = (0, 1, 0) y
x, = (0, 0, 1 ) forman una base, es fácil ver que son linealmente in
dependientes; la fórmula
* - ( { ., fe, + &** + &**
prueba que cada x de e8es una combinación lineal de los mismos.
En un espacio vectorial finito dimensional general v , con base
{x,. . . , x.}, sabemos que toda x puede escribrse en la forma
*-
afirmamos que las ( están determinadas univócamente por x. La prue­
ba de esta afirmación es un argumento usado a menudo en la teoría
de la dependencia lineal. Si tuviéramos x = tj,*,-, tendríamos, por
sustracción,
£ ( (fe - *)*. - 0.
Puesto que las x, son linealmente independientes, esto implica que
fe —i)i = 0 para i = 1, . . ., n; en otras palabras, las ( son iguales que
las i¡. (Obsérvese que escribir (x,,........ x.) para una base con n ele­
mentos no es lo que apropiadamente debe hacerse en caso de que
n = 0. No obstante, usaremos frecuentemente esta notación. Cada
vez que se hace eso es, en principio, necesario adjuntar una discusión
separada, designada para cubrir el espacio vectorial 0. De hecho, sin
embargo, todo lo relativo a ese espacio es tan trivial que los detalles
no son dignos de asentarse y los omitiremos.)
Teorema. Si v e s un espacio vectorial finito dimensional y si
{!(„ • • •. í-> es un conjunto cualquiera de vectores linealmente inde­
pendientes en 1), entonces, a menos de que las y formen ya una base.
podemos encontrar vectores ym„, . . ym„, de manera que la totalidad
de las y. esto es {y ym, y*.,...........y*.,), sea una base. En otras
palabras, todo conjunto linealmente independiente puede ampliarse
de modo que constituya una base.
Prueba. Puesto que v e s finito-dimensional, tiene una base fini­
ta. digamos (x x,}. Consideramos el c o njuntos de vectores

en este orden y aplicamos a este conjunto el teorema del §6 varias


veces en sucesión. En primer lugar, el conjunto S es linealmente
dependiente, puesto que las y son (como todos los vectores) combina­
ciones lineales de las x. De aquí que algún vector de S sea una com­
binación lineal de los precedentes; sea z el primero de esos vectores.
Entonces z es diferente de cualquier y¡, i = 1, . . . . m (puesto que
las y son linealmente independientes), de manera que z es igual
a alguna x, digamos z = x,. Consideramos el nuevo conjunto S' de

Observamos que todo vector de v es una combinación lineal de vec­


tores en s', puesto que por medio de y,, . . ., y„, x „ - ■., x,., podemos
expresar x, y entonces por medio de x„ . . . , Xi-,, x¡, Xi„ x„ pode­
mos expresar cualquier vector (las x forman una base). Si S' es li­
nealmente independiente, ya está. Si no lo es, aplicamos el teorema
} 6 una y otra vez en la misma form a, hasta que lleguemos a un
conjunto linealmente independiente que contenga y, y„, en
términos del cual podemos expresar cualquier vector de v . Este
último conjunto es una base que contiene las y.

EJERCICIOS
«í, + ós, + rt, = o.
«fe + fii, + W, = o.
«fe + Os. + 11, = o.
Los vectores x, y y z son linealmentc dependientes si y sólo si estas ecuaciones

y(l) = I. t( 0 = t, z(t) = t'. 1 u(t) = 1 + I + l=, pruébese que *, y. a y


u son linealmente dependientes, pero que tres cualesquiera de ellos son
linealmente independientes.
2. Pruébese que si (R es considerado como un espacio racional vectorial
(véase i 3, (8).). entonces una condición necesaria y suficiente para que los
vectores 1 y ( de ót sean linealmente independientes es que el número
3. ¿Es verdad que si x. y y z son vectores linealmente independientes,
entonces también lo son x + y, y + t, y i + xl
4. (a) Bajo qué condiciones impuestas al escalar i son lincalmente de-
(b) ¿Bajo qué condiciones impuestas al escalar ( son linealmente depen-
(c) ¿Cuál es la respuesta a (b) para Q* (en lugar de ót* )?

»s escalares (
e & son lincalmente dependientes?
(b) Bajo qué condiciones impuestas a los escalares í.
a generalización de (a) y (b)

8 (a) ¿Bajo qué o


de 6* los vectores (1. 1. 1) y (1. fe (»)?
(b) ¿Bajo que condiciones impuestas al escalar ( forman una base de í
los vectores (0. 1, ¡), ({. 0. 1) y (fe 1. 1. + ()?
9. Considérese el conjunto de todos los vectores de C* cada una de
cuyas coordenadas es 0 o 1; ¿cuántas bases diferentes contiene este conjunto?
10. SI ÍC es el conjunto consistente en los seis vectores (1, 1. 0. 0>, (1.
0 1. 0). (1. 0. 0. 1). (0. I. 1. 0). (0. 1. 0. 1), (0, 0. 1. 1) de C*. en­
cuéntrense dos subconjuntos maxlmales de“X. linealmente independientes.
de X que se hace Unealmente independiente cada vez que se adjunta
a SC un vector de *21 que no está aún en *9.)
§ 8. DIMENSION

T eorema 1. El número de elementos de cualquier base de un


espacio finito-dimensional V , es el mismo que para cualquiera

Prueba. La prueba de este teorema es un ligero refinamiento


del método usado en el § 6, también, incidentalmente, prueba algo
más de lo que enuncia el teorema. Sean X = {*„ . . . , x,) y
y = (y, ym) dos conjuntos finitos de vectores, cada uno con
una de las dos propiedades definitorias de una base; esto es, supo­
nemos que todo vector de V es una combinación lineal de las x
(pero que no que las x son linealmente independientes), y supo­
nemos que las y son linealmente independientes (pero no que cada
vector es una combinación lineal de las mismas. Aplicamos el
teorema § 6, justamente como anteriormente, al conjunto S de
vectores

Sabemos, por otra parte, que todo vector es una combinación de


vectores de S y que S es linealmente independiente. Razonado
justamente como antes, obtenemos un conjunto i' de vectores

de nuevo con la propiedad de que todo vector es una combinación


lineal de vectores de i'. Ahora escribimos en frente de los
vectores de $' y aplicamos el mismo argumento. Continuando
en esta forma, vemos que las x no se agotarán antes de las y, pues
de otro modo las y que permanecieran tendrían que ser combina­
ciones lineales de las ya incorporadas a s , pero sabemos que las y
son linealmente independientes. En otras palabras, después de que
el argumento ha sido aplicado m veces, obtenemos un conjunto con
la misma propiedad que tenían las x, y este conjunto difiere del
conjunto de las x en que m de ellas son reemplazadas por las y. Este
enunciado, aparentemente Inocente, es lo que estamos buscando;
implica que n g m. Consecuentemente, si tanto X como D son
bases (de manera que cada una tenga ambas propiedades), enton-
D efinición. La dimensión de un espacio vectorial finito-di-
mensional es el número de una base de 1).
Obsérvese que puesto que el conjunto vacío de vectores es una
base del espacio trivial 0, la definición implica que ese espacio

el hecho de que ya hemos exhibido, en el § 7, una base particular


de e") justifica por fin nuestra terminología y nos faculta para
anunciar el grato resultado: el espacio de coordenadas n-dimen-
sionales, es n-dimensional. (Puesto que el argumento es el mismo
para A’ y para e", la aserción es verdadera tanto en el caso real
como en el complejo).
Nuestro siguiente resultado es un corolario del Teorema 1 (via
el teorema del § 7).
T eorema 2. Todo conjunto de n + 1 vectores en un espacio
vectorial n-dimensional V es linealmente dependiente. Un con­
junto de n vectores de V es una base si y sólo si es linealmente
independiente, o, alternativamente, si y sólo si todo vector de
V es una combinación lineal de elementos del conjunto.

§9. ISOMORFISMO

Como aplicación de la noción de base lineal, o sistema de coor­


denadas, cumpliremos ahora una previa promesa implícita, demos­
trando que todo espacio vectorial finito-dimensional sobre un campo
5 es esencialmente el mismo (en lenguaje técnico, es isomórfico
a) que algunos y .
Definición . Dos espacios vectoriales n y tí (sobre el mismo
campo) son isomórficos si hay una correspondencia uno a uno
entre los vectores x de ■u y los vectores y de TJ, digamos y = T (x ),

T(atxt + «**,) = aiT{xi) + aiT(xt).


En otras palabras, V. y V son isomórficos si hay un isomor-
fismo (tal como T ) entre ellos, donde un isomorfismo es una
correspondencia uno a uno que preserva todas las relaciones li-

Es fácil ver que los espacios vectoriales finito-dimensionales


isomórficos tienen la misma dimensión; a cada base en un espacio
corresponde una base en el otro espacio. Afií. la dimensión es un
isomorñsmo invariante; demostraremos ahora que es el único iso-
morfismo invariante, en el sentido de que cada dos espacios vecto­
riales con la misma dimensión finita (sobre el mismo campo, por
supuesto), son isomórficos. Puesto que el isomosfismo de 11 y V
por una parte, y de v y w por la otra, implica que 11 y W son
isomórficos, será suficiente comprobar el siguiente teorema.
Teorema. Todo espacio vectorial n-dimensional V sobre un
campo es isomórfico a 5*.
Prueba. Sean {*„ . . . , x,} cualquier base en u Cada * de
1) puede ser escrita en la forma (,x, + . . . + y sabemos que
los escalares {,........... {„ están determinados unívocamente por x.
Consideramos la correspondencia uno a uno
* >=* (ti, ■■■,{»)
entre v y 5*. Si y = + . .. + entonces
ax + p y - b í, + fin)*, + •••+ (« {. +
esto establece el deseado isomorfismo.
Podría estar uno tentado de decir que de ahora en adelante
sería inútil tratar de preservar una apariencia de generalidad ha­
blando del espacio vectorial general n-dimensional, puesto que sabe­
mos que, desde el punto de vista del estudio de los problemas li­
neales, los espacios vectoriales isomórficos son indistinguibles
y consecuentemente, podríamos igualmente estudiar 3". Hay algo
importante. Las propiedades más importantes de los vectores y los
espacios vectoriales son las que son independientes de los sistemas
de coordenadas o, en otras palabras, las que son invariantes bajo
isomorfismos. La correspondencia entre V y 3", era, sin embargo,
establecida escogiendo un sistema de coordenadas; si fuéramos
siempre a estudiar 3", siempre estaríamos atados a ese sistema
de coordenadas en particular, o de otro modo siempre estaríamos
enfrentados a la tarea de demostrar que nuestras definiciones y
teoremas son independientes del sistema de coordenadas en que
se enuncian. (Este horrible dilema se verá claro más tarde, en las
pocas ocasiones en que nos veremos forzados a usar un sistema
particular de coordenadas para dar una definición). Consecuente­
mente, en la mayor parte de este libro pasaremos por alto el teorema
que se acaba de probar, y trataremos los espacios vectoriales n-
dimensionales como entidades relativas a si mismas, independien­
temente de cualquier base. Además de las razones que acabamos
de mencionar, hay otra razón para hacer esto: muchos ejemplos de
espacios vectoriales, como por ejemplo (?«, perderían mucho de su
contenido intuitivo si fuéramos a transformarlos en e" y hablar
solamente de coordenadas. Al estudiar espacios vectoriales, tales
como tf’„ y su relación con otros espacios vectoriales, debemos ser
capaces de manejarlos con igual facilidad en diferentes sistemas
de coordenadas, o, como esto es esencialmente la misma cosa, de­
bemos ser capaces de manejarlos sin usar en absoluto ningún sistema
de coordenadas.

EJERCICIOS

complejos, considerados como un espacio real vectorial? (Véase el 5 3 (9).)


(b) Todo espacio vectorial complejo 11 está intimamente asociado con
un espacio vectorial real 1)“; el espacio 11” se obtiene de ti rehusando
dimensión del espacio escalar complejo ti es n, ¿cuál es la dimensión del

§ 10. SUBESPACIOS

Los objetos de interés en geometría no son solamente los puntos


del espacio que se consideran, sino también sus líneas, planos, etc.
Procedemos a estudiar los análogos, en general espacios vectoriales,
de estos elementos de más elevada dimensionalidad.
Definición. Un subconjunto no vacío art de un espacio vec­
torial es un subespacio ti o un múltiple lineal, si juntamente con
cada par, * y y, de vectores contenidos en 3lt, cada combinación
lineal ax + py está también contenido en 3lt.
Una palabra de advertencia: juntamente con cada vector x, un
subespacio también contiene a x - x. De aqui que si interpretamos
los subespacios como lineas y planos generalizados, debemos tener
cuidado de considerar solamente planos y líneas que pasan por el

Un subespacio 3lt de un espacio vectorial v es él mismo un


espacio vectorial; el lector puede fácilmente verificar que, con las
mismas definiciones de adición y multiplicación escalar que tuvi­
mos en v, el conjunto satisface los axiomas (A ), (B ) y (C ) del § 2.
Dos ejemplos especiales de subespacios son: (i) el conjunto
6 , que consiste en el origen solamente, y (ii) el espacio total u
Los siguientes ejemplos son menos triviales.
( 1) Sean n y m dos enteros estrictamente positivos cualesquie­
ra, m g n. Sea 31t el conjunto de todos los vectores x = (f („)
en e" para los cuales f, = . . . = = 0.
( 2 ) Con m y n como en (1 ) consideremos el espacio (P„, y
cualesquiera números reales t,. . . . , t„. Sea su el conjunto de todos
los vectores (polinomios) x en (P. para los cuales x (t,) = . . . =
= *(« .) = 0.
3. Sea are el conjunto de todos los vectores x en (P para los
cuales x (t) = x( - t) vale idénticamente en t.
Necesitamos alguna notación y alguna terminología. Para cual­
quier colección (are,) de subconjuntos de un conjunto dado (diga­
mos, por ejemplo, para una colección de subespacios en un espacio
vectorial v ) . escribimos f j , are, para la intersección de todos los
311, , esto es, para el conjunto de puntos común a todos ellos. Tam­
bién, si su y 31 son subconjuntos de un conjunto, escribimos 311 C 31
si 3it es un subconjunto de s i , esto es, si todo elemento de are
queda también en 31. (Obsérvese que no excluimos la posibilidad
de 3lí = 31; así, escribimos l i c t ) así como también o c V .) Para
una colección finita {aret 9H»I, escribiremos stti f l---fl sit„ en
vez de Q,3Itr; en caso de que dos subespacios are y 3£ sean tales
que sil fl 31 «■ 6, diremos que 3H y 3t están disjuntos.

§ U . CALCULO DE SUBESPACIOS
Teorema 1. La intersección de cualquier colección de subes­
pacios es un subespacio.
Prueba. Si usamos un índice » para designar aparte los miem­
bros de la colección, de manera que los subespacios dados sean
SIL. escribiremos
Puesto que cada su» contiene a 0, también su, y, en consecuencia
311 no está vacío. Si x y y pertenecen a srt (esto es, a todas las 311,).
entonces ax + py pertenece a todas las su,, y, en consecuencia, su
es un subespacio.
Para ver una aplicación de este teorema supóngase que es un
conjunto arbitrario de vectores (no necesariamente un subespacio),
en espacio vectorial u. Ciertamente existen subespacios su que
contienen todos los elementos de s (esto es, tales que s c 3H );
el espacio total v es, por ejemplo, ese subespacio. Sea su la inter­
sección de todos los subespacios que contienen S; está claro que
311 mismo es un subespacio que contiene S. Está claro, además,
que su es el más pequeño de estos subespacios, si s también está
contenido en el subespacio si, s c 31, entonces 3TCc 31. El subes­
pacio 3H así definido se llama el espacio sobretendido por s o la
sobretensión de s. El siguiente resultado establece la conexión
entre la noción de sobretensión y los conceptos estudiados en los
§§ 5-9.
T eorema 2. Si S es cualquier conjunto de vectores en un
espacio vectorial v y si na es el subespacio sobretendido por $,
entonces 311 es lo mismo que todo el conjunto de combinaciones
lineales de S.
P rueba. Está claro que una combinación lineal de combina­
ciones lineales de elementos de S puede de nuevo ser escrito como
una combinación lineal de elementos de S. De aquí que el conjunto
de todas las combinaciones lineales de elementos de s es un sub­
espacio que contiene a S; se sigue que este subespacio debe también
contener a SU- Pongamos ahora el argumento a la recíproca; 3lt
contiene a S y es un subespacio; de aquí que 3tt contenga todas
las combinaciones lineales de elementos de S.
Vemos, en consecuencia, que en nuestra terminología podemos
definir una base lineal como un conjunto de vectores linealmente
independientes que sobrepasa todo el espacio.
Nuestro siguiente resultado será una fácil consecuencia del
Teorema 2-, su prueba puede ser dejada con confianza al lector.
T eorema 3. Si x y x son dos subespacios cualesquiera y si
3il es el subespacio sobretendido por s c j / x juntamente, enton­
ces SU es igual al conjunto de todos los vectores de la forma
x + y, con x en x y y en X-
Teniendo en cuenta este teorema, usaremos la notación X + x
para el subespacio 3tl sobretendido por X y X . Diremos que un
subespacio X de un espacio vectorial V es un complemento de
un subespacio X si X íl X = e y

§ 12. DIMENSION DE UN SUBESPACIO


Teorema 1. Un subespacio sa de un espacio vectorial n-dimen-
sional V es un espacio vectorial de dimensión í n.
Prueba. Es posible dar una prueba de este teorema, engaño­
samente corta, que va como sigue. Todo conjunto de n + 1 vectores
de V es linealmente dependiente; de aquí que lo mismo sea ver­
dad de 3Tt; de aquí, en particular, que el número de elementos de
cada base de 911 es £ n, Q.E.D.
La dificultad con este argumento, estriba en que definimos la
dimensión n requiriendo en primer lugar que exista una base
finita, y a continuación demandando que esta base contenga exac­
tamente, n elementos. La prueba anterior demuestra solamente que
ninguna base puede contener más de n elementos; no demuestra
que exista base alguna. Una vez que se observa la dificultad, sin
embargo, es fácil llenar el hueco. Si are = o, entonces 3H es 0-dimen-
sional y está listo. Si 3K contiene un vector no cero, x„ sea 3Ki (C 3H)
el subespacio sobretendido por x,. Si Sil - ütli entonces Sil es 1-
dimensional y ya está. Si 311 3lli sea x, un elemento de 311 no
contenido en 3Tli y sea ütta el subespacio sobretendido por x, y x,
y así sucesivamente. Ahora podemos emplear legítimamente el argu­
mento dado anteriormente; después de no más de n pasos de este
tipo, el proceso llega a su fin, puesto que (por el § 8, Teorema 2),
no podemos encontrar n + 1 vectores linealmente independientes
El siguiente resultado es una importante consecuencia de esa
segunda y correcta prueba del Teorema 1.
Teorema 2, Dado cualquier subespacio Tridimensional Stt en
un espacio vectorial ndimensional V, podemos encontrar una
base {*,, . . . , x„„ x„...........x„) en V. de manera que ..............
están en ¡HE y forman, en consecuencia, una base de 311.
Denotaremos la dimensión de un espacio vectorial V por el
símbolo dim 1). En esta notación, el teorema 1 enuncia que si 3H
es un subespacio de un espacio vectorial finito-dimensional U . en­
tonces dim ¡JIE S dim II.
§ 13. ESPACIOS DUALES

Definición . Una función lineal en un espacio vectorial V es


una función y, valuada escalarmente, definida para cada vec­
tor x, con la propiedad de que (idénticamente en los vectores
x, y x, y en los escalares a, y a,)
+ aixi) ~ «iV(*i) + aiy(xj).".
Leamos algunos ejemplos de funcionales lineales
(1 ) Para x = ({,..... (.) en C*, escríbase y (x ) = (,. Más
generalmente, sean a„ . . . . a, cualesquiera escalares n y escribamos
y(l) “ aifi -1----- 1- a»{«.
Observamos que para cualquier funcional lineal y en cualquier
espacio vectorial
v(0) - y(00) - 0 y(0) - 0;
por esta razón una funcional lineal, como la definimos, es algunas
veces llamada homogénea. En particular e", si y es definida por
y(*) - «iíi H 1- “«{« + A
entonces y no es una funcional lineal, a menos que p = 0.
( 2 ) Para cualquier polinomio * en «■, escríbase y (x ) = x(0 ).
Más generalmente, sea a, n escalares cualesquiera, sean
t, t„, n cualesquiera números reales y escríbase
y(z) " “i*(<t) + • • ■+<•»*(*»)•
Otro ejemplo, en un sentido, se obtiene como sigue un caso limite
del que sea acaba de dar. Sea (a, b ) cualquier intervalo finito sobre
el eje real de las t y sea « cualquier función integrable valuada
complejamente, definida sobre (o. b)¡ defínase y por

y(z) - a(0i(<) di.


(3 ) En un espacio vectorial arbitrario V, defínase y escribiendo
y(x) = 0
para toda x de V.
El último ejemplo es la primera insinuación de una situación
general. Sea X> cualquier espacio vectorial y sea V' la colección
de todas las funcionales lineales sobre V. Denotemos por medio de
0 la funcional lineal definida en (3) (compárese el comentario al
final del § 4). Si y, y y; son funcionales lineales definidas sobre u
y si a, y a- son escalares, escribamos y para la función definida por
y(z) - a,Vi(r) + a,yt(z).
Es fácil ver que y es una funcional lineal; la denotamos por
O,y, + a,y,. Con estas definiciones de los conceptos lineales (cero,
adición, multiplicación escalar), el conjunto V' forma un espacio
vectorial el espacio dual deV.
§ 14. CORCHETES

Antes de estudiar las funcionales lineales y los espacios duales


con más detalle, deseamos introducir una notación que puede pa­
recer extraña a primera vista, pero que aclarará muchas situaciones
posteriores. Generalmente denotamos una función lineal por una
sola letra tal como y . Algunas veces, sin embargo, es necesario usar
plenamente la notación de función e indicar de algún modo que
si y es una funcional lineal sobre V y si x es un vector de V, en­
tonces y(x) es un escalar particular. De acuerdo con la notación
que nos proponemos adoptar aqui, no escribiremos y seguida de x
en paréntesis, sino que escribiremos x y y encerradas en corchetes
y separadas por una coma. A causa de la naturaleza desusada de
esta notación, le dedicaremos algunas palabras más.
Como hemos hecho notar |x , y) es un sustituto del símbolo
ordinario de función y(x); ambos símbolos denotan el escalar que
obtenemos si tomamos el valor de la función lineal y en el vector x.
Tomemos una situación análoga (relativa a funciones que no son.
sin embargo, lineales). Sea y la función real de una variable real
definida para cada número real x por y (x) = x!. La notación
(x y] es una forma simbólica de escribir la receta para las opera­
ciones que de hecho se ejecutan; corresponde a la oración (tome un
número y elévelo al cuadrado].
Usando esta notación, podemos sumar; a cada espacio vectorial
1) hacemos corresponder el espacio dual %)' consistente en todas
las funciones lineales sobre V; a cada par, x y y, donde x es un
vector de V y y es una función lineal de V', hacemos corresponder
el escalar |x, y), definido como el valor de y en x. En términos del
símbolo ]x, y] la propiedad definitoria de una funcionallineal es
(1) [«i*t + « jXi , y] - «i(xi, y) + oj(x,, y],
y la definición de las operaciones lineales para las funcionales li­
neales es
(2) [X, °.Vl + o*yJ - 0,1*. y,] + atlx, y,].
Las dosrelaciones juntas se expresan diciendo que |x, y| esuna
funcional bilineal de los vectores x de v y y de V'.
EJERCICIOS
i. Considérese el conjunto C de números complejos como un espado
vectorial real (como en el | 3(9)). Supóngase que para cada x = t, + tt,
(») IK*) - íi,
(b) ¡rfz) - f„
(C) y(z) - i.’,
(d) irfr) = ( i - ifu
(e) vto - V {l* + {,•. ( e,
2. Supóngase que para c¡

(a)»(*)-fi + {*
(b) v(x) - f. - {.*,
(o) «(*) - í. + 1,
(d) V(z) - {. - 2£, + 3f,.

(») iKz) - f * ' *(0 d*.

(b) Vto M0)'dí,

(e) V « - jW t) d t ,

(d) P(x) =/ V ) di,

(e) »(*) = f •

cuál de estos casos es y una funcional lineal?


(«„, o,, « , , . . . ) es una secuencia arbitraria de números complejos
*un elemento de 0*, z(í) " 2)".o EA escriba y(z) “ £7-o íiOl. Pruébese

§ 15. BASES DUALES


referencia a sistemas de coordenadas, una mirada a las siguientes
pruebas mostrará una superabundancia de sistemas de coordenadas.
Deseamos hacer notar que este fenómeno es inevitable; estableceremos
resultados concernientes a la dimensión y la dimensión es el único
concepto (basta ahora) cuya definición se da en términos de una

T e o r e m a 1. Si v es un e sp a cio v e c to ria l n-dimensional, si


(x„ . . . . x„} es una base de V, y si {«,. . . . . a,} es un conjunto
cualquiera de n escalares, entonces hay una, y sólo una y fun­
cional lineal sobre V tal que [x,, yl = x¡ para 1 = 1 , . , . , n.
Prueba. Toda x de U puede escribirse en la forma x = f,x, + . . .
+ («x. de un modo y sólo uno; si y es cualquier funcional lineal, en­

te, vi - titei, vi + • • • + {.te ., vi-


De esta relación resulta clara la univocidad de y; si [x,. y] = a,, enton­
ces el valor de |x, y] está determinado, para cada x, por [x, si =
(¡a¡. Puede darse también la vuelta al argumento; si definimos y
por
te, vi _ íi<*i H 1- {•■».,
entonces y es verdaderamente una funcional lineal, y [Xi, t(] = a,.
Teorem a 2. StVes un espacio vectorial n-dimensional y si
= {x,, . . . . x.) es una base deV,entonces hay una base determi­
nada en forma unívoca, X' en V',fC = (y,......... y.), con la pro­
piedad de que [x,. y,] = J„. Consecuentemente, el espacio dual
de un espacio n-dimensional es n-dimensional.
La base a? es llamada la base dual de se.
Prueba. Se sigue del Teorema 1 que, para cada j = 1 n,
una y, única deV' puede determinarse de modo que [x,. y,] = S.,; po-
tenemos solamente que probar el conjunto 9? = {y„ . . . . y .} es una
base de V'.
En primer lugar, fC es un conjunto linealmente independiente,
pues si tuviéramos « jj, + . . . + a,yn = 0, en otras palabras, si
te, “ivi H— + «.y»! - «ite, v J +• •■ + «.te, v«l - 0
para todas las x, entonces tendríamos, para x = x,
0 ” E / “ite<, Vil - S i “7»¡i - “i-
En segundo lugar, toda y de V es una combinación lineal de y,.........
y„. Para probar' esto, escríbase Jar¡, y] = entonces, para x =
£<£(*!, tenemos
I*. tí] “ fi“i H i- {•*••
Por otra parte
!*.»/] - “ (i,
de manera que, sustituyendo en la ecuación precedente, tenemos
[x, y] - «,(x, y j +•• • + a„[x, y.)
“ [*, «iyi + ••• +
Consecuentemente, y = a ¡y, + ___ + y la prueba del teorema
es completa.
Necesitaremos también la siguiente fácil consecuencia del Teo­
rema 2.
T eorema 3. Si u y v son dos vectores diferentes cualesquiera
del espacio vectorial n-dimensiona¡ D, entonces existe una fun­
ción lineal y sobre v tal que (u, y] ^ I», y]; o, equivalentemente,
a cualquier vector x no cero de V corresponde un y en V' tal
. . que [x, y] 0.
Prueba. Que los dos enunciados contenidos en el teorema son
en realidad equivalentes, se ve considerando x = u —v. En conse­
cuencia, probaremos únicamente el último enunciado.
Sea = {x„ . . . . x.) cualquiera base de t), y sea X’ = {y„ . . . .
y.) la base dual deV'.Si x = £ ¡ (tz¡, entonces (como anteriormente.
I*. V/l = íf- De aquí que si [x, y) = 0 para todas las y, y en particular.
»i I*. »/] = 0 para } = 1 n, entonces x = 0.

§ 16. REFLEXIBHJDAD

Es natural pensar que si el espacio dual TJ' de un espacio vecto­


rial V y las relaciones entre un espacio y su dual, son de algún
interés para v entonces, son justamente del mismo interés para V'.
En otras palabras, proponemos ahora formar el espacio dual (I)')' de
V'-, para la sencillez de la notación, lo indicaremos por V". La descrip­
ción verbal de un elemento de V" es torpe; ese elemento es una
funcional lineal de funcionales lineales. Es. sin embargo, en este
punto donde aparece la ventaja máxima de la notación [x, g]; por
medio de ella es fácil discutir ti y su relación con 11".
Si consideramos el símbolo |x, y\ para alguna y = g0 fija, no
obtenemos nada nuevo: [x, g0) es meramente otro modo de escribir
el valor g»(x) de la función y„ en el vector x. Si, en cambio, conside­
ramos el símbolo [x, y\ para alguna x = x0fija, entonces observamos
que la función de los vectores de 11' cuyo valor en y es [x0, y¡ es una
función de valor escalar que resulta lineal ¡véase el § 14, (2)1; en
otras palabras, [x„, g] define una función lineal sobre ti' y, consecuen­
temente. un elemento de V".
Por este método bemos exhibido algunas funcionales lineales so­
bre ti'. ¿Las hemos exhibido todas? Para el caso finito-dimensional, el
teorema siguiente suministra la respuesta afirmativa.
T eorema. Si ti es un espacio vectorial finito-dimensional en­
tonces, correspondiendo a cada funcional lineal z» sobre ti' hay
un vector x„ de V tal que z>(g) = lx„, y ] = g(x0) para toda y
de ti'; la correspondencia z, x> entre ti" y XI es un isomor-

La correspondencia descrita en este enunciado se llama la co­


rrespondencia natural entre t)" y ti.
Prueba. Revisemos la correspondencia desde el punto de vista
de ir de ti a ti"; en otras palabras, a cada x„ de ti hacemos corres­
ponder un vector z, de ti" definido por Zo(g) = g(x„) para cada y
de ti'. Puesto que [x, y] depende linealmente de x, la transforma­
ción x„ -» z. es lineal.
Demostraremos que esta transformación es uno a uno, tal como
va. Afirmamos, en otras palabras, que si x, y x, están en ti, y si z,
y z. son los vectores correspondientes de ti" (de manera que z,(g)
= [x„ y] y z,(y) = [x,, g] para toda y de ti'), y si z,= z-, entonces,
x, = x,. Decir que z, = z-, significa que [x„ g) = ¡x, g] para toda
g de ti'; la conclusión deseada se sigue del § 15, Teorema 3.
Los dos últimos párrafos juntos demuestran que los conjuntos
de funcionales lineales z sobre ti'(esto es, elementos de ti" ) que tie­
nen la forma deseada (esto es, z(g) es idénticamente igual a
[x, y] para una adecuada x de ti ) es un subespacio de ti" que es
isomórfíco a ti y que es, en consecuencia, n-dimensional. Pero la
n-dimensionalidad de ti implica la de ti', que a su vez implica que ti"
sea n-dimensional. Si sigue que ti" debe coincidir con el espacio n-
dimensional que se acaba de describir y la prueba del teorema es
completa.
37

Es importante observar que el teorema demuestra no solamente


que V y ti" son isomórficos —hasta aquí es trival, por el hecho
de que tienen la misma dimensión— , sino que la correspondencia
natural es un isomorfismo. Esta propiedad de los espacios vectoria­
les se llama reflexibilidad; todo espacio vectorial finito-dimensional
es reflexivo.
Frecuentemente, conviene cierta amplitud de criterio con respec­
to deV": para espacios vectoriales finito-dimensionales, identificare­
mos V " con V (por el natural isomorfismo) y diremos que el ele­
mento 2o de Ti"es igual al elemento z» de V cada vez que Zo(y) =
[x„ y] para todas las y de 0)'. En este lenguaje, es fácil expresar la
relación entre una base X en V, y la base dual, de su base dual, en
V"; la simetría de la relación [xi, y¡] = S,¡ demuestra que X" = X

§ 17. ANIQUILADORES
Definición . El aniquilador g° de cualquier subconjunto S de
un espacio vectorial 1) (no es necesario que s sea un subespacio) es
el conjunto de todos los vectores y de V tales que |x, y] sea idénti­
camente igual a cero para toda x de i.
Así 6° ■* V' y Va - O (C V'). Si V es finitoriimensional y $ contie­
ne un vector no cero, de manera que S O, entonces el Teorema 3
del § 15 demuestra ques0 V .
T eorema 1. Si 3TEes un subespacio m-dimensional de un espacio
vectorial V, n-dimensional, entonces 311° es un espacio (n-m '/-dimen­
sional de 1)'.
Prueba. Dejamos a cargo del lector verificar queM ^de hecho,
S° para una S arbitraria) es siempre un subespacio; probaremos
solamente el enunciado concerniente a la dimensión de 311°.
Sea SC= {x, x„) una base enl) cuyos primeros m elementos
están en 311 (y forman, en consecuencia, una base para Sil); sea
SC'= {y y ,) ¡a base dual en V'. Denotamos por 91 el subespacio
(en u ') sobretendido por y„„......... y,; claramente 31tiene dimensión
n-m. Probaremos que 311° = 31.
Si x es cualquier vector de3lt,entonces x es una combinación li-

* = E " -i

y. para cualquier j = m + 1 n, tenemos


ESPACIOS VECTORIALES PINITO-DIMENSIONALES

I*. V>1 “ Z r - l Vi1- o.

En otras palabras, y, está en 311° para ; = m + 1 n; se sigue que


31 está contenido en 3H°,
3tC3K°.
Supóngase, por otra parte, que y es cualquier elemento de 3K°. Puesto
que y, estando en v ', es una combinación lineal de los vectores de la
base y, y., podemos escribir

V “ L ’-iW /-
Puesto que, por hipótesis, y está en 3H°, tenemos, para cada i = 1.........

0 - [*<, y] - Z 2 - i vA*i, vil “ vi;


en otras palabras, y es una combinación lineal de y*.,, . . . . y,, fisto
prueba que y está en 31, y, consecuentemente, que
311° C 91,
y el teorema se sigue.
T eorema 2. Si 3TZes un subespacio en un espacio vectorial finito-
dimensional V, entonces Sil00 ( ” (3It°)°) —3IE.
Prueba. Obsérvese que usamos aquí la convención, establecida
al fin del § 16, que identificad) y v ". Por definición. Sities el conjunto
de todos los vectores x tales que |x , y) = 0, p ara toda y de 311°. Puesto
que, por definición de 3TC°, [x, y] = 0 para toda x de 311 y toda y de 3it°
se sigue que 31t C SU00. La conclusión deseada se sigue ahora de un
argumento dimensional. Sea 3E m-dimensional; entonces la dimen­
sión de 3H° es n - m , y la de3lt°°es n - ( n - m ) = m. De aquí que
3E = 3It°° como se quería probar.

EJERCICIOS

X. Defínase una funcional lineal no cero y, sobre C* tal que si x, = (1, 1,


1) y x , = ( 1. 1. - 1). entonces (*,. y] = [x„ yl = 0.
2 Los vectores x, = (1, 1, 1). x, = (1, 1, - ) y x, = <1.- 1. - 1 ) forman
una base de C* SI (y„ y,, y,} es la base d u al.j si x = (0. 1. 0). encuentre
tx. y 1. [x. y,l y |x, y,].
§ 18. SUMAS DIRECTAS

Estudiaremos varios importantes métodos generales de conver­


tir en nuevos viejos espacios vectoriales; en esta sección comenza­
mos por estudiar el más fácil.
Definición . Si ti y V son espacios vectoriales (sobre el mismo
campo), su suma directa es el espacio vectorial V>(denotado por
ti © V ), cuyos elementos son todos de pares ordenados <*, y) con
* en 11 y j en V, con las operaciones lineales definidas por

®l(*i> Vi) + «2<*2i Vi) = (®i*t + “2*21a¡Vi + <*s»í).


Observamos que la formación de la suma directa es análoga al
modo en que el plano es construido desde sus dos ejes de coorde-

Procedemos a investigar la relación de esta noción con algu­


nas de nuestras nociones.
El conjunto de todos los vectores (en"W) de la forma (x, 0) es
un subespacio de W; la correspondencia (x, O)*** demuestra que
este subespacio es isomórfico a t i . Es conveniente, una vez más,
caer en una inexactitud lógica e, identificando x y (x, 0>, hablar de
ti como un subespacio de W•De modo semejante, por supuesto, los
vectores y de U pueden ser identificados con los vectores de la forma
<0, y) dew y podemos considerar t)como un subespacio deiv. Esta ter­
minología es, de seguro, no del todo exacta, pero es mucho más fácil
encontrar aquí una salida que en el caso del segundo espacio dual.
Podríamos haber definido la suma directa de ti y t) (cuando menos
en el caso en que 11 y V no tienen vectores no-cero en común), como
el conjunto consistente en todas las x deti,todas las y den,y todos los
pares (x, y) para los cuales r ^ O y j ^ O . Esta definición produce
una teoría análoga en cada detalle a la que desarrollaremos, pero hace
difícil probar a causa de las distinciones de casos que necesita. Está
claro, sin embargo, que desde el punto de vista de esta definición H
es de hecho un subconjunto de 11 © V. En este sentido entonces, o en
el sentido del isomorfismo de la definición que hemos adoptado, sus­
citamos la cuestión: ¿cuál es la relación entre 11 y 1) cuando considera­
mos estos espacios y subespacios del gran espacio!*??
T eorema. Si H j V son subespacios de un espacio vectorial
\t>, entonces son equivalentes las tres condiciones siguientes.
( 1 ) 10 = 11®!}.
(2 ) ii f) 13 - 0 y 11 + 1) = i*? (esto es, 11 y V son comple­
mentos uno de otro).
(3 ) Todo vector z de W puede ser escrito en la forma
z — x +'y, con x en % y y en V, de un modo y sólo de uno.
Prueba. Probaremos las implicaciones (1) =»(2) =» (3 ) =»(1).
(1 ) => (2). Suponemos que W = H ® 3 . Si z = (x. y) queda
en ambos 11 y 1), entonces x = y = 0, de manera que z = 0; esto
prueba que 11 fl 1) - O. Puesto que la representación z —(x,
0) + (0, y) es válida para toda z, se sigue también que H + U = v?.

(2 ) => (3). Si suponemos (2 ), de manera que, en particular,


11 + 1) —W, entonces está claro que toda z de w tiene la represen­
tación deseada, z = x + y. Para probar la unicidad, suponemos que
z = z l + y ,y z = z , + y „ c o n * , y z , e n n y y, y y, en u Puesto
que x, +y, = x , + yu se sigue que x, - x, = y-, —y,. Puesto que
el segundo miembro de esta última ecuación está en n y el
primer miembro está en V, disyunción de H y de V implica que
*i = x , y y, = y,.
(3 ) =3 (1). Esta implicación es prácticamente indistinguible de
la definición de suma directa. Si formamos la suma directa 11 ® 1),
y a continuación identificamos (x, 0) y (0, y) con x y y respectiva­
mente, estamos comprometidos a identificar la suma (x, y) = (x,
0) + <0, y) con lo que estamos suponiendo que es el elemento
general z = x + y de W; de la hipótesis de que la representación
de z en la forma x + y es única, concluimos que la correspondencia
entre <x, 0) y x (y también entre (0, y) y y) es uno a uno.
Si dos subespacios H y 1) en un espacio vectorial '» están
disjuntos y sobretienden Vf (esto es, satisfacen (2 ), es usual decir
que W es la suma interna directa de 11 y V; simbólicamente, como
antes, W =» 11 © 15. Si deseamos hacer resaltar la distinción entre
estos conceptos y el definido antes, escribiremos el primero diciendo
que v? es la suma externa directa de 11 y 15. En vista de los iso-
morfismos naturales descritos antes y, especialmente, en vista del
teorema precedente, la distinción es más pedante que conceptual.
De acuerdo con nuestra convención de identificación, generalmente
la pasaremos por alto.

§ 19. DIMENSION DE UNA SUMA DIRECTA


¿Qué puede decirse sobre la dimensión de una suma directa?
Si lies n-dimensional, 1) es m-dimensional y v? = n © 11, ¿cuál es la
dimensión d e W ? Esta cuestión es fácil de contestar.
T eorema 1. La dimensión de una suma directa es la suma
de las dimensiones de sus sumandos.
P rueba. Afirmamos que si {x,, . . . , x.) es una base de 11, y
si (y, . . . . y„) es una base en V , entonces el conjunto {x,.........
x., y,. . . . , y„( (o, más precisamente, el conjunto {(x„ 0)..........
(x», 0>, (0, y,), . . . , (0, y .» es una base de V?. La prueba más
fácil de esta aserción consiste en usar la implicación (1 ) =» (3}
del teorema de la sección precedente. Puesto que toda z de w puede
escribirse en la forma z = x + y, donde x es una combinación
lineal de x y y es una combinación lineal de y, . . . . ym, se
sigue que nuestro conjunto sobretiende a W. Para demostrar que
el conjunto es también linealmente independiente, supóngase que
«1*1 H 1- «.*« + fty H + PmUm = 0.
La unicidad de la representación de 0 en la forma x + y implica que
«1*1 + •••+ « „ * . = P¡y¡ + ---+ Bmy„ - 0,
y de aqui que la dependencia lineal de las x y las y implique que

T eorema 2. Si 1» es cualquier espacio vectorial (n + m)-di-


mensional, y si H es cualquier subeqpacio n-dimensional de V),
existe entonces un subespacio m-dimensional v de Vf tal que
Prueba. Sea {x,, . . . , x.) cualquier base de 11; por el teorema
del § 7, podemos encontrar un conjunto (y,, . . . , y„) de vectores de
■W con la propiedad de que (x y„ . . . . ym) es una base
de W. Sea 13 el subespacio sobretendido por y, y„; omitimos
la verificación de que V? = 11 © V.
El Teorema 2 dice que todo subespacio de un espacio vectorial
finito-dimensional tiene un complemento.

S 20. DUAL DE UNA SUMA DIRECTA

En la mayor parte de lo que sigue veremos la noción de suma


directa, como se define para subespacios de un espacio vectorial V;
esto evita la confusión con la convención de identificación del § 18
y resulta, incidentalmente, ser el concepto más útil para nuestro
trabajo posterior. Concluimos, por ahora, nuestro estudio de sumas
directas, observando la relación simple que conecta los espacios
duales, aniquiladores y sumas directas. Para hacer resaltar nuestro
actual punto de vista de suma directa, retomamos a las letras de
nuestra primera notación.
Teorema. Si 3TC y 91 son subespacios de un espacio vectorial
13,y si 1) —3H © 31, entonces 311' es isomórfico a 31° y 01' a 311°,
U13' = 911° © 31°.
Prueba. Para simplificar la notación, usaremos, en toda esta
prueba, x, xf y x° para elementos de 3H, 311', y 3R°, respectivamente
y reservamos, de modo semejante, las letras y para 31 y z para u
(Esta notación no tiene el propósito de sugerir que exista alguna
relación particular entre, digamos, los vectores x de 311 y los vec­
tores *' desiT).
Si z' pertenece tanto a uit° como a 31°, esto es, si z'(x ) = z'(y ) = 0
para toda x y y, entonces z '(z )= 2'( x + y ) = 0 para toda z; esto
implica que 31t° y 31° están disjuntos. Si, además, z' es un vector
cualquiera de 1)', y si z = x + y, escribimos x“(z) = z '(y ) y
y°(z) = z’(x ). Es fácil ver que las funciones x° y y" así definidas
son funciones lineales sobre 13 (esto es, elementos de 13' ) que
pertenecen a 31t° y 31° respectivamente; puesto que zf = x° + y°, se
sigue que 13' es en realidad la suma directa de 3lt° y 31°.
Para establecer los isomorfismos afirmados, hacemos corres­
ponder a cada x° una y” de 31' definida por y1( y ) = x°(y). Dejamos
al lector la verificación de rutina de que la correspondencia x° -> y'
es lineal y uno a uno y, en consecuencia, un isomorfismo entre 311°
y 91'; el resultado correspondiente para 91° y 911' se sigue de la
simetría, intercambiando x y y. (Obsérvese que, para espacios vec­
toriales finito-dimensionales, la mera existencia de un isomorfismo
entre, digamos, 9H° y 91' es trivial desde el punto de vista de un
argumento dimensional; las dimensiones de 9!t° y de 91' son igua­
les a la dimensión de 91).
Observamos, con respecto de toda nuestra presentación de la
teoría de sumas directas, que no hay nada mágico sobre el número
dos; podríamos haber definido la suma directa de cualquier nú­
mero de espacios vectoriales, y podríamos haber probado los obvios
análogos de todos los teoremas de las últimas tres secciones, con
sólo que la notación se volviera más complicada. Hacemos la adver­
tencia de que usaremos posteriormente esta observación y tratare­
mos los problemas que implica como si los hubiéramos probado.

. . U ) . » - ( 0, 0, 1, 1).
- 1, 1, 1, 0), y = (0. 1, - 1, 1)
• 0, 0, 0), ii = (0, 0, 0, 1).
0, 0, 1), y - ( 0. 1, 1,0)
§ 21. ESPACIOS COCIENTES

Ya sabemos que si 311 es un subespacio de un espacio vectorial


1), entonces hay, usalmente, muchos otros subespacios 3! en V
tales que 3H © 31 - v . No hay un modo natural de escoger uno
de entre la riqueza de complementos de 311. Hay, sin embargo,
una construcción natural que asocia a 311 y V un nuevo espacio
vectorial que, para todos los propósitos prácticos, juega el papel
de un complemento de 3U. La ventaja teórica que tiene la cons­
trucción sobre la formación de un complemento arbitrario es pre­
cisamente su carácter "natural*, esto es, el hecho de que no depende
de la selección de una base, o, para el caso, de la selección de cual­
quier otra cosa.
A fin de comprender la construcción, es una buena idea tener
una imagen en la mente. Supóngase, por ejemplo, que V = (R2 (el
plano de coordenadas reales) y que 3I£ consiste en todos los vectores
( íi. (i) para los cuales í, = 0 (el eje horizontal). Cada comple­
mento de 3n es una línea (distinta del eje horizontal), que pasa
por el origen. Obsérvese que cada uno de esos complementos tiene
la propiedad de que intersecta cada linea horizontal exactamente
en un punto. La idea de la construcción que describiremos es la de
hacer un espacio vectorial, utilizando el conjunto de todas las líneas
horizontales.
Comenzamos por usar 311 para singularizar ciertos subconjuntos
de V. (Estamos de nuevo en el caso general. Si x es un vector
arbitrario en V, escribimos x + Sil para el conjunto de todas las
sumas x + y, con y en 3tl; cada conjunto de la forma x + su se
Dama coconjunto de 3tt. (En el caso del ejemplo anterior de lineas
planas, los coconjuntos son las lineas horizontales). Nótese que
uno y el mismo coconjunto se puede suscitar de dos vectores dife­
rentes, esto es, que aun si x y, es posible que x + SE =y + 9H.
Tiene el mismo sentido hablar de un coconjunto, digamos X, de
SU, sin especificar de qué elemento (o elementos) viene M, decir
que X es un coconjunto (de 3E) significa simplemente que hay
cuando menos una x tal que X ■= z + 3E.
Si X y X son coconjuntos (de Sil) , escribimos X + X para
el conjunto de todas las sumas u + v con u en X y v en K; afir­
mamos que X + X es también un coconjunto de 31t. En realidad,
si x = x + 3E y X = y + 3E, entonces todo elemento de X + X
pertenece al coconjunto (x + y ) + DTt (nótese que Sil + 3E => 3E),
y. recíprocamente, todo elemento de (x + y ) + Sil está en X + X.
(Si, por ejemplo, 2 está en 371, entonces (x + y ) + z = (x + 2) +
(y + 0 ) ). En otras palabras, X + X = (x + y ) + 311, de manera
que X + x es un coconjunto, como se afirmó. Dejamos al lector
la verificación de que la adición de coconjuntos es conmutativa y
asociativa. El coconjunto 3lt (esto es, 0 + 3E) es tal que X + 3E = X
para todo coconjunto X , y, además 3it es el único coconjunto con
esa propiedad. (Si (x + 3E) + (y + 3E) = x + SE, entonces x + SU
contiene x + y, de manera que x + y = x + u, para alguna u de
SE; esto implica que y está en 3Tt, y de aquí que y + SE ** 311.)
Si X es un conjunto, entonces el conjunto consistente en todos
los vectores - u, con u en X , es él mismo coconjunto, que deno­
taremos por —X. El coconjunto —X es tal que X + (—X) =* SE,
y. además, —X es el único coconjunto con esta propiedad. Resu­
miendo; la adición de coconjuntos satisface los axiomas (A ) del § 2.
Si 3C es un coconjunto y si a es un escalar, escribimos aX para el
conjunto consistente en todos los vectores ou, con u en X en caso
de que a ^ O ; el coconjunto 0 - X se definió como SE. Una simple
verificación demuestra que este concepto de multiplicación satis­
face los axiomas (B ) y (C ) del § 2.
Ha sido así probado que el conjunto de todos los coconjuntos
es un espacio vectorial con respecto de las operaciones lineales
definidas anteriormente. Este espacio vectorial se llama el espacio
cociente de T> módulo 3E; es denotado por TJ/3E.

§ 22. DIMENSION DE UN ESPACIO COCIENTE

Teorema 1. Si 3E y 31 son subespacios complementarios de


un espacio vectorial V , entonces, la correspondencia que asigna
a cada vector y de 31 el coconjunto y + 3E es un isomorfismo
entre 3t y V/OH.
Prueba. Si y , y y , son elementos de 91 tales que y, + 3H =
y , + 3H, entonces, en particular, y, pertenece a y, + 9lt, de ma­
nera que y, = yt + x para alguna x de 3TC. Puesto que esto significa
que y, —y, = x , y puesto que 9TC y 9Z están disjuntos, se sigue que
x = 0, y de aqui que y, = y,. (Recuérdese que y, — y, pertenece
a 91 juntamente con y , y y,)- Este argumento prueba que la co­
rrespondencia que estamos estudiando es uno a uno, hasta ahora.
Para probar que va suficientemente lejos, considérese un coconjunto
arbitrario de 9H, digamos z + 9TC. Puesto que V = 31 + 9tl, podemos
escribir z en la forma y + x , con x en 3lt y y en 91; se sigue (puesto
que x + 9tl —911) que z + 311 = y + SIL Esto prueba que todo co­
conjunto de 9R puede obtenerse usando un elemento de 91 (y no
solamente cualquier viejo elemento de V); consecuentemente y -»
y + 311 es realmente una correspondencia uno a uno entre 91 y
V/9TC. La propiedad lineal de la correspondencia se sigue inmedia­
tamente de la definición de las operaciones lineales en V/3II; en
realidad, tenemos,
(aiVl + ao/a) + 3H = a,(y, + 311) + «j(yj + 311).
T eorema 2. Si 31t es un subespacio m-dimensional de un es­
pacio vectorial n-dimensional V, entonces V/SK tiene dimensión

Prueba. Usese el § 19, Teorema 2, para encontrar un sub­


espacio 31 de manera que 3Tt ® 91 = v . El espacio 91 tiene dimensión
n-m (según el § 19, Teorema 1) y es isomórfico a ‘0/311 (según el
Teorema 1 anterior).
Hay más tópicos en la teoría de espacios cociente que podría­
mos discutir (tales como su relación a los espacios duales y a los
aniquiladores). No obstante, puesto que muchos tópicos son apenas
algo más que ejercicios que implican el uso de técnicas que ya
están a nuestra disposición, nos ocupamos mejor de algunos modos
nuevos y no obvios de manufacturar útiles espacios vectoriales.
EJERCICIOS

de polinomios módulo varios subespacios. Si 911 —<P„, ¿es <P/9Tl finito-dimen-


tantes? ¿Qué si 911 es el subespacio consistente en todos los polinomios
divisibles entre x, (donde *„(t) = <«">»
necesariamente coconjuntos de un subespacio), no hay nada que nos impida
una función valuada escalarmente ui sobre V? es una forma bilineal
(o funcional bilineal), si
te(a,z, + a2x2, y) = 0,10(1,, y) + «2u>(x2, y)

y
to(z, o,y¡ + a2y2) = o,to(i, y,) + o2to(x, y2),
idénticamente en los vectores y escalares implicados.
En una situación especial, ya hemos encontrado funcionales
bilineales. Si, a saber, u es el espacio dual de 111, u = ni', | y si
volvemos a escribir w (x, y ) = [x, y\ (véase el § 14), entonces w
es una funcional bilineal de 11 ® “U'. Para un ejemplo, en una
situación más general, sean m y i) espacios vectoriales arbitrarios
(sobre el mismo campo, como siempre), sean u y v elementos
de ni' y V respectivamente, y escribamos w (x, y) = u ( x ) v ( y )
para toda * de *11 y y de V. Se obtiene un ejemplo todavía más ge­
neral escogiendo un número finito de elementos de 11', digamos
u,, . . . . ut, escogiendo el mismo número de elementos finitos de
V', digamos v„ . . . , n y escribiendo w (x, y ) = u ,( x ) v ,( y ) + . . . +
u,(x)v*(y). Cuál de las palabras, "funcional" o “forma" se use
depende-un tanto del contexto y otro tanto más en el capricho del
que lo aplique. En este libro usaremos generalmente “funcional"
con "lineal” y “forma” con "bilineal" (y sus generalizaciones dimen­
sionales superiores).
Si w, y w , son formas lineales sobre w , y sí a. y «, son escala­
res. escribimos w para la función sobre •w deñnida por
»(*, y) - arito,(x, y) + a2w2(x, y).
Es fácil ver que w es una forma bilineal; lo denotamos por medio
o,w, + a,w,. Con esta definición de las operaciones lineales, el con­
junto de todas las formas bilineales sobre V? es un espacio vecto­
rial. El principal propósito del resto de esta sección es el determinar
(en el caso finito dimensional) cómo la dimensión de este espacio
depende de las dimensiones de 11 y de
T eorema 1. S itie s un espacio vectorial n-dimensional con base
(x„ . . . , xn), si V es un espacio vectorial m-dimensional con
base {y, ym) y si {a,,} es cualquier conjunto de nm escala­
res (i = 1, . . . nt), entonces hay una y sólo una
forma bilineal w sobre *lt ©U tal que uifx¡, y¡) = a¡,, para toda
• y )■
Prueba. Si x « Z< y “ Z y íjy/i y w es una forma bilineal
sobre ni ® V tal que m(xi, j, ) = ai(, entonces
«(*. Jí) ” Z ¡ Z i Vi) ” Z t Z i fiWi-
De esta ecuación resulta clara la unicidad de w, la existencia de una
w adecuada se prueba leyendo la misma ecuación de derecha a iz­
quierda, esto es, definiendo por medio de ello a w. (Compárese este
resultado con el § 15, Teorema 1).
Teorema 2. Si mes un espacio vectorial n-dimensional con base
(x,.......... x,), y si V es un espacio vectorial m-dimensional con bo-
se {y,, . . ym), entonces hay una base determinada en forma única
(u H} (p = 1 n¡ q = 1 tn ) en el espacio vectorial de todas
los formas bilineales sobre m ®U con la propiedad de que vi„(x,, x¡)
= tipti,. Consecuentemente, la dimensión del espacio de formas bi­
lineales sobre m © U es el producto de las dimensiones de 11 y V.
P rueba. Aplicando el Teorema 1, determinamos ie„ (para cada
p y q fijas), mediante la condición dada w„(x¡, y,) = 84i,S„. Las for­
mas bilineales así determinadas son linealmente independientes,
puesto que

Z ,Z .
implica que
O - Z p Z , “m8|,8íg - ttij.
Si, además, ui es un elemento arbitrario de v?,y si ui(x¡, y,) = en­
tonces w = Z p Z « <W<W En realidad, si x = Zi£¡*¡ y y = Z (W »

«»«(*. y) - Z< Z i£ M > 8>« “ £»i«.


y, consecuentemente,
“ (*. y) ” Z< Z i t í W i " Z » Z . «««>.(*. vl-
Se sigue que la w„ forma una base en el espacio de formas bllneales;
esto completa la prueba del teorema. (Compárese este resultado con
el § 15, Teorema 2).

EJERCICIOS
§ 24. PRODUCTOS TENSORIALES

En esta sección describiremos un nuevo método de poner juntos


dos espacios vectoriales para hacer un tercero, a saber, la formación
de su producto tensorial. Aunque tendremos relativamente poca oca­
sión de hacer uso de productos tensoriales en este libro, su teoría está
estrechamente aliada a algunos de los temas que trataremos, y es
útil en otras partes relacionadas de las matemáticas, tales como la
teoría de representaciones de grupos y el cálculo tensorial. La noción
es esencialmente más complicada que la de suma directa; en conse­
cuencia, comenzaremos por dar algunos ejemplos de lo que sería un
producto tensorial y el estudio de estos ejemplos nos guiará para
establecer una definición.
Sea 11 el conjunto de todos los polinomios en una variable s, con,
digamos, coeficientes complejos; sea x¡ el conjunto de todos los poli­
nomios en otra variable t; y, finalmente, sea "Wel conjunto de todos
los polinomios en dos variables s y t. Con respecto de las definiciones
obvias de las operaciones lineales 11, U, y IV todas son espa­
cios vectoriales complejos; en este caso, desearíamos llamar a v?,
o algo similar, el producto tensorial de 11 y v . Una razón para esta
terminología es que si tomamos cualquier x de V, y cualquier y de
, podemos formar su producto, esto es, el elemento z de v? de­
finido por z(s. t ) = x (s ) y ( t) . (Este es el producto ordinario de dos
polinomios. Aquí como antes, estamos tercamente pasando por alto
el hecho intrascedente de que podemos hasta multiplicar dos ele­
mentos de H, esto es, que el producto de dos polinomios en la mis­
m a variable es otro polinomio en esa variable. Los espacios vecto­
riales en que se define un concepto conveniente de multiplicación se
llaman álgebras, y su estudio, como tal, queda fuera del alcance
de este libro).
En el ejemplo precedente consideramos espacios vectoriales cu­
yos elementos son funciones. Podemos, si deseamos, considerar el
simple espacio vectorial 6" como una colección de funciones tam­
bién: El dominio de definición de la función es, en este caso, un
conjunto consistente en exactamente n puntos, digamos, los prime­
ros n (estrictamente) enteros positivos. En otras palabras, un vector
(íi, • ■-. f«) puede considerarse como una función de ( cuyo valor
f (í) está definido por i = 1 ti-, la definición de las operaciones
vectoriales en e" es tal, que corresponden, en la nueva notación, a
las operaciones ordinarias ejecutadas sobre las funciones f. Sí. simul­
táneamente, consideramos C" como la colección de funciones y cuyo
valor y (j) se define por j = 1 m, entonces querríamos que el
producto tensorial de e" y e " sea el conjunto de todas las funcio­
nes C cuyo valor {(t, j ) se define por i = 1, . . ., m y j = 1, . . . . m.
El producto tensorial, en otras palabras, es la colección de todas las
funciones definidas sobre un conjunto, consiste en exactamente nm
objetos y, en consecuencia, naturalmente isomórfico ae*“.Este ejem­
plo pone de manifiesto una propiedad de los productos tensoriales, a
saber, la multiplicatividad de dimensión, que desearíamos retener en
Tratemos ahora de abstraer las más importantes propiedades de
estos ejemplos. La definición de suma directa fue una posible rigo-
rización de la cruda idea intuitiva de escribir, formalmente, la suma
de dos vectores que pertenecen a espacios vectoriales diferentes. De
modo semejante, nuestros ejemplos sugieren que el producto tenso-
rial ni ® V de los dos espacios vectoriales 91 y 13 deberían ser tales
que cada x de 1i y y de 13 corresponda a un “producto"z = x ® y en
n ® V, en tal forma que la correspondencia entre x y z, para cada y
fija, asi como la correspondencia entre y y z, para cada x fija, es li­
neal. (Esto significa, por supuesto, que (a,x, + a¡x2) ® y debería ser
igual a a,(x ,® y ) + <*,(x, ® y) y que una ecuación similar sería vá­
lida para x ®(o,y, + a¡y,).) Para decirlo m ás sencillamente, x® y
deberían definir una función bilineal (valuada vectorialmente) de
xyy-
La noción de multiplicación formal requiere también que si u y v
son funcionales lineales sobren y 1) respectivamente, entonces es su
producto w, definido por w (x, y ) = u (x )v (y ), el que debería ser, en
cierto sentido, el elemento general del espacio dual (1t ® 1))'. Obsérve­
se que este producto es una función bilineal (valuada escalarmente),
de x y y.
§ 25. BASES DE PRODUCTOS
Después de una palabra más de explicación preliminar estaremos
listos para discutir la definición formal de productos tensoriales.
Resulta ser técnicamente preferible llegar a 1t ® 13 indirectamente,
definiéndolo como el dual de otro espacio; haremos un uso tácito
de la reflexividad para obtener 1t ® 13 mismo. Puesto que hemos
probado la reflexividad solamente para espacios finito-dimensionales,
restringiremos la definición a esos espacios.
Definición- El producto tensorial 11® 13 de dos espacios vec­
toriales finito-dimensionales 11 y 13 (sobre el mismo campo) es el dual
del espacio vectorial de todas las formas bilineales sobre 11 © 13. Para
cada par de vectores x y y , con x en 11 y y en13,el producto tensorial
z = x® y de x y y es el elemento de H ® 13 definido por z(w ) =
u/(x, y ) para cada forma bilineal w.
Esta definición es uno de los más rápidos abordajes rigurosos de
la teoría, pero posteriormente lleva a algunas desagradables compli­
caciones técnicas. Sin embargo, cualesquiera que sean sus desven­
tajas, observamos que obviamente tienen las dfls propiedades
deseadas; está claro, a saber, que la dimensión es multiplicativa (véa-
54 ESPACIOS VECTORIALES PINITO-DIMENSIONALES
se el § 23, Teorema 2, y el § 15, Teorema 2 ) y está claro que x®y
depende linealmente de cada uno de sus factores.
Otra posible (y merecidamente popular) definición de productos
tensoriales es por productos formales. De acuerdo con esa definición,
ni ® t) se obtiene considerando todos los símbolos de la forma “,(z
>® vi),y, dentro del conjunto de esos símbolos, haciendo las identifi­
caciones demandadas por la linearidad de las operaciones vectoriales
y la bilinearidad de la multiplicación tensorial. (Para el purista: en es­
ta definición x® y representan meramente el par ordenado de x y y; el
signo de multiplicación es solamente una insinuación de lo que se
espera). Ninguna definición es sencilla; adoptamos la que dimos
porque parecía más de acuerdo con el espíritu del resto del libro. La
principal desventaja nuestra es que no se extiende fácilmente a las
generalizaciones más útiles de espadones vectoriales finito-dimensio-
nales, esto es, a módulos y a espacios finito-dimensionales.
Por el momento probaremos solamente un teorema sobre productos
tensoriales. El teorema es una ulterior justificación de la teoría de
productos e, incidentalmente, es un afinamiento de la aserción de que
la dimensión es multiplicativa.
T eorema. Si se = {*, x.) y ■y= {y..........y») son bases de
11 j de V respectivamente, entonces el conjunto Z de vectores z,, =
*:®y, ( i = 1........ ... j = 1, . . .,n t) es una base de'U ® U
Prueba. Sea w„ la forma bilineal sobre ni © 1) tal que iv„(x,
y¡) = t„S„ (í, p = 1 n; j, g = 1, . . m ); la existenda de esas
formas bilineales y el hecho de que constituyen una base para todas
las formas bilineales, se sigue de§ 23, Teorema 2. Sea {u/Kj la base
dual de ni ® V, de manera que Iw„, w’„\ = Si w = a„w„
es una forma bilineal arbitraria sobre ni ©V, entonces
«'«(to) = [te, to'y] = 2 , 52» <W“W, te'«]
“ «« " »(*<, Vi) “ *i/(te).
La conclusión se sigue del hecho de que los vectores u /t, constituyen
una base de ni ® U

EJERCICIOS
1. Si * = (1. 1) y V = (I. i. 1) son vectores de «*y(R*respectivamente,
producto {*i®í,} donde x¡ = (»„, J„) y j , = (J„, S„, a.,).
§ 26. PERMUTACIONES
El principal tema de este libro es generalmente conocido como
álgebra lineal. En las últimas tres secciones, sin embargo, se puso
énfasis en algo llamado álgebra multilineal. Es difícil decir exacta­
mente dónde queda la linea divisoria entre los dos temas. Puesto
que, en cualquier caso, ambos son completamente extensos, no seria
práctico tratar de acumular un tratamiento extenso de ambos en el
mismo volumen. Ni es deseable discutir el álgebra lineal en su es­
tado absolutamente puro; la adición de aun una pequeña parte de la
teoría multilineal (tal como está implicada en el moderno punto de
vista de productos tensoriales y determinantes) extiende gratamente
el dominio de la teoría multilineal fuera de proporción al esfuerzo in­
volucrado. Nos proponemos, en cosecuencia, continuar el estudio del
álgebra multilineal; nuestra intención es la de trazar una linea más o
menos recta entre lo que ya sabemos y los hechos básicos de los de­
terminantes. Teniendo eso presente, dedicaremos tres secciones a la
discusión de algunos sencillos hechos sobre combinatoria; la cone­
xión entre esos hechos y el álgebra multilineal aparecerá inmediata­
mente después de esa discusión.
Por una permutación de los enteros entre 1 y k (inclusive), sig­
nificaremos una transformación uno a uno que asigna a cada uno
de esos enteros otro (o posiblemente el mismo). Decir que la trans­
formación ir es uno a uno significa, por supuesto, que si » (1 ),
. . . , ir(fe) son los enteros que ir asigna a l , . . . . k, respectivamen­
te, entonces ir(i) = * (j) puede acontecer sólo en caso de que i = j.
Puesto que esto implica que ambos conjuntos {1 k) y {» ( 1 ),
. . . , v (k)) consisten en exactamente fc elementos, se sigue que
constan exactamente de los mismos elementos. De esto, a su vez,
inferimos que una permutación ir del conjunto (1 k) traza un
mapa de ese conjunto sobre sí mismo, esto es, que si 1 S ; g k, en­
tonces existe cuando menos una i (y, de hecho, exactamente una)
tal que * (i) = j. El número total de enteros que se consideran, a
saber, k, será mantenido fijo en toda la discusión siguiente.
La teoría de las permutaciones, como todo lo demás, es mejor
entendida observando fijamente algunos ejemplos no triviales. Sin
embargo, antes de presentar cualesquiera ejemplos, mencionaremos
primero algunas de las cosas generales que pueden hacerse con per­
mutaciones; por este medio los ejemplos ilustrarán no sólo los con­
ceptos básicos, sino también sus propiedades básicas.
Si <r y r son permutaciones arbitrarias, una permutación (que
será denotada por <rr) puede definirse escribiendo
W (fl - »(«)
para cada i. Para probar que m es en realidad una permutación,
obsérvese que si (o r)(i) = ( v r)(j), entonces r(i) = r ( j ) (puesto
que a es uno a uno) y, en consecuencia, i = j, (puesto que r es uno a
uno). La permutación vr se llama el producto de las permutaciones
a y r. Advertencia: el orden es importante. En general, a r ^ n r , o,
en otras palabras, la multiplicación de permutaciones no es conmu-

La multiplicación de permutaciones es asociativa; esto es, si v, a y


r son permutaciones, entonces
(1) M r - .( 4
Para probar esto, debemos demostrar que
( M r ) » - (x(ffrj)(¿)
para toda i. La prueba consiste en diversas aplicaciones de la defi­
nición de producto, como sigue
((«WM = («)(«) - T(«(r(l))),

(*(«t))(0 - »((¿t)W) - »(*«<))).

En vista de este resultado podemos omitir y omitiremos paréntesis


al escribir el producto de tres o más permutaciones. El resultado nos
faculta también para probar las obvias leyes de los exponentes. Las
potencias de una permutación * se definen inductivamente escribí en-
do »' = » y = *■*’ para toda p = 1, 2, 3, . . . ; la ley asociativa
implica que ir*»» = »*•» y (ir*)» = ir*» para toda p y q. Obsérvese que
cualesquiera dos potencias de una permutación conmutan una con
otra, esto es, que ir*ir» = ir»ir*.
La permutación más sencilla es la identidad (que se denota con e);
se define como «(i) = i para cada i. Si ir es una permutación arbitra­
ria, entonces

o, en otras palabras, la multiplicación por r deja inafectada a cada


permutación. La prueba es directa; para.cada i tenemos
(«r>(0 - *(*©) - vW
y
(«)(») - T(.(0) - x(i).
La permutación r se comporta, desde el punto de vista de la multi­
plicación, como el número 1. En analogía con la convención numé­
rica usual, la potencia de orden cero de cada permutación n se defi-

tación (denotada por ir-') , tal que

Para definir v-'(j). donde, por supuesto, 1 g / g f c , encuéntrese la


i única, tal que ir(i) = ) y escribase « -'(j) = i; la validez de ( 3 ) es
una consecuencia inmediata de las definiciones. La permutación
es llamada la inversa de w
Sea el conjunto de todas las permutaciones de los enteros entre
1 y fc. Lo que hemos probado hasta ahora es que una operación de
multiplicación puede ser definida por los elementos de &¡¡ de manera
que ( 1 ) la multiplicación es asociativa, (2) existe un elemento de
identidad, esto es. un elemento tal que la multiplicación.por el mismo
deja fijo cada elemento de S» , y (3 ) cada elemento tiene un inverso,
esto es, un elemento cuyo producto con el elemento dado es la iden­
tidad. Un conjunto que satisface a ( l) - ( 3 ) se llama un grupo con
respecto del concepto de producto a que se refieren esas condiciones;
el conjunto S>,en particular se llama el grupo simétrico de grado k.
Obsérvese que los enteros 1, . . . . k podrían ser reemplazados por fe
objetos distintos sin afectar ninguno de los conceptos definidos ante­
riormente; el cambio seria meramente cuestión de notación.

§27. CICLOS

Un ejemplo simple de permutación se obtiene como sigue: es­


cójanse dos enteros distintos cualesquiera entre 1 y fe, digamos p y q,
y escríbase
r(p) - q,
r(q) =■ p,
t(i) «■ i cada vez que i :/= p e i y t q.

La permutación r así definida se denota por (p, q)¡ cada permuta­


ción de esta forma se llama una transposición. Si r es una transpo-

Otro modo usual de construir ejemplos, es elegir p enteros dis­


tintos entre 1 y fe, digamos t„ . . . , y escribir
»(*/) = t,+i siempre que 1 ¿ j < p,
*CW - i„
v(í) “ i siempre quet ^ ti, ■
La permutación a así definida es denotada por (i,, . . . i,). Si p = 1 .
entonces a = t-, si p = 2, entonces a es una transposición. Para cual­
quier p con 1 < p g fe, toda permutación de la forma (i,.......... i,) es
llamada un dclo-p o simplemente un ciclo; los ciclos-2 son exacta­
mente las transposiciones. Advertencia: no se supone que i, < . . .
< i,. Si, por ejemplo, fe = 5 y p = 3, entonces hay veinte ciclos dis­
tintos. Obsérvese también que la notación p a ra ciclos no es única; los
símbolos (1, 2,3), (2, 3, 1) y (3 , 1, 2 ) denotan todos la misma per­
mutación. Dos ciclos (i,..........i,) y ( j,.......... j,) , son disjuntos si nin­
guna de las i es igual a ninguna de las j. Si o y r son ciclos disjuntos
entonces ar = ra o, en otras palabras, a y r conmutan.
T eorema 1. Toda permutación es el producto de ciclos disjuntos

Prueba. Si ir es una permutación y si t es tal que » («) i


(supóngase, por el momento, que » f or ma la secuencia (i,
„ (i), ir!(f), . . . ). Puesto que hay sólo un número finito de enteros
distintos entre 1 y k, deben existir exponentes p y q( 0 § p < q)
tales que iH’( i) = v’Ct). El carácter uno a uno de * implica que
= i, o, con un obvio cambio de notación, lo que hemos pro­
bado es que debe existir un exponente p estrictamente positivo, tal
que jr'(f) = «- Si se escoge a p, como el exponente más pequeño
con esta propiedad, entonces los enteros i, . . . . son distintos
uno de otro. (En realidad, si 0 g q < r < p y ^ ( í ) = nr( í) , en­
tonces *"*(0 = i, contradiciendo la minimalidad de p ). Se sigueque
(i, . . . . .'- '( i ) ) és un ciclo-p. Si hay una ; entre 1 y Jt diferente de
cada una de las i r’-'(i) y diferente de » (;). repetimos el
procedimiento que nos condujo a este ciclo, con j en lugar de i.
Continuamos formando ciclos de esta manera, mientras después
de cada paso podamos todavía hallar un nuevo entero que ir no
envíe sobre sí misma; el producto de los ciclos disjuntos así cons­
truidos es ir. El caso ir = e es cubierto por la convención un tanto
natural de que un producto sin factores, un “producto vacío', ha de
interpretarse como la permutación de identidad.
T eorema 2. Todo ciclo es un producto de trasposiciones.
P rueba. Supóngase que • es un ciclo-p, en obsequio de la
sencillez de notación, daremos la prueba, que es perfectamente gene­
ral, en el caso especial p = 5. La prueba misma consiste en una

is, i„ ú , i») - «i, isW u ÚKÚ, fa ­

unas cuantas palabras más de explicación podrían ser útiles. En


vista de la definición del producto de permutaciones, el segundo
miembro de la última ecuación opera sobre cada entero entre 1 y fc
de adentro hacia afuera o, quizás más sugestivamente, de derecha
a izquierda. Así, por ejemplo, el resultado de aplicar (i,, i,) (i,, i,)
(i„ h ) ( k , fe) a i, se calcula como sigue: (i,, - i„ (i,. i,) ( i,)
= i.. («1. = i„ (U, h)(U ) = U, de manera que_(i„ *.)(*,, i.)
(i,. i,)(i„ U )(i.) = i..
§ 28. PARIDAD
Puesto que (1, 3 )(1 , 2 ) = (1, 2 )(2 , 3 ')(= (1 , 2, 3 )). vemos
que la representación de una permutación (hasta u n ciclo) como
un produelo de trasposiciones no es necesariamente único. Puesto
que (1, 3)(1, 4 ) (1, 2)(3, 4 )(3 , 2 ) = (1, 4 )(1 . 3 )(1 , 2 )( = (1.
2, 3, 4 )), vemos que aun el número de trasposiciones necesarias
para factorizar un ciclo, no es necesariamente único. Hay, no obs­
tante, algo único sobre la factorlzaclón, a saber, si el número de
trasposiciones necesarias es par o impar. Procedemos a enunciar
con precisión este resultado y a probarlo.
Supóngase, para mayor sencillez de la notación, que k = 4. Sea
f el polinomio (en cuatro variables, t,. t,, í„ t.) , definido por
m , >>, <>. « - «i - « « i - « d i - « d . - « d i - « « . - « .
(En el caso general f es el producto de todas las diferencias t, — t¡,
1 § i < j g k). Cada permutación . en i , conviene a f en un
nuevo polinomio, denotado por *f; por definición
W)di>« <i.« m /d.(D, *.«). « » i «4))-
En palabras: para obtener wf, reemplácese cada variable en f por
aquella cuyo subíndice se obtiene permitiendo a * actuar sobre el
subíndice de la dada. Si. por ejemplo, r = (2, 4), entonces
(r/)di, « « « - «i - « d i - « d i - «(<4 - «(<4 - «(«i - « •
Si a = (1, 3, 2, 4 ), de manera que <rr = (1, 3, 2 ), entonces tanto
( .( r f ) ) ( t „ t„ t„ f.) como ((o r)f)(t„ t„ « t.) , son Iguales a
ds - «d a - «d a - « d i - « d i - « d a - « •
Estos cómputos ilustran e indican las pruebas de tres hechos
importantes. (1 ) Para cada permutación *, los factores de *f son
iguales que los factores de f, excepto, posiblemente en cuanto a
signo y orden; consecuentemente * f = f, t> * f = — f. La permuta­
ción * se llama par si r f = f e impar si *f = - f . El signum (o
signo) de una permutación r, denotado por sgn • es + 1 o - 1.
según ~ es impar o par, de manera que siempre tenemos rf =
(sgn»)f. El hecho de que r sea par o impar es algunas veces
expresado diciendo que la paridad de tt es par, o impar, respecti­
vamente. (2 ) Si r es una trasposición, entonces sgn r = — 1, o,
equivalentemente, toda trasposición es impar. La prueba es la obvia
generalización del siguiente razonamiento sobre el ejemplo espe­
cial (2, 4). Exactamente un factor de f contiene tanto a t- como
t„ y cambia signo en el pasaje de f a rf. Si un factor no contiene
ni U ni t„ permanece fijo. Los factores que contienen solamente
uno de t, y t„ vienen en pares (tales como el par (t, - ía) y
<t, - t,) . o el par (i, - t,) y t, - t,). Cada factor en esos pares
entra al otro factor, excepto posiblemente que su signo pueda cam­
biar; si cambia para un factor, cambiará para su compañero. (3 )
Si <r y r son permutaciones, entonces (<rr)f = o (rf); consecuente­
mente < jt es par si y sólo s i » y r tienen la misma paridad. Obsérvese
que sgn(trr) = (sgn «)(sgn r).
Se sigue de ( 2 ) y ( 3 ) que un producto de un manojo de tras­
posiciones es par si y sólo si hay un número par de ellas y es impar
en el otro caso. (Nótese, en particular, observando la prueba del
§ 27, Teorema 2, que un ciclo-p es par si y sólo si p es impar; en otras
palabras, s U es un ciclo-p, entonces sgn a = ( — l ) '” . Conclusión:
Sin importar cómo una permutación n es factorizada en trasposi­
ciones, el número de factores es siempre par (este es el caso si t
es par) o también es siempre im par (este es el caso si » es impar).
El producto de dos permutaciones pares es par; la inversa de
una permutación par es par; la permutación de identidad es par.
Estos hechos se resumen diciendo que el conjunto de todas las
permutaciones pares es un subgrupo de Si; este subgrupo (denotado
por a*) se llama el grupo alterno de grado k.

EJERCICIOS
1. ¿Cuántas permutaciones hay en G*?
2. Dense ejemplos de permutaciones pares con orden par, y de permuta-

cada tactor del cual es uno de los clclos-3 (1, 2, 3) (X. 2, 4) (1. 2, k).

§ 29. FORMAS MULTILINEALES

Estamos ahora listos para proceder con el álgebra multilineal. El


concepto básico es el de forma multilineal (o funcional), una fácil
generalización del concepto de forma bilineal. Supóngase que Vi,
. . . . Vi son espacios vectoriales (sobre el mismo campo); una forma
k-lineat (k = 1, 2, 3, . . . ) es una función valuada escalarmente
sobre la suma directa Vi © • • • © V i, con la propiedad de que nara
cada valor fijo de cualesquiera argumentos fe - 1, depende lineal­
mente del argumento restante. Las formas 1-lineales son sim­
plemente las funcionales lineales (sobre V ^ y las formas 2-lineales
son las formas bilineales (sobre ViffiVa).” Las formas 3-lineales
(o trilineales) son las funciones iv (sobre Vi ©V a© V3 ), valuadas
escalarmente, tales que
w(a¡x, + a2z3, y, z) - y, z) + a2w(z2, y, z),
y tales que identidades similares son válidas para ui(x, o,y, + z).
y vj( x , y , a,z, + a¡z,). Una función que es fe-lineal para algunas fe.
se llama una forma multilineal.
Gran parte de la teoría de las formas bilineales se extiende
fácilmente al caso multilineal. Asi, por ejemplo, si w, y w, son
formas fe-lineales, si at y o, son escalares, y si w se define por
»(*„ •■•,**)= •••,**) + • ■•, xu)
siempre que x¡ esté en V¡, i = l fe, entonces w es una forma
fe-lineal, denotada por a,w, + a,w,. El conjunto de todas las formas
fe-lineales es un espacio vectorial con respecto de esta definición
de las operaciones lineales; la dimensión de ese espacio vectorial es
el producto n, n«, donde, por supuesto, n¡ es la dimensión deU«
Las pruebas de todos estos enunciados son justamente como las
pruebas (en el § 23) de los enunciados correspondientes para el caso
bilineal. Podríamos seguir imitando la teoría bilineal y, en particu­
lar, estudiando productos tensoriales múltiples. A fin de mantener
dentro de un mínimo nuestra digresión multilineal, marcharemos,
en cambio, en una dirección diferente, más especial y, para nues­
tros propósitos, más útil.
En lo que sigue restringiremos nuestra atención al caso en que
los fe espacios v¡ son todos iguales a uno y el mismo espacio vecto­
rial, digamos, v , supondremos que v es finito dimensional. En
este caso llamaremos a una “forma fe-lineal sobredi © ••• ffiri*”
simplemente "una forma fe-lineal sobre t ) ", o, aún más sencilla­
mente, una “forma fe-lineal"; el lenguaje es ligeramente inadecua­
do, pero, en el contexto, completamente no ambiguo. Si la dimensión
de v, es n, entonces la dimensión del espacio vectorial de todas las
formas k-lineales es n*. El espacio v y, por supuesto, la dimen­
sión n, se mantendrá fija en toda la discusión siguiente.
El carácter especial del caso que estamos estudiando nos faculta
para aplicar una técnica que no es universalmente disponible; la
técnica consiste en operar sobre las formas fe-lineales por permu­
taciones en Si. Si te es una forma fe-lineal, y si » está en Si, es­
cribimos
"»(*!. • • i **) - »(*.«), • • •, *»<*>)
siempre que x„ x, estén an V. La función rw 'asf definida
es de nuevo una forma fe-lineaj. (El valor de irw en (* i.......... x„) es
más honradamente denotado por (iriv)(xla . . xk); puesto que, no
obstante, la notación más sencilla no parece conducir a confusión
alguna, continuaremos usándola).
Usando el modo como las permutaciones actúan sobre formas
fe-lineales. podemos definir algunos interesantes conjuntos de esas
formas. Así, por ejemplo, una forma fe-lineal w se llama simétrica
si nw — w para cada permutación • de S*. (Nótese que si fe = 1,
entonces esta condición se satisface trivialmente). El conjunto de
todas las formas simétricas fe-lineales es un subespacio del espacio
de todas las formas fe-lineales. De aqui que, en particular, el ori­
gen de ese espacio, la forma fe-lineal 0, es simétrico. Para un ejemplo
no trivial, supóngase que fe = 2, sean y, y y, funcionales lineales
sobre v , y escríbase
u>(zi, z2) “ yi(zi)ytfo) + ffi(*a)»(*i)-
Este procedimiento para construir formas fe-lineales tiene generali­
zaciones útiles. Así, por ejemplo, si l g f e c f e g n y s i u e s una
forma fe-lineal y v es una forma (fe - fe)-lineal, entonces la
ecuación
u¡(x¡, •■■,**) = u(*i, *0•»(**+!. ■■••**)
define una forma fe-lineal vj, que, en general, es no simétrica. Una
forma fe-lineal simétrica puede obtenerse de w (o, para el caso, de
cualquier forma fe-lineal dada), formando ^ n v i , donde la suma
se extiende sobre todas las permutaciones ir en S*.
No estudiaremos más las formas simétricas fe-lineales. Las in­
troducimos aqui porque constituyen una clase muy natural de fun­
ciones definibles en términos de permutaciones. Las abandonamos
ahora en favor de otra clase de funciones, que juegan un papel
mucho más importante en la teoría.

§ 30. FORMAS ALTERNAS

Una forma fe-lineal w es simétrico-oblicua si n u = —tu para


cada permutación impar rr en i t. Equivalente, w es simétrico-oblicua
si üW = (sgn n)w para toda permutación ir en S*. (Si nw = (sgn ir)tt>
para toda t, entonces, en particular, nw = —w cada vez que ir es
impar. Si, recíprocamente, nw = — w para toda ir impar, entonces,
dada una ir arbitraria, factoricese en transposiciones, digamos
ir = t, . . . r„, obsérvese que sgn ir = ( - l) * 'y , puesto que -
( - l ) '» , conclúyase que *ui = (sgn ttJjíi, como se enunció. Esta
prueba hace uso de un hecho no probado, pero fácilmente verifi-
cable de que si a y r son permutaciones en S», entonces =
(or)tv). El conjunto de todas las formas fc-lineales simétrico-oblicuas
es un subespacio del espacio de todas las formas fc-lineales. Para
obtener un ejemplo no trivial de una forma bilineal simétrico-obli-
cua w, sean y, y y, funcionales lineales y escribamos
w(*i, xt) = yi(ii)yj(za) - tfifoM zi)-
Más generalmente, si w es una forma fc-lineal arbitraria, una forma
fc-lineal simétrico-oblicua puede obtenerse de vi, formando £ ( s g n ir)
nw, donde la suma se extiende sobre todas las permutaciones -
en «».
Una forma fc-lineales w se llama alterna si w{x¡ x t ) = 0,
siempre que dos de las x son iguales. (Nótese que si fe = 1, entonces
esta condición se satisface vacuamente). El conjunto de todas las
formas alternas fc-lineales es un subespacio del espacio de todas
las formas fc-lineales. Hay una importante relación entre formas
alternas y simétrico-oblicuas.
Teorema 1. Toda forma alterna multilineal es simétrico-oblicua.
Prueba. Supóngase que w es una forma alterna fe-lineal, y que
i y j son enteros, 1 g i < ; g fe. Si x„ . . . . xt son vectores, es­
cribimos
«#(* * * > )-« (* .,- ■-,**);
si las x distintas de x¡ y x¡ se mantienen fijas (temporalmente),
entonces ui„ es una forma alterna bilineal de sus dos argumentos.
Puesto que, por bilinearídad
v>
o(xí + x¡, xt + x¡) = wa(xi, x¡) + wa(x¡, xj) + u>0(*/, x¿) + xj),
y puesto que, por el carácter alterno de w,,, el primer miembro y los
términos extremos del segundo miembro de esta ecuación desapa­
recen, vemos que ui„(xh x¡) = — w,.(x,, x¡). Esto, sin embargo,
dice que
(», j)w(xu ■■■,xl) = —te(*i, -• -,*»),
o, puesto que las x son arbitrarias, que (i, j)w = - w. Puesto que
toda permutación impar es el producto de un número impar de
trasposiciones, tales como (i, ;) , se sigue que vw = - w para toda
r impar, y la prueba de este teorema es completa. 7.
La conexión entre formas alternas y formas simétrico-oblicuas
implica un punto sutil. Considérese la siguiente "prueba" del recí­
proco del Teorema 1: si w es una forma it-lineal simétrico-oblicua,
si 1 g i < j g k y si xu . . . . x» son vectores tales que x, = x¡
entonces (i, j)w (x, xt ) = ¡t/(x„ . . . . xt ) puesto que x¡ = x , y
al mismo tiempo (i, j)ui(x„ . . . , x») = - vi(x„ . . . . xk), puesto
que vi es simétrico-oblicua; consecuentemente w(x„ . . . . xt ) =
- ti/(x, Xt) de manera que w es alterna. Este argumento es
erróneo; la dificultad está en la inferencia “si w = - w, entonces
w = 0". Si examinamos esa inferencia con mas detenimiento, en­
contramos que está basada en el razonamiento siguiente: si
w = — w, entonces w + w = 0, de manera que (1 + 1 )w = 0.
Esto es correcto. La dificultad está en que, en ciertos campos
1 + 1 = 0, y en consecuencia, la inferencia d e ( l + wl = O a n i =
0, no está justificada; la recíproca del Teorema 1 es, de hecho, fal­
sa para espacios vectoriales sobre esos campos.
T eorema 2. Si x, x, son vectores linealmente depen­
dientes y si vi es una forma k-lineal alterna, entonces u/fx,, . . . .
xt) = 0.
Prueba. Si x, = 0 para alguna t, la conclusión es trivial. Si
todas las x¡ son diferentes de 0, aplicamos el teorema del § 6, para
determinar una x», 2 g h g k, que es una combinación lineal de
las precedentes. Si, digamos, x» =■ £ ? -o a¡z¡, reemplácese x» en u
. . . . xk) en este argumento h-gésimo y trácese la conclusión de­
seada mediante una (k - l)-tuple aplicación en supuesto de que

En un caso extremo (a saber, cuando k = n ), una especie de


recíproco del Teorema 2, es verdadero.
T eorema 3. Si w es una forma n-lineal alterna, no cero, y si
x„ . . . , x„ son vectores linealmente independientes, entonces
vi(x x .) 0.
Prueba. Puesto que ( § 8 , Teorema 2 ), los vectores x„ . . . , x„
forman una base, podemos, dado un conjunto arbitrario de n vec­
tores y,, . . . . y» escribir cada y como una combinación lineal de
las x. Si reemplazamos cada y de vi(y y .) por la correspon­
diente combinación lineal de x y expandimos el resultado por mul-
tilinealidad, obtenemos una larga combinación lineal de términos
tales como vi(z„ . . . , z»), donde cada z es una de las x. Si, en ese
término, coinciden dos de las z, entonces, puesto que w es alterna,
67
ese término debe desaparecer. Si, por otra parte, todas las z
son distintas, entonces 10(2,, . . . . z») = irtv(x, x„) para
alguna permutación ». Puesto que (Teorema 1) w es simétrico-
oblicua, se sigue que w(z, z .) = (sgn ir)n/(x, x ,). Si
v/(x, . . . ,x„) fuera 0 se seguiría que w(z, z„)= 0, y de aquí
que vi (y,, . . . , y .) = 0 para toda y,, . . . . y., contradicendo el
supuesto de que w ^ 0. La prueba (no el enunciado) de este resul­
tado da un valioso corolario.
Teorema 4. Dos formas n-lineales alternas cualesquiera son
linealmente dependientes.
Prueba. Supóngase que w, y w, son formas n-lineales alternas
y que {x,, . . . . n„) es una base. Dados n vectores cualesquiera
y„ . . . , y„, escriba cada uno de ellos como una combinación lineal
de las x, y, tal como anteriormente, reemplace cada uno de ellos,

diente combinación lineal. Se sigue que cada w,(y, y.) y


w ,(y y .) es una combinación lineal (la misma combinación
lineal) de términos tales como u/,(z,........... z .) y ui,(z, z„),
donde cada z es una de las x. Puesto que w ,(x x„) y
ui,(x„ . . . . x») son escalares, son linealmente dependientes, de
manera que existen escalares <r, y «, no ambos ceros, tales que
o,w,(x, . . . . x„)+ o,w,(x,..........x») = 0; de estos hechos podemos
inferir que <r,u>, + a,ui, = 0, como se afirmó.

§ 31. FORMAS ALTERNAS DE GRADO MAXIMO

Revisando la última sección, el lector observará que no dimos


ningún ejemplo no trivial de formas fe-lineales alternas y ni siquiera
indirectamente sugerimos teorema alguno de existencia relativo a
las mismas. De hecho, no siempre existen; el § 30, Teorema 2, im­
plica, por ejemplo, que fe > n, entonces 0 es la única forma fe-lineal
alterna. (Véase el § 8, Teorema 2). Para las aplicaciones que
tenemos a la vista, necesitamos solamente un teorema de existen­
cia; procedemos a probar una forma del mismo un tanto concisa.
Teorema. El espacio vectorial de formas n-lineales alternas
sobre un espacio vectorial n-dimensional es unidimensional.
Prueba. Demostramos primero que si l S f e g n , entonces
existe cuando menos una forma fe-lineal alterna, no cero; la prueba
va por inducción sobre fe. Si fc = 1, el resultado deseado se sigue de
la existencia de funcionales lineales no triviales (véase el § 15,
Teorema 3). Si 1 S k < n, suponemos que v es una forma fe-lineal
alterna, no cero; usando v construiremos una forma lineal w alterna
(fc + 1) no cero. Puesto que v =¡t 0. podemos encontrar vectores
xf¡ . . . a?, tales que u(x^ . . . x j) qt 0 (los supraíndices son aqui
justamente índices). Puesto que fe < n, podemos encontrar un vec­
tor x? que no pertenece al subespacio sobrctendido por x? . . . .
xj y (véase el § 17, Teorema 1), podemos entonces encontrar una
funcional lineal u, tal que u(x°) = . . . = u(x") = 0 y u(x£4l ) 0.
La prometida forma (fc + 1 )-lineal w se obtiene de la funcional
lineal u y la forma fe-lineal v. escribiendo
(1) 1»(X|, ■■Z|,H+l)= 2 Í-1 (*i fe + ‘' ' i
- ufo, • • Z4)ll(Xl+|).
Así, por ejemplo, si fc = 3, entonces
v>(x¡, z2, z3, xt) = o(z4, x2, z3)u(z,) + »(*,, x4, z3)u(xs)
+ »(*i, *í , z,)u(z3) - zj, z3)u(z4).
Se sigue de la discusión elemental del § 29, que w es en realidad
una forma (k + l)-lineal; tenemos que probar que es no cero y
alterna.
El hecho de que w no sea idénticamente cero es fácil de probar.
En realidad, puesto que u(x“) = 0 para i = 1, . . . , fc, se sigue que
si reemplazamos x, por X¡ en (1 ), i = 1, . . k + 1, entonces los
primeros fe términos de la suma a la derecha desaparecen y, conse-

(2) w(z?, ■■ zj, z2+1) - -»(z?, - • zj)u(z2+1) * 0.


Supóngase ahora que x, xb , son vectores e i y j son enteros
tales que l £ i < j S f c + 1 y x i= x ; . Tenemos que probar que, ba­
jo estas circunstancias, w (x, x ,„ ) = 0. Notamos que tanto x,
como xf ocurren en el argumento de v en todos, excepto en dos de
los fc + 1 términos del primer miembro de (1). Puesto que v es al­
terna. los términos en que tanto x, y x, ocurren así, desaparecen

El resto de la prueba se divide naturalmente en dos casos. Si


j = k l 1. entonces todo lo que queda a la izquierda es
ESPACIOS 69

y, puesto que x¡ = x>„, esto es claramente igual a 0. Si j S k, en­


tonces cada uno de los dos- términos que posiblemente no desapa­
rezcan y que quedan todavía, pueden obtenerse del otro por una
aplicación de la trasposición (i, j) . Se sigue que esos términos
difieren en signo solamente y de aquí que su suma sea cero. Esto
prueba que w es alterna y prueba, en consecuencia, que la dimen­
sión del espacio de formas n-lineales alternas es no menor de 1.
El hecho de que la dimensión del espacio de formas n-lineales
alternas no es más de 1, es una consecuencia inmediata del § 30,
Teorema 4.
Esto concluye nuestra discusión del álgebra multilineal. El lec­
tor podría bien hacer el cargo de que la discusión no estuvo fuerte­
mente motivada. Este libro no puede contener una motivación
completa; la justificación del estudio del álgebra multilineal es la
amplia aplicabilidad de esa materia. La única aplicación que hare­
mos es a la teoría de los determinantes (que, de seguro, podría ser
tratada por métodos más directos, pero menos elegantes, que invo­
lucran mucho mayor dependencia de selecciones arbitrarias de
bases); esa aplicación pertenece al capítulo siguiente.

EJERCICIOS

1. Si te es una forma k-lineal y si la característica del campo subyacente


de escalares es diferente de 2 (esto es, si 1 + 1 ^fcO), entonces u es la suma
de una forma k-lineal simétrica y de una oblicuoslmétrico. ¿Qué si la
característica es 2?
2. Dé un ejemplo de una forma multilineal oblicuoslmétrlca que no sea
alterna. (Recuérdese que en vista de la discusión del S 30, el campo de esca­
lares debe tener característica 2).
3. Dese un ejemplo de una forma k-lineal alterna w sobre un espacio
n-dimensional (k < n), tal que ui(x, xk) = 0, para algún conjunto de

4. ¿Cuál es la dimensión del espacio de todas las formas simétricas


k-lineales? ¿Qué sobre los oblicuoslmétrico? ¿Qué sobre los alternos?
CAPITULO 2

TRANSFORMACIONES LINEALES

§32. TRANSFORMACIONES LINEALES

Llegamos ahora a los objetos que realmente hacen interesantes


a los espacios vectoriales.
Definición . Una transformación lineal (u operador) A so­
bre un espacio vectorial U es una correspondencia que asigna a
cada vector x de t) un vector Ax de V, de tal modo que
A(ax + fiy) - aAx + fiAy
idénticamente en los vectores x y y y en los escalares a y p.

Hacemos de nuevo la observación que hicimos en relación con


la definición de funcionales lineales, a saber, que para una trans­
formación lineal A, como la definimos, AO = 0. Por esta razón, esas
transformaciones son algunas veces llamadas transformaciones li­
neales homogéneas.
Antes de discutir cualesquiera propiedades de las transformado
nes lineales damos varios ejemplos. No nos molestaremos en probar
que las transformaciones que mendonamos son, en realidad, linea­
les; en todos los casos la verificación de la ecuación que define la
linearidad, es un simple ejercicio.
(1 ) Dos transformadones espedales de considerable importan­
cia para el estudio que sigue, y para el cual consistentemente reser­
vamos los símbolos 0 y 1, respectivamente, se definen (para todas
las x ) por Ox = 0 y lx = x.
(2 ) Sea x„ cualquier vector fijo en ti, y sea y„ cualquier fun­
cional lineal sobre V- escríbase Ax = y„(x)-x„. Más generalmente;
sea {x,......... x.) un conjunto finito arbitrario de vectores en ti;
y sea {y„ . . . . y.) un conjunto correspondiente de funcionales linea­
les sobre v escríbase Ax = j,(x )x , + . . . + y.(x)x„ No es difícil
probar que si, en particular, D es n-dimensional, y los vectores x,,
. . . . x, forman una base para u, entonces toda transformación li­
neal A tiene la forma que se acaba de describir.
(3 ) Sea ir una permutación de los enteros {1, . . . , n}; si x =
(f,.........í.) es un vector en 6", escríbase Ax = .........
De modo semejante, sea r un polinomio con coeficientes complejos;
si x es un vector (polinomio) en 9, escríbase Ax - y para el po­
linomio definido por y(t) = x(ir(t)).
(4) Para cualquier x de (P„, x(Q = £ ;- o escribase (Dx)(t) =
Z ’- ó j í / -1.
(Usamos aquí la letra D para recordar que Dx es la
derivada del polinomio x. Hacemos la observación de que podriamos
haber definido a D sobre <? así como sobre iPn; posteriormente ha­
remos uso de este hecho. Obsérvese que para los polinomios la
definición de diferenciación puede darse en forma puramente alge­
braica y no necesita la teoria usual de los procesos límite.)
(5 ) Para cada x de ®>, x(t) = £y-o, £ /, debe escribirse Sx =

(Una vez más estamos disfrazando con notación al­


gebraica un concepto analítico bien conocido.) Justamente como en
(4 ) (D x)(t) estaba en lugar de —, de manera que aquí (Sx)(t)
es igual que J 0 *W
(6) Sea m un polinomio con coeficientes complejos en una va­
riable t. (Podemos, aunque no es particularmente provechoso hacer­
lo. considerar a m como un elemento de <P.) Para cada x de <y,
escribimos Mx para el polinomio definido por (M x)(t) = m (t)x(l).
Para fines ulteriores, introduciremos un símbolo especial; en caso
de que m (t) = t, escribiremos T para la transformación M. de ma­
nera que (T x)(f) = tx(t).

§33. TRANSFORMACIONES COMO VECTORES

Procedemos ahora a deducir ciertas propiedades elementales de,


y relaciones entre, transformaciones lineales sobre un espacio vecto­
rial. Más particularmente, indicaremos varios modos de hacer nue­
vas transformaciones, partiendo de las antiguas; generalmente nos
satisfaremos con dar la definición de las nuevas transformaciones
y omitiremos la prueba de linearidad.
Si A y B son transformaciones lineales, definimos su suma, S =
A + B, por la ecuación S i = Ax+ Bx (para toda x). Observamos que
la conmutividad y la asociatividad de la adición en V implica
inmediatamente que la adición de transformaciones lineales es con­
mutativa y asociativa. Muchos más que esto es verdad. Si conside­
ramos la suma de cualquier transformación lineal A y la transfor­
mación lineal 0 (definida en la sección precedente, vemos que A +
0 = A. Si, para cada A, denotamos por —A la transformación de­
finida por ( - A ) x = - (Ax), vemos que A + ( - A ) = 0, y que la
transformación —A, asi definida, es la única transformación lineal
B con la propiedad de que A + B = 0. Resumiendo: Las propieda­
des de un espacio vectorial, descrito en los axiomas(A) del § 2.
aparecen de nuevo en el conjunto de todas las transformaciones
lineales sobre el espacio: el conjunto de todas las transformacio­
nes lineales es un grupo abeliano con respecto a la operación de
adición.
Continuamos en el mismo espíritu. Por ahora no sorprenderá a
nadie si los axiomas (B) y (C) de espacios vectoriales se satisfa­
cen también para el conjunto de todas las transformaciones linea­
les. Se satisfacen. Para cualquier A y cualquier escalar », definimos
el producto «A por medio de la ecuación («A)x = o(Ax). Los axio­
mas (B) y (C ) son inmediatamente verificados; resumimos como

Teorema. El conjunto de todas las transformaciones linea­


les sobre un espacio vectorial es él mismo un espacio vectorial.
Usualmente pasaremos por alto este teorema; la razón es que
podemos decir mucho más sobre transformaciones lineales y el mero
hecho de que formen un espacio vectorial se usa muy rara vez. El
“mucho más" que podemos decir, es que existe para las transforma­
ciones lineales una más o menos conveniente definición de multipli­
cación, que discutiremos en la sección siguiente.
EJERCICIOS
§34. PRODUCTOS

El producto P de dos transformaciones lineales A y B, P = AB,


se define por la ecuación Px = A(Bx).
La noción de multiplicación es fundamental para todo lo que
sigue. Antes de dar ejemplos para ilustrar el significado de produc­
tos de tranformación, observemos las implicaciones del simbolismo
P - AB. Decir que P es una transformación significa, por supuesto,
que dado un vector x, P le hace algo a ese vector. Lo que le hace
se encuentra operando sobre x con B, esto es, encontrando Bx, y a
continuación operando sobre el resultado con A. En otras palabras,
si consideramos el símbolo para una transformación como una re­
ceta para ejecutar un acto determinado, entonces el símbolo para
el producto de dos transformaciones ha de leerse de derecha a iz­
quierda. El orden para transformar por AB significa transformar
primero por B y a continuación por A. Esto puede parecer como
crear demasiada confusión por un motivo pequeño; sin embargo,
como pronto veremos, la multiplicación de transformaciones es, en
general, no conmutativa y el orden en que tranformamos tiene mu­
cha importancia.
Los ejemplos más notorios de no conmutatividad se encuen­
tran sobre el espacio (?. Consideremos las transformaciones de di­
ferenciación y multiplicación D y T definidas por (D x )(t) = ^ y
(r*)(() —tx(t): tenemos

(D T * )(0 -^ («*(<))-*(<) + < £


y dx
(TDz)(fí -

En otras palabras, no sólo es falso que DT = TD (de manera que


DT - TD = 0 ), sino que, de hecho, (DT - TD )x = x para toda x,
de manera que DT - TD = 1.
Sobre la base de los ejemplos del § 32, el lector podría estar en
condiciones de construir muchos ejemplos de pares de transforma-

geométricamente en las transformaciones lineales, pueden, por


ejemplo, convencerse fácilmente de que el producto de dos rotacio­
nes de St5 (alrededor del origen) depende, en general, del orden en
que se ejecuten.
La mayor parte de las propiedades algebraicas formales de la
multiplicación numérica (con la ya mencionada notable excepción
de la conmutatividad) son válidas en el álgebra de transformaciones.
Asi, tenemos

(1) AO = OA = 0,
(2) 1A - A,
(3) A(B + C) - AB + AC,
(4) (A + B)C - A C + BC,
(6) A(BQ - (AB)C.

Las pruebas de todas estas identidades son consecuencias inmedia­


tas de las definiciones de adición y multiplicación; para ilustrar los
principios probamos (3 ), una de las leyes distributivas. La prueba
consiste en el siguiente cómputo:

(A(B + 0 ) x - A((B + o * ) - A(Bx + Cx)


= A(Bx) + A(Cz) = (AB)x + (AC)x
—(AB + AC)x.

§35. POLINOMIOS

La ley asociada de la multiplicación nos faculta para escribir


el producto de tres (o más) factores sin ningún paréntesis; en par­
ticular podemos considerar el producto de cualquier número finito,
digamos m, de factores todos iguales a A. Este producto depende
solamente de A sobre m (y no, como acabamos de observar, de cual­
quier puesta en corchetes de los factores); lo denotaremos por A“.
La justificación de esta notación es que, aunque, en general, la
multiplicación de transformaciones no es conmutativa, para las po­
tencias de una transformación tenemos las leyes usuales de los
exponentes, A*A“ = A“-“ y (A")" = A”“. Observamos que A‘ = A;
es costumbre escribir también, por definiciSn, A° = 1. Con estas
definiciones el cálculo de potencias de una sola transformación es
casi exactamente el mismo que el de la aritmética ordinaria. Po­
demos. en particular, definir los polinomios en una transformación
lineal, así, si p es un polinomio con coeficientes escalares en una va­
riable t, digamos p ( t) = a, + <r,t + . . . +a„c, po-demos formar la
transformación lineal
p(A) - aol + «id H h a»A*.
Las reglas para la manipulación algebraica de esos polinomios son
fáciles. Así, p (t)q (t) = r(t) implica p(A )q(A ) = r(A ) (de manera
que, en particular, cualquier p (A ) y q(A) son conmutativas); si p (t)
= a (idénticamente), usualmente escribiremos p(A) = a en vez de
p(A) = a ■1); esto está en armonía con el uso de los símbolos 0 y 1
para las transformaciones lineales.
Si p es un polinomio en dos variables y si A y B son transforma­
ciones lineales, no es usualmente posible dar una interpretación ra­
zonable a p(A, B). La dificultad, por supuesto, es que A y B pueden
no conmutar y aun un simple monomio, como s’t, causará confu­
sión. Si p(s, t) = s’t, ¿qué entenderíamos por p(A, B)? ¿Sería A’B,
o ABA, o BA? Es importante reconocer que hay una dificultad aquí;
afortunadamente para nosotros no es necesario tratar de vencerla.
Trabajaremos con polinomios en varias variables sólo en conexión
con transformaciones conmutativas, y entonces todo es sencillo.
Observamos que si AB - BA. entonces A*B“ = B“A" y, en consecuen­
cia, p(A, B) tiene un significado no ambiguo para todo polinomio p.
Las propiedades formales de la correspondencia entre transforma­
ciones (conmutativas) y polinomios son igualmente válidas para
varias variables que para una; omitimos los detalles.
Para un ejemplo del posible comportamiento de las potencias de
una transformación vemos la transformación de diferenciación D
sobre ó* (o, justamente igual, sobre (?., para alguna n). Es fácil ver
que para cada entero positivo k, y para todo polinomio x en 9, tene­
mos (D*x)(t) = -jp-. Observamos que cualquier cosa que D haga,
baja el grado del polinomio sobre el cual actúa en exactamente una
unidad (suponiendo, por supuesto, que el grado es g 1). Sea x un
polinomio de grado n —1, digamos; ¿qué es D"x? O dicho de otro
modo: ¿cuál es el producto de las dos transformaciones (conmuta-
dvas) D* y D* ‘ (donde k es un entero entre 0 y n ), considerado
sobre el espacio 8’.? Mencionamos este ejemplo para poner de ma­
nifiesto el hecho desconcertante implicado por la respuesta a la Ú1U-
ma cuestión; el producto de dos transformaciones puede desaparecer
aun cuando ninguna de ellas sea cero. Una transformación no cero,
cuyo producto con alguna transformación no cero sea cero, se llama
neales). ¿Puede obtenerse de esto manera (por selección de una A adecua­
da) cada transformación lineal sobre ese espacio?

§36. INVERSOS
En cada una de las dos secciones precedentes dimos un ejem­
plo; estos dos ejemplos ponen de manifiesto las dos desagradables
propiedades que tiene la multiplicación de transformaciones linea­
les, a saber, la no conmutativa y la existencia de divisores de cero.
Pasamos ahora a propiedades más agradables que tienen las trans­
formaciones lineales.
Puede suceder que la transformación lineal A tenga una o am­
bas de las dos siguientes propiedades muy especiales.
(i) Si Xi 96X1, entonces Axx =£ Ax,.
(ii) A cada vector y corresponde (cuando menos) un vector x
tal que Ax = y.
Si cada A tiene estas dos propiedades, diremos que A es inver-
tible. Si A es invertible, definimos una transformación lineal, lla­
mada el inverso de A y denotada por A'1, como sigue. Si y„ es
un vector cualquiera, podemos (por (ii)) encontrar una x„ para la
cual Ax„ = J«. Esta x, está, además, determinada en forma única,
puesto que x„ x, implica (por (i)) que y„ = Ax„y¡=Ax,. Defini­
mos A 'y„ como Xo- Para probar que A-' es lineal, evaluamos
A-'(a,y, + a,y,). Si Ax, = y, y Ax, = y„ entonces la linearidad de
A nos dice que A(a,x, + a x ,) = a,y, + a,y„ de manera que A-'
(a,y, + «ojo) = «.*. + <«*. = a,A-’J, + a,A-'y,.
Como un ejemplo trivial de transformación invertible, mencio­
namos la transformación de identidad 1; claramente 1*’ = 1. La
transformación 0 no es invertible; viola las dos condiciones (i) y
(ü) casi tan fuertemente como pueden ser violadas.
Se sigue inmediatamente de la definición que para cualquier A
invertible tenemos
AA-‘ - A~'A - 1;
demostraremos ahora que estas ecuaciones sirven para caracteri­
zar a A-’.
T eorema 1. Si A,B y C son transformaciones lineales tales que
AB = CA = 1,
entonces A es invertible y A ' = B —C.
Prueba. Si Ax, = Ax„ entonces CAx, = CAx„ de manera que
(puesto que CA = 1) x, = x,; en otras palabras, la primera con­
dición de la definición de invertibilidad queda satisfecha. La se­
gunda condición también se satisface, pues si y es cualquier vector
y x = By, entonces y = ABy - Ax. Multiplicando AB = 1 sobre la
izquierda y CA = 1 sobre la derecha, por A ', vemos que A-' - B
= C.
Para demostrar que ni AB = 1, ni CA = 1, es, por sí mismo,
suficiente para asegurar la invertibilidad de A, llamamos la aten­
ción a las transformaciones de diferenciación e integración D y S,
definidas en el § 32, (4 ) y (5). Aunque DS = 1, ni D ni Sson in-
vertibles; D viola (i) y S viola (ii).
En espacios finito-dimensionales la situación es mucho más sen­
cilla.
Teorema 2. Una transformación lineal A sobre un espacio
vectorial V es invertible si y sólo si Ax = 0 implica que x = O,
o, alternativamente, si y sólo si cada y en 1) puede ser escrita
en la forma y = Ax.
Prueba. Si A es invertible. ambas condiciones se satisfacen;
esto es trivial. Supóngase ahora que Ax = 0 implica que x = 0.
Entonces, u ^ v , esto es, u - v ^ í 0, implica que A (u —v ) 0,
esto es, que Au ^ Av; esto prueba (i). Para probar (ii), sea {x„
x.) una base de 13; afirmamos que {Ax„ . . . . Ax.) es también
una base. De acuerdo con el § 8, Teorema 2, necesitamos solamen­
te probar la dependencia lineal.Pero£, «¡Ax,- = 0 significa (£,- am) = 0,
y, por hipótesis, esto implica que “(*•= °¡ Ia independencia lineal
de x, nos dice ahora que = 0. Se sigue, por supuesto,
que todo vector y puede ser escrito en la forma y =■ a,Ax, = A
( I ><*)•
Supongamos, a continuación, que toda y es una Ax y sea (y„
. . . . yn) cualquier base de V. Correspondiendo a cada y, podemos
encontrar una x, (no necesariamente única) para la cual yt = Ax
afirmamos que {x, x.) es también una base. Para o,r, = o im­
plica £,-<*(Az¡ =............. =0,de manera que o, = . . . = o . = 0. Con­
secuentemente cada x puede ser escrita en la forma x = £ ; “■*<, y Ax
= 0 implica, como en el argumento que se acaba de dar, que x = 0.
T eorema 3. Si A y B son mvertibles, entonces AB es inver­
tible y (AB)-’ = B-'A ’. Si A es invertible y aytO , entonces aA
es invertible y («A)-' = - A-‘. Si A es invertible, entonces A-’ es
invertible y ( A-')-' = A.
Prueba. De acuerdo con el Teorema 1, es suficiente probar
(para el primer enunciado) que el producto de AB con B-'A‘-, en
ambos órdenes, es la identidad; esta verificación la dejamos al lec­
tor. Las pruebas de los dos enunciados restantes son idénticas en
principio con esta prueba del primer enunciado; el último enuncia­
do, por ejemplo, se sigue del hecho de que las ecuaciones AA-' =
A''A = X son completamente simétricas en A y A-'.
Concluimos nuestra discusión de inversos con el siguiente co­
mentario, definir funciones racionales de A, cada vez que sea po­
sible, usando A'1. No encontraremos útil hacer esto, excepto en un
caso: si A es invertible, entonces sabemos que A" es también inver-
tible, n = 1, 2, . . . ; escribiremos A - para (A*)-‘, de manera que
A - = (A 1)’ -
EJERCICIOS
§37. MATRICES

Recojamos ahora algunos cabos sueltos; habiendo introducido


el nuevo concepto de transformación lineal, debemos encontrar
lo que tiene que ver con los viejos conceptos de bases, funcionales
lineales, etc.
Una de las más importantes herramientas en el estudio de las
transformaciónes lineales sobre espacios vectoriales finito-dimensio-
nales es el concepto de una matriz. Puesto que este concepto no tiene
usualmente un análogo conveniente en espacios finito-dimensiona-
les, y puesto que es posible en la mayor parte de las consideraciones
prescindir del mismo, trataremos de no usarlo en la prueba de los
teoremas. Es, sin embargo, importante, saber qué es una matriz;
entramos ahora en la discusión detallada.
Definición . Sea V un espacio vectorial finito-dimensio­
nal, sea SC = {*1, ...,* « } una base cualquiera de V, y sea A
una transformación lineal sobre 1). Puesto que todo vector es
una combinación lineal de las x¡, tenemos en particular
A lj - £ , a¡jZ¡
para j = 1, . . . . n. El conjunto («,j) de n 1 escalares, que llevan
el doble subíndice i, j, es la matriz de A en el sistema de coor­
denadas X; generalmente lo denotaremos por [A], o, si se hace
necesario, indicar la base particular x que se considera, por
[A; Xj. Una matriz (o,-,) se escribe usualmente mediante
una ordenación cuadrada -.
IA ) - •

los escalares («n, . . . , a(„) una fila es (o*,/, . . . . a»,) una columna
de [AJ.
Esta definición no define el concepto de “matriz'; define “la
matriz asociada en ciertas condiciones con una transformación li­
neal". Es útil, a menudo, considerar una matriz como algo existente
por su propio derecho, como una ordenación cuadrada de escalares;
en genera], una matriz en este libro estará ligada a una transforma­
ción lineal y a una base.
Comentamos sobre la notación. Es costumbre usar el mismo
símbolo, digamos, A, para la matriz y para la transformación. La
justificación para esto se encuentra en la discusión que sigue (de
propiedades de matrices). No seguimos aqui esta costumbre, por­
que una de nuestras principales metas, en conexión con las matri­
ces. es poner de relieve que dependen de un sistema de coor­
denadas (mientras que no es asi por lo que hace a la noción de
transformación lineal) y estudiar cómo cambia la relación entre
matrices y transformaciones lineales, al pasar de un sistema de
coordenadas a otro.
Llamamos también la atención a una peculiaridad de los Índices
de los elementos a„ de una matriz [A]. Una base es una base y hasta
ahora, aunque generalmente dábamos a sus elementos como Índices
los primeros n enteros positivos, el orden de los elementos en la
misma carecía enteramente de importancia. Es costumbre, sin em­
bargo, cuando se habla de matrices, referirse a, digamos, la primera
fila o la primera columna. Este lenguaje se justifica solamente si
pensamos en los elementos de la base fC como ordenados en un
orden definido. Puesto que en la mayoría de nuestras consideracio­
nes el orden de las filas y de las columnas de una matriz es tan
irrelevante como el orden de los elementos de una base, no inclui­
mos este aspecto de las matrices en nuestra definición. Es impor­
tante. sin embargo, advertir que la apariencia de la ordenación
cuadrada asociada con [A] varía con la ordenación de SC. Todo lo
que diremos sobre matrices puede, en consecuencia, ser interpretado
desde dos puntos de vista diferentes; o en estricto «cuerdo con la
letra de nuestra definición o, de otro modo, sgiuiendo una definición
modificada que hace corresponder una matriz (con filas y columnas
ordenadas ) no meramente a una transformación lineal y a una base,
sino también a una ordenación de la base.
Un palabra más a los que conocen. Es una perversidad, no del
autor, sino de la naturaleza, lo que nos hace escribir
Ax
en vez de la ecuación más usual
A * < = L ,W -
La razón es que deseamos que las fórmulas de multiplicación na-
tricial y de aplicación de matrices a vectores numéricos (esto es,
vectores (í„ . . . , f„) en C") aparezcan normales y que en algún
punto del proceso de pasar de vectores a sus coordenadas se invier­
tan los índices. Para enunciar explicitamente nuestra regla: escri­
base Ax, como una combinación lineal de x,, . . . , x„, y escríbanse
los coeficientes así obtenidos como la columna j-ésima de la matriz
[A]. (El primer índice de a¡/ es siempre el índice de la fila; el se­
gundo, el de la columna.
Para un ejemplo, consideremos la transformación de diferen­
ciación D sobre el espacio «•„, y la base (x,.........x„) definida por
Xi(t) = r i', i = 1, . . . , n. ¿Cuál es la matriz de D en esta base?
Tenemos
Dxi Ox»_i + 0z„
Día = 1*! + (tea -I----- 1- Ox.-1 + Ox.
Dx3 —0*1 + 2x2 "1----- I* Ot._i + 0x.
(1)

Dx,
de manera que
El desagradable fenómeno de los Índices que se invierten se ve com­
parando (1 ) con (2).

§38. MATRICES DE TRANSFORMACIONES

Hay ahora cierta cantidad de trabajo rutinario que hacer, la


mayor parte del cual se dejará a la imaginación. El problema es
éste: en un sistema fijo de coordenadas a: = { * „ . . . , x„), cono­
ciendo las matrices de A y B, ¿cómo podemos encontrar las matri­
ces de oA + pB, de AB, de 0, 1, etc.?
Escribase [A] = (a„), [B] = (0„), C = «A + pB, |C] =
afirmamos que
- aa„ + «J«;
también si [OJ - (fin) y (1] - (en), entonces

o¡i - 0
«•>' “ *0 (“ delta de Kronecker ).

Una regla más complicada es la siguiente: si C = AB, |C] = (yo),


entonces
70 " 2 » “«Ar­
para probar esto, usamos la definición de matriz asociada con una
transformación y la manipulamos asi:
Cz¡ - A(Bz¡) - A(£ ,« ,* ,) - Li& jAi*
- 5 ( X« aaPki)z¡-
La relación entre transformaciones y matrices es exactamente
la misma que la relación entre vectores y sus coordenadas, y el aná­
logo del teorema de isomorfismo del § 9 es verdadero en el mejor
sentido posible. Daremos precisión a estos enunciados.
Con ayuda de una base fija X, hemos hecho corresponder una
matriz [A] a cada transformación lineal A; la correspondencia es
descrita por las relaciones Az¡ - Y,¡ Afirmamos ahora que es­
ta correspondencia es uno a uno (esto es, que las matrices de dos
transformaciones diferentes son diferente) y que toda ordenación
( n i) de n’ es la matriz de alguna transformación. Para probar esto.
observamos, en primer lugar, que el conocimiento de la matriz de A
determina completamente a A (esto es, que A x está, por lo mismo,
definido en forma única para cada x ), como sigue: si z -
entonces Ax - E/feAz, - aifxi) - £ < (£ ,< * * )* . (En otras
palabras, sí y ■* A i = n.x¿. entonces

Compárese esto con los comentarios en el § 37 sobre la perversidad


de Índices). En segundo lugar, no hay ley contra la lectura hada
atrás de la región Az¡ —21,a,¡z¡ Si, en otras palabras, (o,,) es
una ordenación cualquiera, podemos usar esta relación para defi­
nir una transformadón lineal A: está claro que la matriz será exac­
tamente («,,). (Una vez más, sin embargo, ponemos de relieve el
hecho fundamental de que esta correspondenda uno a uno entre
transformaciones y matrices fue establecida por medio de un siste­
ma de coordenadas a otro, la misma transformación lineal puede
corresponder a varias matrices y una matriz puede ser la corres­
pondiente a muchas transformaciones lineales). El siguiente enun-
dado resume la parte esendal de la discusión precedente.
T eorema. Entre el conjunto de todas las matrices (an),
(fin), etc., i, j = 1 n (no consideradas en relación con
transformaciones lineales), definimos la suma, la multiplicación,
el producto, (Ou), y (e n ), por
(<*n) + (fin) “ («o + fii¡),
“(an) - (<w¡),
(an)(fin) - ( £ i a.kfin),
ou - 0, «« - I*
Entonces la correspondencia (establecida por medio de un sis­
tema arbitrario de coordenadas X = (x,, . . . , x„¡ del espacio
vectorial n-dimensional V), entre todas las transformaciones li­
neales A sobre V y todas las matrices (a n ). descritas por
A ij — S.a/jZi, es un isomorfismo¡ en otras palabras, es una
correspondencia uno a uno que preserva la suma, la multiplica­
ción escalar, el producto, 0 y 1.
Hemos evitado cuidadosamente discütir la matriz de A '. Es po­
sible dar una expresión para |A 'l en términos de los elementos an
de [A], pero la expresión no es tan sencilla y, afortunadamente, no
es útil para nosotros.

EJERCICIOS

1. Sea A la transformación lineal sobre (P„ definida por (Ax)(t) = x(t


+ 1) y sea {x0........ x ._,) la base de <p„ definida p o rx /t) = V,j = 0..........
a - 1. Encuéntrese la matriz de A con respecto de esta base.
2. Encuéntrese la matriz de la operación de conjugación sobre Q, con­
siderando como un espacio vectorial real, con respecto de la base {1, i)
(donde i “ V —1). .
{,) es un vector en C“, escribase Ax = (£,„,........ £«,;)- Si x, = («,,..........
éln), encuéntrese la matriz de A con respecto de {x,..........x„}.
(b) Encuéntrense todas las matrices que conmutan con la matriz de A.
4. Considérese el espacio vectorial de todas las matrices reales dos por dos
y sea A la transformación lineal sobre este espacio que envía cada matriz
X hacia PX, donde p m (* *V Encuéntrese la matriz de A con
respecto de la base consistente* en ó )' ( l o ) ’ (o l ) ‘
5. Considérese el espacio vectorial consistente en todas las transformado-
nes lineales sobre el espado vectorial V, y sea A la transformación de mul­
tiplicación (izquierda) que envía cada transformadón sobre X bada PX, don­
de P es alguna transformadón prescrita sobre T). ¿Bajo qué condiciones sobre
P es A invertible?
6. Pruébese que f, / y K son las matrices complejas

respectivamente (donde i ~ V —1 ), entonces 1¿ = J- = K- II


Jl= K, JK = - KJ = 1 y KI = - IK = J.
7. (a) Pruébese que si A, B y C son transformacioneslineales so
espado vectorial bidimensional, entonces (AB —BA)* conmuta con C.
(b) ¿Es la condusión de (a) verdadera para espacios de más dimensiones?
8. Sea A la transformación lineal sobre C2 definida por A(f,, £.
+ (..). Pruébese que si una transformación lineal Bconmuta conA
entonces existe un polinomio p tal que B = p(A).
9. ¿Para cuál de los siguientes polinomios p y matrices A es verdadero
que p(A) = 0?
(a) p(l) - <■- 3í2 + 31 - 1 A =
(«) p(í) - *»+ p + * + 1 . X - 1 1

(d) p(l) -
-C ID
10. Pruébese que

Lo O O lJ
respectivamente, (donde i s= y —1), y si C = AB —IBA, entonces C* + C*

si AB = 0, se sigue que BA = 0?
12. ¿Qué sucede a la matriz de una transformación lineal sobre un
espacio finito dimensional cuando los elementos de la base con respecto a la
cual la matriz se computa se permutan entre sí mismo?

= px para toda * de U).


14. Si (x,....... x¿} y [y, yt) son con juntos linealmente indepen­
dientes de vectores en un espacio finltodimenslonal V, entonces existe una

existen matrices (Bl'J [C] rx^y,,)' tales que (A|=[B|[C1 -


(C] [Bl. (Sugestión: pruébese (píf) = PtSt)).
se las inversas de las que lo so

«G !)■ ■'CID
«■>(! !)■
« o -
19. (a) Es fácil extender la teoría matricial a las transformaciones linea­
les entre diferentes vectores espaciales. Supóngase que *U y V son
espacios vectoriales sobre el mismo campo, sean {x,........x„} y {y,...........'/„}
bases de H y b respectivamente y sea A una transformación linea] de
U a U La matriz de A es. por definición, la ordenación rectangular, m
por n. de escalares, definida por

que se generalicen tantos como sean posibles de los resultados del §38. (Nó­
tese que el producto de una matriz m, por n, y una matriz m.í por n2, en ese
orden, se define como n, = m,).
(b) Supóngase que A y
tro bloques rectangulares (
quierdo, inferior derecho) y entonces divídase B de modo semejante, c
ñera que el número de columnas en el extremo superior izquierdo de A
mismo que el número de filas en el extremo superior izquierdo de 8.
una obvia notación taquigráfica, estas divisiones se indican por

A*)' 8 “ (fiü b O '


(d) Generalícense (b) y (c) a un mayor número de partes (In vez de

§39. INVARIANCIA

Una posible relación entre subespacios 3lt de un espacio vec­


torial y transformaciones lineales A sobre ese espacio es la inva-
riancia. Decimos que 311 es invariante bajo A si x en 3H implica
que Ax esté en 9It (Obsérvese que se requiere la relación de impli­
cación solamente en una dirección; no suponemos que toda y de
311 pueda escribirse en la forma y — A x con x en Slt; ni siquiera
suponemos que Ax en SU implica * en snt. Inmediatamente veremos
ejemplos en que definitivamente no se dan las condiciones que no
supusimos). Sabemos que un subespacio de un espacio vectorial es
él mismo un espacio vectorial; si sabemos que un es invariante
bajo A, podemos pasar por alto el hecho de que A está definida fue­
ra de 3H y podemos considerar A como una transformación lineal
definida sobre el espacio vectorial. La invariancia es a menudo con­
siderada para conjuntos de transformaciones lineales, así como
una sola; an. es invariante bajo un conjunto, si es invariante bajo
cada miembro del conjunto.
¿Qué puede decirse sobre la matriz de una transformación lineal
A sobre un espacio vectorial n-dimensional V si sabemos que al­
gún sil es invariante bajo A? En otras palabras: ¿hay un modo
hábil de escoger una base X = {*,......... *.} en V de manera que
[A] = [A; SC ] tenga alguna forma particularmente sencilla? La res­
puesta está en el §12, Teorema 2; podemos escoger !E de mane­
ra que x, x„ estén en Slt y x„.„ no estén. Expresemos
Axj en términos de x , x„. Para m + l S ; S n , no hay mu­
cho que podamos decir: Ax, = Z,a,/Xi. Para l g j g n t , sin em­
bargo, X/ está en 9lt, y, en consecuencia, (puesto que 9lt. es
invariante bajo A )Ax, está en 9it. Consecuentemente, en este caso
Ax, es una combinación lineal de x „ . . . . *„,• las con m + 1 5
i g n son cero. De aquí la matriz [A] de A, en este sistema de coor­
denadas tenga la forma

«= C J 3 '
donde [A,] la matriz (de m filas) de A, considerada como una trans­
formación lineal sobre el espacio 311 con respecto del sistema de
coordenadas (x,......... x_), [A,] y |B„) son algunas ordenaciones de
escalares (en tamaño (n —b ) por (n - m ) y m por (n - m ) res­
pectivamente) y 0 denota la ordenación rectangular ((n - m ) por
m ), consiste únicamente en ceros. (Es importante observar el he­
cho desagradable de que [B0] no necesita ser cero).

§40. REDUCIBILIDAD

Un subcaso particularmente importante de la noción de inva-


riancia es el de reducibíUdad. Si 911 y 9t son dos subespacios tales
que ambos son invariantes bajo A y tales que D es su suma direc­
ta. entonces A es reducido (descompuesto) por el par (3Tt, 91). La
diferencia entre invariancia y reducibilidad consiste en que, en el
primer caso, entre la colección de todos los subespacios invariantes
bajo A podemos no estar en la posibilidad de escoger dos cualesquie­
ra, distintos de 0 y de V, con la propiedad de que V sea su suma
directa. O, diciéndolo de otro modo, si 3TC es invariante bajo A,
hay, de seguro, muchos modos de determinar una 9t tal que D
- 9TC© 91, pero puede suceder que ninguna de esas 91 sea invarian­
te bajo A.
El proceso descrito puede ser también invertido. Sean 911 y 9t dos
vectores espaciales cualesquiera, y sean A y B dos transformacio­
nes lineales cualesquiera (sobre 9lt y 91 respectivamente). Sea
V la suma directa gn ® 91; podemos definir sobre i) una trans­
formación lineal C llamada la suma directa de A y de B, escri­
biendo
Ct = C(x, y) - (Ax, By).

Omitiremos la discusión detallada de las sumas directas de transfor­


maciones; mencionaremos solamente los resultados. Sus pruebas son
fáciles. Si (911, 91) reduce a C, y si denotamos por A la transforma­
ción lineal C considerada solamente sobre 91 entonces C es la suma
directa de A y de B. Por una selección de base (a saber, escogiendo
Xi, . . . , x_ en 9TI y x„„, . . . , x , en 91) podemos poner la matriz
de la suma directa de A y B en la forma mostrada en la sección
precedente, con [A,] = [A], [B„] = 0, y [A,] = (Bj. Si p es un po­
linomio cualquiera, y si escribimos A' = p(A), B' = p(B), entonces
la suma directa O de A' y B' será p(C).
EJERCICIOS

do vectorial de dos dimensiones), con respecto de algún sistema de coordena-

invariantes bajo A.

subespacio tP. ¿eT Invariante bajo D? ¿Es D i


complemento de S>„ en CP. tal que junto con

§41. PROYECCIONES
Especialmente importante para nuestro propósito es otra cone­
xión entre sumas directas y transformaciones lineales.
D efinición. Si i) es la suma directa de 3H y 31, de manera
que toda z de U pueda ser descrita, únicamente en la forma z =
x + y, con x en Sil y y en si, la proyección sobre SE a lo largo
de 31 es la transformación E, definida por Ez = x.
Si las sumas direct; ; son importantes, entonces las .proyecciones
lo son también, puesto que, como veremos, son una herramienta
algebraica muy poderosa para el estudio del concepto geométrico de
suma directa. El lector se satisfará sobre la razón para usar la pa­
labra “proyección", trazando un par de ejes (múltiples lineales) en
el plano (suma directa). Para hacer que la imagen aparezca sufi­
cientemente general, no tiene ejes perpendiculares.
Pasamos por alto un punto cuya prueba es lo bastante fácil para
ser omitida, pero cuya existencia debe reconocerse; debe mostrarse
que E es una transformación lineal. Dejamos esta demostración al
lector, y pasamos a buscar propiedades especiales de las proyec­
ciones.
Teorema 1. AUna transformación lineal E es una proyec­
ción sobre algún subespacio si y sólo si es idempotente, esto es,
E‘ = E.
Prueba. Si E es la proyección sobre 311 a lo largo de 31, y si
z = x + y, con x en su y en si, entonces la. descomposición de x
es x + 0, de manera que
E h - EEz = Ex = i = Ez.
Inversamente, supóngase que E- = E. Sea 91 el conjunto de to­
dos los vectores z de V para los cuales E = 0; sea 9H el conjunto
de todos los vectores z para los cuales Ez = z. Está claro que tanto
9TC como 91 son subespacios. Probaremos que v - 9H© 91. En vista
del teorema del § 18, necesitamos probar que 91t y 9t son disjuntos
y que juntos sobretienden a u
S. z está en 91t, entonces Ez = z, si z está en 9í, entonces Ez =
0; por lo que, si z está tanto en como en 91, entonces z = 0. Para
una z arbitraria tenemos
z — Ez + (1 —E)z.
Si escribimos Ez = x y (1 - E )z = y, entonces Ex = E-'z = Ez = x,
y Et/ = E(1 - E )z = Ez - E!z = 0, de manera que x está en 9Tt y y
está en X Esto prueba que U = 9K ffi 91, y que la proyección so­
bre 9K a lo largo de 91 es precisamente E.
Como consecuencia inmediata de la prueba anterior, obtenemos
también el siguiente resultado.
Teorema 2. Si E es la proyección 9R a lo largo de 91, en­
tonces 9tl y 9t son, respectivamente, los conjuntos de todas las
soluciones de las ecuaciones Ez = z y Ez = 0.
Por medio de estos dos teoremas podemos eliminar la aparente
asimetría, en la definición de proyecciones, entre los papeles des­
empeñados por 9tt y X Si a toda z = x + y hacemos corresponder
no x, sino y, obtenemos también una transformación lineal idem-
potente. Esta transformación (a saber, 1 - E ) es la proyección
de 91 a lo largo de 3Tt. Resumimos los hechos como sigue:
Teorema 3. Una transformación lineal E es una proyec­
ción si y sólo si 1 — E es una proyección; si E es la proyección
de mi a lo largo de x entonces 1 —E es la proyección de 91
a lo largo de 911.

§42. COMBINACIONES DE PROYECCIONES


Continuando en el espíritu del Teorema 3 de la sección prece­
dente, investigamos las condiciones bajo las cuales varias combina­
ciones de proyecciones algebraicas son esas mismas proyecciones.
T eorema. Suponemos que E, y E, son proyecciones sobre
3lti y 91tj a lo largo de m¡ y m# respectivamente, y que el campo
subyacente es tal que 1 + 1 0. Hacemos tres aserciones.
(i) E, + E, es una proyección si y sólo si E.E, = E,Ei = 0;
si esta condición se satisface, entonces E = E, + E, es la pro­
longación sobre 311 a lo largo de 91, donde 911 - 3Ri © 3Kj y
3! - 9!, fl 31*
(ii) E, - E, es una proyección si y sólo si E,E, = E,E, =
' E,; si esta condición se satisface, entonces E = E, - E, es la
proyección de 9H a lo largo de 91, donde 91t = 3 Itifl3 lsj)9 l-3li

(tíi) Si E.E, = E,E, = E, entonces E es la proyección sobre


91! a lo largo de ¡a, donde 9U - 31ti fl 3Rj y 9! - 9li + 91*
P rueba. Recordaremos la notación. Si X y X son subespacios
entonces X + x es el subespacio sobretendido por x y X; escribir
X © X implica que x y X están disjuntos, y entonces X © X -
X + X; y X D X es la intersección de X y X.
( i) Si Ei + E; = E es una proyección, entonces (Ei + E ,)’ =
E* = E = E, + E,. de manera que el producto cruz de los términos
debe desaparecer:
(1) £,Ea + EaE, - 0.
Si multiplicamos ( 1 ) por E, tanto a la izquierda como a la derecha,
obtenemos,
E,E, + E,EjE, - 0,
E,E,E, + EjE, - 0;
sustrayendo, obtenemos E,E¡ - E :E, = 0. De aquí que E, y E, son
conmutativos, y (1) implica que su producto es cero. (Aquí es don­
de necesitamos el supuesto de que 1 + 1 ^ 0 . ) Puesto que, inversa­
mente E,E, - E:E, = 0 claramente implica (1 ), vemos que la con­
dición es también suficiente para asegurar que E es una proyección.
Supongamos, de ahora en adelante, que E es una proyección;
por el 5 41, Teorema 2, 9H y 9! son, respectivamente, los conjun­
tos de todas las soluciones de las ecuaciones Ez = z y Ez = 0. Es­
cribamos z = x , + y, = x , 4 y,, donde x , = E,z y x , = E,z están
en 9üi y 3lí2, respectivamente. Si z está en git E,z + E,z = z, en-

s “ E,(ra + y») + Ej(*i + yi) - E,ya + Ejyi-


Puesto que E,(E,y: ) = E,y, y E-(E-y,) = E.y„ hemos exhibido z
como una suma de un vector de 91ti y uinyector de 9ü¡, de manera
que 9HC3H, + 9tl2. Reciprocamente, si z es una suma de un vector
de 31!, y un vector de 3Ita entonces (E, + E„)z = z, de manera
que z está en 3H, y consecuentemente Sil = Slt* + 3TC2. Finalmen­
te, si z pertenece tanto a 3Ri como a 3Rj, de manera que E,z = E,z
= z, entonces z = E,z — E,(E„) =0 , de manera que 3TC, y 3TCa
están disjuntos. Hemos probado que 311 = 311, © 3Tt2.
Falta por determinar 31, esto es, encontrar todas las soluciones
E,z + E,z = 0. Si z está en 31, fl 3l2, esta ecuación se satisface
claramente; recíprocamente E,z + E:z = 0 implica (por multiplica­
ción a la izquierda de E, y E„ respectivamente,) que E,z + E2E,z
= 0 y E¡E,z + E¡z = 0. Puesto que E,E,z = E,E,z = 0, para toda
z, obtenemos, finalmente, E,z = E,z = 0, de manera que z perte-

Con la técnica y los resultados obtenidos en esta prueba, las


pruebas de las partes restantes del teorema son fáciles.
(ii) De acuerdo con el § 41, Teorema 3, E, — E. es una proyec­
ción si y sólo si 1 - (E, - E2) = (1 - E ,) + E, es una proyección.
De acuerdo con (i) esto sucede (puesto que, por supuesto, 1 - E,
es la proyección 3li a lo largo de are,) si y sólo si
(1 - E,)E2 - E2(l - Ei) - 0,
y en este caso (1 - E,) + E¡ es la proyección sobre 31, ©31^ a
lo largo de 3It|fl 3^. Puesto que (2 ) es equivalente a E,E, = E,E¡
= E„ la prueba de (ii) es completa.
(iii) Que E = E,E, = E,E, implica que E es una proyección
está claro, puesto que E es idempotente. Suponemos, en consecuen­
cia, que E, y E, conmutante y determinamos SU y 31. Si Ez = z,
entonces E.z = E,Ez = E.E.E.z = E,E,z = z, y de modo semejante,
E,z = z, de manera que z está contenida tanto en 3H, como en 3Tt2.
El recíproco está claro; si E,z = z = E,z, entonces Ez = z. Supón­
gase, a continuación, que E,E¡z = 0; se sigue que E,z pertenece a 31,,
y de la conmutatividad de E, y E„ que E,z pertenece a Sl2. Esta es
más simetría de la que necesitamos; puesto que z = E,z + (1 -
E,)z, y puesto que (1 - E-)z está en 312, tenemos exhibida z como
una suma de un vector de 3t, y un vector de Stg. Recíprocamente,
si z es una suma tal, entonces E,E,z = 0; esto concluye la prueba
de que 31 = 3Ei+ 3Ij.
Volveremos, posteriormente, a teoremas de este tipo y obtendre­
mos, en ciertos casos, resultados más precisos. Antes de dejar el
tema, sin embargo, llamamos la atención a unas cuantas peculia­
ridades de menor cuantía del teorema de esta sección. Observamos,
primero, que tanto en (i) como en (ii) una de 3K y 31 fue una
suma directa de los subespacios dados, en (iil) enunciamos sola­
mente que 91 = 3li + 31». La consideración de la posibilidad de E,
= E, = E muestra que esto es inevitable. También se afirmó que la
condición de (iii) era sólo suficiente; es posible construir las pro­
yecciones E, y E-, cuyo producto E,E... y es una proyección, pero para
la cual E,E, y E:E, son diferentes. Finalmente, puede conjeturarse
que es posible extender el resultado de ( i) por inducción a más de
dos sumandos, Aunque esto es verdad, es sorprendentemente no tri­
vial; lo probaremos posteriormente en un caso de especial interés.
§43. PROYECCIONES E INVARIANCIA
Hemos visto ya que el estudio de las proyecciones es equivalente
al estudio de descomposiciones directas de sumas. Por medio de
proyecciones podemos también estudiar las nociones de variancia y
reducibilidad.
T eorema 1. Si U7i subespacio OTE es invariante bajo la
transformación lineal A, entonces EAE = AE para toda proyec­
ción E sobre 311. Reciprocamente, si EAE = AE para alguna pro­
yección E sobre 31E, SE entonces es invariablemente bajo A.
Prueba. Supóngase que 9lt es invariante bajo A y que V = 9H
ffi 31 para alguna 31; sea E la proyección sobre 311 a lo largo de 31.
Para cualquiera z = x + y (con x en 3lí y y en 9t) tenemos AEz
= Ax y EAEz = EAx; puesto que la presencia de x en 3lt garantiza
la presencia de Ax en 311, se sigue que EAx es también igual a Ax,

Recíprocamente, supóngase que v » sil ® st, y que EAE = AE


para la proyección E sobre SU a lo largo de x Si x está en 3H, en­
tonces Ex = x, de manera que
EAx = EAEx = AEx = Ax,
y consecuentemente Ax está también en 311.
T eorema 2. Si 31E y 31 son subespacios con V = 31t © 31,
entonces una condición necesaria y suficiente para que la trans­
formación lineal A sea reducida por el par (311, 31) es que AE
= AE, donde E es la proyección sobre 311 a lo largo de X
Prueba. Primero suponemos que EA = .AE, y probamos que
A es reducida por (3lt, Si x está en 3(]. si x está en 3iz, entonces
Ex = 0 y EAx = AEx = AO = 0, de manera que Ax está también
A continuación suponemos que A es reducida por (511, 51), y pro­
bamos que EA = AE. Puesto que 5lt es invariante bajo A, el Teore­
ma 1 nos asegura que EAE = AE; puesto que 51 es también inva­
riante bajo A, y puesto que 1 —E es una proyección sobre 51, tene­
mos, de modo semejante (1 —E)A(1 - E) = A( 1 —E). De la
segunda edición, después de efectuar las multiplicaciones indicadas
y simplificar, obtenemos EAE = EA; esto concluye la prueba del

EJERCICIOS
§44. ADJUNTOS

Estudiemos a continuación la relación entre las nociones de trans­


formación lineal y espacio dual. Sea V cualquier espacio vectorial
y sea y cualquier elemento de V ; para cualquier transformación
lineal A sobre V consideramos la expresión [Ax, y[. Para cada y fija y ,
la función y' definida por y'(x) = [Ax, y) es una función lineal so­
bre V; usando la notación de corchetes para y' asi como para y, tene­
mos [Ax, y[ = [x, y"). Si permitimos que y varíe sobre V', entonces es­
te procedimiento hace corresponder a cada y una y", que depende, por
supuesto, de y; escribimos y" = A' y. La propiedad deflnitoria de
A' es
(1) [Ax, »] = [*, AVI-
Afirmamos que A' es una transformación lineal sobre V . En realidad,
si y = <.,y, + a,y„ entonces
[x, AVI - [Ax, y] - o,[Ax, y,] + aa[Ax, ya]
- «i[x, AVi] + aa[x, AVa] - [x, a.A'yi + a*AVal-
La transformación lineal A' es llamada el adjunto (o dual) de A;
dedicamos esta sección y la siguiente a estudiar las propiedades de A'.
Veamos primero las reglas algebraicas formales; van como sigue:
(3) 1' - 1,
(4) (A + B)' - A' + B',
(5) (aA)' = aA',
(6) (AB)' - B'A',
(7) (A"1) ' - (A')-1.

De aquí que (7 ) deba ser interpretada en el sentido siguiente: si


A es invertible, entonces también lo es A', y la ecuación es válida.
Las pruebas de estas relaciones son elementales: para- indicar el
procedimiento, efectuamos los cómputos para (6 ) y (7 ). Para pro­
bar (6 ) simplemente observamos que
[.ABx, y] - IBx, A'y] = [x, B'A'y],
Para probar ( 7 ), supóngase que A es invertible, de manera que AA-‘
= A ’A = 1. Aplicando (3 ) y ( 6 ) a estas ecuaciones, obtenemos
(A-‘)'A- = A'(A-1)' = 1;
El Teorema 1 del §36 implica que A' es invertible y que (7 ) es vá­
lida.
En espacios finito-dimcnsionales es válida otra importante re­

ís) A" ~ A.
Esta relación tiene que leerse con un grano de sal. Tal como está. A"
es una transformación, no sobre V sino sobre el espacio dual V"de
V'. Si, no obstante, identificamos V" y T) de acuerdo con el isomor-
fismo natural, entonces A" actúa sobre ti y ( 8 ) tiene sentido. En
esta interpretación la prueba de ( 8 ) es trivial. Puesto que V es re­
flexiva, obtenemos cada funcional lineal sobre ti' considerando [x,
y] como una función de y, con x fija en V. Puesto que [x, A'y] define
una función (una funcional lineal) de y, puede ser escrita en la
forma [x*, y]. El vector xf es aquí, por definición, A"x, De aquí te­
nemos, para toda y de ti' y para toda x de t),
[Ax, y] - [x, A'y] - [A"x, y];
la igualdad del primero y último términos de esta cadena prueba (8).
Bajo la hipótesis de (8 ) (esto es, finito-dimensionalidad), puede
ser eliminada la asimetría en la interpretación de (7 ); afirmamos
que en este caso la invertibilidad de A’ implica la de A y, en conse­
cuencia, la validez de (7). Prueba: apliqúese la antigua interpreta­
ción de (7 ) a A' y A" en lugar de A y A'.
Nuestra discusión se resume, en el caso reflexivo finito-dimen-
sional, por la aserción de que el trazo del mapa de A -* A' es uno a
uno, y, de hecho, un antisomorfismo algebraico, desde el conjunto
de todas las transformaciones lineales sobre t) hacia y sobre el con­
junto de todas las transformaciones lineales sobre t)'. (Se puso el
prefijo "anti" a causa de la regla de conmutación (6 )).

§45. ADJUNTOS DE PROYECCIONES

Hay un caso importante en que la multiplicación no se invierte,


esto es, cuando (A B)' = A'B'; a saber, el caso cuando A y B conmu­
tan. Tenemos, en particular, (A’ ) ' = (A')*, y, más generalmente,
(p (A ))' = p (A ') para todo polinomio p. Se sigue de esto que si E
es una proyección, entonces también lo es E'. La cuestión se suscita:
¿con cuál descomposición directa de suma ésta asociada E'7
Teorema 1. Si E es la proyección sobre ya a lo largo de 31,
entonces E' es la proyección sobre 919 a lo largo de 311°.
Prueba. Sabemos ya que (E')* = E' y t)' - 31° ® 31t° (véase el
§20). Es necesario solamente determinar los subespacios consisten­
tes en las soluciones de E'y = 0 y E'y = y. Esto lo hacemos en cua­
tro pasos.
(i) Si y está en 311a, entonces, para toda x
[i, E’y] - [Ex, V] - 0,
de manera que E'y = 0.
(ii) Si E'y = 0, entonces, para toda x de 3lt,
[*, y] - [Ex, y] - [x, E'y] - 0,
de manera que y está en 311°.
(iii) Si y está en 31°, entonces, para toda x
[x, y] - [Ex, y] + [(1 - E)x, y] - [Ex, y] - [x, E'y],
de manera que E'y = y.
(iv) Si E'y = y, entonces para toda x en 31,
[X. y] - I*. B-y) [Ex,y]
- - O,
de manera que ya está en 31°.
Los pasos (i) y (ii) juntos muestran que ei conjunto de solucio­
nes de E'y = 0 es precisamente 31t°; los pasos (iii) y (iv) juntos
muestran que el conjunto de soluciones de E'y = y es precisamente 31°.
Esto concluye la prueba del teorema.
Teorema 2. Si 3lt es invariante bajo A, entonces 3K° es in­
variante bajo A'; si A es reducida por (3B, 31), entonces A' es re­
ducida por (3H?, 3Io).
Prueba. Probaremos solamente el primer enunciado; el segun­
do se sigue claramente del primero. Observamos primero la siguiente
identidad, válida para cualesquiera tres transformaciones lineales E,
F y A, sujetas a la relación F = 1 - E;
(1) FAF - F A - EAE - AE.
(Compárese esto con la prueba del §43, Teorema 2). Sea E cualquier
proyección sobre 311; por el §43, Teorema 1, desaparece el primer
miembro de (1) y, en consecuencia, el segundo miembro. Tomando
adjuntos, obtenemos F'A'F' = A'F'; puesto que, por el Teorema 1 de
la presente sección, F' = 1 —E' es una proyección sobre 3It°,la prue­
ba del Teorema 2 es completa. (Aquí está una prueba alternativa
del primer enunciado del Teorema 2, una prueba que no hace
usodel hecho de que v es la sumadirectade sil y de algún otrosubes-
pación. Si y está en 3T¡°. entonces |x, A'y\ = [Ax, y] = 0 para toda *
de 3It, y, en consecuencia, A'y está en31t°. La única ventaja de la prue­
ba algebraica dada anteriormente sobre esta simple prueba geométri­
ca es que la primera prepara el terreno para trabajo futuro con
proyecciones).
Concluimos nuestro tratamiento de los adjuntos discutiendo sus
matrices; esta discusión tiene el propósito de iluminar toda la teoría
y facultar al lector para construir muchos ejemplos.
Necesitaremos el hecho siguiente: si * = {*,. . . . , x„) es una
base cualquiera en el espacio vectorial n-dimensional V, si CC - (y,,
. . . , y„¡ es la base dual de V , y si la matriz de la transformación lineal
A en el sistema de coordenadas X es (ai,), entonces
(2) «« - [Ai,, y.)-
Esto se sigue de la definición de la matriz de una transformación
lineal; puesto que Ax, = £ » “í/ri, tenemos t.
[Axh »¡I = S * “«[**> =
Para llevar las cosas derechas en las aplicaciones, volvemos a redac­
tar la Fórmula (2 ), así: para encontrar el elemento (i, j ) de [A]
en la base x, aplicamos A al ;-ésimo elemento de x y a continua­
ción tomamos el valor de la función lineal t-ésima (en tC) del vector
así obtenido.
Es ahora muy fácil encontrar la matriz (a¡,) = [A'] en el siste­
ma de coordenadas X’; simplemente seguimos la receta que se aca­
ba de dar. En otras palabras, consideramos A'y, y tomamos el
valor de la funcional lineal i-ésima en X" (esto es, considerada como
funcional lineal sobre X') en este vector; el resultado es que
a '„ A 'y , ] .
Puesto que [xí, A'y,] = ]Ax,, y,] = a¡, de manera que a¡, = a„, esta
matriz [A'] se llama la transpuesta de [A],
Obsérvese que nuestros resultados sobre la relación entre E
y E' (donde E es una proyección) podrian también haber sido de­
ducidos usando los hechos sobre la representación matricial de una
proyección, justamente con el presente resultado sobre las matrices
de transformaciones de adjuntos.

§46. CAMBIO DE BASE

Aunque lo que hemos estado haciendo hasta ahora con las


transformaciones lineales puede haber sido complicada, fue en gran
parte automático. Habiendo introducido el nuevo concepto de trans­
formación lineal, solamente dejamos que algunos de los conceptos
precedentes sugieran modos en que están conectados a las transfor­
maciones lineales. Comenzamos ahora el estudio apropiadamente di­
cho de las transformaciones lineales. Como primera aplicación de
la teoría resolveremos los problemas que se suscitan del cambio
de base. Estos problemas pueden formularse sin mencionar trans­
formaciones lineales, pero su solución es dada en forma sumamente
efectiva en términos de transformaciones lineales.
Sea V un espacio vectorial n-dimensional y sean X = {x,.........
x„}y y — (y„ . . . . y.) dos bases de u Podemos hacer las dos pre­
guntas siguientes
Cuestión I. Si x está en V ~ a = X ,tír ( - ¿cuál
es la relación entre sus coordenadas (f„ con res-
■pecto de X y sus coordenadas (i;, i)„) con respecto de y 1
Cuestión II. Si (f,...........{.) en un conjunto ordenado de
n escalares, ¿cuál es la relación entre los vectores x = í.*i
y y = Z . l4í. i
Ambas cuestiones pueden ser fácilmente contestadas en el len­
guaje de las transformaciones lineales. Consideramos, a saber, que
la transformación lineal A, definida por Ax¡ = y¡, i = 1, . . . . n.
Más explícitamente
A (Z ,ite d - Z< (.Vi­
sea (a,/) la matriz de A en la base SC, esto es, y¡ = Ax, = ^ “i n ­
observamos que A es invertible, puesto que S í l,y¡ = 0 implica que
«, = & = . . . = í . = 0
Respuesta a la cuestión i . Puesto que

Z í W t - Z / VAxl = Z í ty Z * «o*í
- Z i ( Z i “ o ’w)*<.
tenemos
(1) fí - Z , “iJ1í-

R espuesta a l a cuestión n.
(2) ¡/ - Ax.
Hablando en términos generales, la transformación lineal inver­
tible A (o, más propiamente, la matriz (o ,,)) puede ser considerada
como una transformación de coordenadas (como en 1 )), o puede
ser consideradas (como usualmente la consideramos en ( 2 )) como
una transformación de vectores.
En tratados clásicos sobre espacios vectoriales es costumbre
tratar los vectores como n-tuples numéricos, más bien que como
entidades abstractas. Esto necesita la introducción de cierta molesta
terminología. Damos aquí un breve glosario de algunos de los térmi­
nos y notaciones más desconcertantes que se su suscitan en cone­
xión con espacios duales y transformaciones de adjuntos.
Si V es un espacio vectorial n-dimensional, un vector x es dado
por sus coordenadas con respecto de algún sistema absoluto de coor­
denadas preferido; estas coordenadas forman un conjunto ordenado
de n escalares. Es costumbre escribir este conjunto de escalares en
Elementos del espacio dual V se escriben como filas, x" = ( f ,, ..
i'.). Si consideramos a x como una matriz rectangular n por uno y
a x' como una matriz uno por n, entonces el producto matricial x'x
es una matriz uno por uno, esto es, un escalar. En nuestra notación,
este escalar es [x, x"] = + ... + El artificio de considerar
los vectores como matrices delgadas es efectivo aun cuando consi­
deramos las matrices de magnitud normal de las transformaciones
lineales. Así, el producto matricial de (o „) con la columna ({,) es
la columna cuyo i-ésimo elemento es vi = 2 / a<i(i- En vez de preo­
cuparse por bases duales y transformaciones de adjuntos, podemos
formar similarmente el producto de la fila ({',) con la matriz (<*,)
en el orden (£,) (otl); el resultado es la fila que al principio deno­
tamos por yf = AV. La expresión [Ax, x”] se abrevia ahora como
x’ -A -x ; ambos puntos significan multiplicación matricial ordina­
ria. Los vectores x de U se llaman covariantes y los vectores x'
de ti' se llaman contravariantes. Puesto que la noción del producto
xf • x (esto es, [x, x'] )depende, desde este punto de vista, de las
condenadas de x y xf, resulta de importancia hacer la siguiente
pregunta: si cambiamos la base en V, de acuerdo con la transforma­
ción lineal inverdble A, ¿qué debemos hacer en X)' para preservar
el producto x '-x ? En nuestra notación: si [x, x»] = [y, y1] donde
y = Ax, entonces, ¿cómo está y' relacionada con x 7 Respuesta:
y' = (A'Y'xf. Para expresar toda esta maraña de ideas, la termi­
nología clásica dice que los vectores x varían cogradientemente
mientras que los x' varían contragradientemente.

§47. SIMILARIDAD

Las dos cuestiones siguientes están estrechamente relacionadas


con las de la sección precedente.
Cuestión 111. Si B es una transformación lineal sobre D,
¿cuál es la relación entre su matrizj^fin) con respecto de ir
y de su matriz (yij) con respecto de y í'
Cuestión IV. Si (fin) es una matriz, ¿cuál es la relación
IOS

entre las transformaciones lineales B y C definidas, respectiva­


mente, por Bxi = Z * && y Cy, = ZtftíVíT

Las cuestiones III y IV son formulaciones explícitas de un pro­


blema que hemos suscitado antes: a una transformación corres­
ponde (en diferentes sistemas de coordenadas) muchas matrices
(cuestión III) y a una matriz corresponden muchas transformacio­
nes (cuestión IV).
Respuesta a la cuestión III. Tenemos

(1) Bx¡ = E .'ftP i

(2)

Usando la transformación lineal A definida en la sección preceden­


te, podemos escribir

(3) BVJ - BAx¡ -


- Z k akjBn = »*/Z<ft**< - Z ¡ (Z k &*»*/)*(,
y
(4) Z k Tí/y* = Z * Tí/An = 2 * 71/ Z . «.**(
“ Z i (Z * “.*7í/)*(.
comparando (2 ), ( 3 ) y (4 ), vemos que

Z * "tíT*/ “ Z * ftWk/-

Usando multiplicación matricial, escribimos esto en la forma peligro­


samente simple

(5) [A][C] - [B][A],

El peligro radica en el hecho de que tres de las cuatro matrices de


(5 ) corresponden a sus transformaciones lineales en la base X; la
cuarta —a saber, la denotada por [C] corresponde a B en la base y.
En esta inteligencia, (S) es correcto. Una forma más usual de (5 ),
adaptada, en principio, a computar [C] cuando [A] y [B] son cono-
106
(6) [C] - [A]-'[BP1.
R espuesta a l a cu estió n IV. Para poner de relieve el carác­
ter esencialmente geométrico de esta cuestión y su respuesta, obser­
vamos que
Cy, - CAx¡

y
ZrftiVi - E i M * í - - ABx,.
De aqui que C es tal que
CAxj *» ABij,
o, finalmente
(7) C - ABA~l.
No hay dificultad con (7 ) similar a la que nos obligó a hacer una
reserva sobre la interpretación de (6);encontrar la transformación
lineal (no matricial) C, multiplicamos las transformaciones A, B
y A-’, y no es necesario decir nada sobre el sistema de coordenadas.
Compárense, sin embargo, las fórmulas ( 6 ) y ( 7 ) y obsérvese una
vez más la innata perversidad de los símbolos matemáticos. Esto
es solamente otro aspecto de los hechos ya mencionados en los
§§37 y 38.
Dos matrices [B] y (C) se llaman similares si existe una matriz
invertible [A] que satisface a (6 ); dos transformaciones lineales B
y C se llaman similares si existe una transformación invertible A
que satisface a (7 ). En este lenguaje, las respuestas a las cuestiones
III y IV pueden expresarse muy brevemente, en ambos casos la res­
puesta es que las matrices o transformaciones dadas deben ser si­
milares.
Habiendo obtenido la respuesta a la cuestión IV, podemos ver
ahora que hay demasiados subíndices en su formulación. La validez
de (7 ) es un hecho geométrico completamente independiente de la
Unearidad, finito-dimensionalidad o de cualquiera otra propiedad ac­
cidental que puedan poseer A, B y C¡ la respuesta a la cuestión IV
es también la respuesta a una cuestión mucho más general. Esta
cuestión geométrica, una paráfrasis de la formulación analítica de
la cuestión IV, es ésta: Si B transforma a V, y si C transforma a A V
del mismo modo, ¿cuál es la relación entre B y C? La expresión
"del mismo modo” no es tan vaga como parece; si significa que si B
toma x dentro de, digamos, u, entonces C toma Ax dentro de Au.
107

La respuesta, es, por supuesto, la misma de antes: puesto que Bx


= u y Cy = v (donde y = Ax y v = Au), tenemos
ABz —Au - » —Cy - CAz.
La situación se resume convenientemente en el siguiente diagrama
nemónico
B

Podemos ir de y a v usando el camino corto C, o yendo alrededor


del cuadrilátero; en otras palabras, C = ABA '. Recuérdese que ABA-'
ha de aplicarse a y de derecha a izquierda: primera A ', a continua­
ción B y a continuación A.
Hemos visto que la teoría del cambio de bases es coextensiva con
la teoría de las transformaciones lineales invertibles. Una transfor­
mación lineal invertible es un automorflsmo donde, por automorfis-
mo significamos un isomorfismo de un espacio vectorial consigo
mismo. (Véase el §9). Observamos que, inversamente, todo auto-
morfismo es una transformación lineal invertible.
Esperamos que la relación entre transformaciones lineales y ma­
trices sea por ahora suficientemente clara para que el lector no ob­
jete si en lo que sigue, cuando deseamos dar ejemplos de transfor­
maciones lineales con varias propiedades, nos contentemos con
escribir una matriz. La interpretación que ha de darse siempre a
este procedimiento es que tenemos presente el espacio vectorial con­
creto e* (o una de sus versiones generalizadas ¡f") y la base con­
creta !C = {x„ . . . , x.) definida por x¡ = (*t, .........*»). En esta
inteligencia, una matriz (au) define, por supuesto, una transfor­
mación lineal única A, dada por la fórmula usual A(£¡{¿r¡) =*

EJERCICIOS
1. Si A es una transformación lineal de un espacio vectorial 11 a un
espacio vectorial V, entonces, correspondiendo a cada y fija de V' existe
un vector, que podría bien ser denotado por A’y. en Ii' de manera que
[Ai, y) - [r, A'yl
(e) ¿Existen transformaciones lineales A j B tales que A j B sean equi­
valentes, pero A* y B* no lo sean?
(f) Generalícese el concepto de equivalencia a dos transformaciones de­
finidas sobre diferentes vectores espaciales. ¿Cuáles de los resultados prece­
dentes permanece válido para el concepto generalizado?

§48. TRANSFORMACIONES POR COCIENTE

Supóngase que A es una transformación lineal sobre un espacio


vectorial U y que 3R es un subespacio de u invariante bajo A. Ba­
jo estas circunstancias hay un modo natural de definir una trans­
formación lineal (que ha de ser denotada por A/9H) sobre el espa­
cio V/91t; esta “transformación por cociente' está relacionada con
A justamente en la misma forma en que el espacio cociente está
relacionado con V. Será conveniente (en esta sección) denotar
V/91t por el símbolo más compacto V- , y usar símbolos relacio­
nados para los factores y las transformaciones que ocurren. Así,
por ejemplo, si x es un vector cualquiera de v, denotaremos el co-
conjunto x + 9K por x~; objetos tales como x~ son los elementos
típicos de V~.
Para definir la transformación por cociente A/SU (que será
denotada, alternativamente, por A -), escribimos
A~x~ = (Ax)-
para todo vector x de V. En otras palabras, para encontrar la trans­
forma por A /9H del coconjunto x + Slt, primero encuéntrese la
transforma por A del vector x, y a continuación fórmese el cocon­
junto de 91t determinado por el vector transformado. Esta definición
debe ser sostenida por un argumento de inambigüedad; debemos
estar seguros de que si dos vectores determinan el mismo coconjun­
to, entonces lo mismo es verdadero de sus transformas por A. El
hecho clave es la invariancia de 9it. En realidad, si x + 3rt - y + 3T¡,
entonces x - y está en 9K, de manera que Ax - Ay (invariancia)
está en 911, y en consecuencia, Ax + 9H■ ■Ay + 911.
¿Qué sucede si 911 no es meramente invariante bajo A, sino,
juntamente con un subespacio adecuado 9t, reduce a A? Si esto
sucede, entonces A es la suma directa, digamos A = B © C, de dos
transformaciones lineales definidas sobre los subespacios 9TC y 91
de v, respectivamente; la cuestión es, ¿cuál es la relación entre A~
y C? Ambas transformaciones pueden considerarse como comple­
mentarias de A; la transformación B describe lo que A hace sobre
src, y tanto A~ como C describe, de diferentes modos, lo que A hace
en otra parte.
Sea T la correspondencia que asigna a cada vector x de 91 el
coconjunto x~ ( = x + SU ). Sabemos ya que T es un isomorfismo
entre 31 y V/3R (véase el § 22, Teorema 1); demostraremos ahora
que el isomorfismo lleva la transformación C sobre la transforma­
ción A~. Si Cx = y (donde, por supuesto, x está en 31), entonces
A~x~ = (A x)- = (C x )- = y~¡ se sigue que TCx = Ty = A~Tx.
Esto implica que TC = A~T, como se prometió. Hablando en térmi­
nos generales (véase el §47), podemos decir que A~ transforma a
V~ del mismo modo que C transforma 3t. En otras palabras, las
transformaciones lineales A~ y C son abstractamente idénticas (iso-
mórficas). Este hecho es de gran importancia en las aplicaciones
del concepto de espacio cociente.

§49. ALCANCE Y ESPACIO NULO


Definición. Si A es una transformación lineal sobre un
espacio vectorial V y si 31t es un subespacio de V, la imagen
de 3n bajo A, en símbolos ADR,es el conjunto de todos los vec­
tores de la forma Ax, con x en 3R. El alcance de A es el conjun­
to flt(A) = Al); el espacio nulo de A es el conjunto 31 (A) de
todos los vectores x para los cuales Ax = 0.
Se verifica inmediatamente que 3R y 3t (A)sonsubespacios. Si,
como es usual, denotamos por e el subespacio que contiene sola­
mente el vector 0, es fácil describir algunos conceptos familiares
en la terminología que se acaba de introducir; listamos algunos de
los resultados.
(i) La transformación A es invertible si y sólo si flt(A) - V y
St(A>- e. , ,
(ii) En caso de que V sea finito-dimensional. A es invertible
si y sólo (R(A)c u o 3t(A) - 0.
(iii) El subespacio 3R es invariante bajo A si y sólo si A 3R c 9R.
(iv) Un par de subespacios complementarios 3tt y 31 reduce a
A si y sólo si A3R c stf y A3l c X
(v ) Si E es la proyección sobre 3R a lo largo de X entonces
<r(E) - a s y si(E) = x
Todos estos enunciados son fáciles de probar; indicamos la
prueba de (v). Según el § 41, Teorema 2, sabemos que 31 es el
conjunto de todas las soluciones de la ecuación Ex = 0; esto coin­
cide con nuestra definición de 3l(E). Sabemos también que 3R es
el conjunto de todas las soluciones de la ecuación Ex = x. Si x
está en 311, entonces x está también en <R(E), (puesto que x es la
imagen bajo E de algo (a saber de sí misma). Reciprocamente, si un
vector x es la imagen bajo E de algo, digamos x = Ey (de manera
que x está en ®(E)), entonces Ex = E 'x = Ey = x, de manera que
x está en 311.
Advertencia: es accidental que para proyecciones (R © 31 —V.
En general, no es necesario que sea cierto que <K- <R(A) y 31 —3l(A)
estén disjuntos. Puede suceder, por ejemplo, que para cierto vector
x tengamos x=f=0, A x .^ 0 y A 'x = 0; para ese vector, Ax clara­
mente pertenece al alcance y al espacio nulo de A.
Teorema. Si A es una transformación lineal sobre un es-

(1) («t(A))° - Sl(A');


si V es fmito^limensional, entonces
(2) (9l(A))° - <R(A').
Prueba. Si y está en (at(A))°, entonces, para toda x de V,
0 ™[Ax, y] - [z, A ’y),
de manera que A’y = 0 y y está en 3l(A')- Si, por otra, y está en
3l(A'), entonces para toda x de 1),
0 - [z, A"vi - (Ax, y],
de manera que y está en (<R(A))g.
Si aplicamos (1 ) a A'en lugar de A, obtenemos
(3) («(A'))° - 3l(A").
Si V es finito-dimensional (y de aquí reflexivo), podemos reem­
plazar A" por A en ( 3 ) y entonces podemos formar el aniquilador
de ambos lados; la conclusión deseada ( 2 ) se sigue del § 17, Teo­
rema 2.

EJERCICIOS

tridimensional con un rango tridimensional.


(b) Dese un ejemplo de una transformación lineal sobre un espacio tri­
dimensional con un espacio nulo tridimensional.
§50. RANGO Y NULIDAD

Restringiremos ahora nuestra atención al caso finlto-dimensional


y sacaremos ciertas fáciles conclusiones del teorema de la sección
precedente.
Definición. El rango p(A), de una transformación lineal A
sobre un espacio vectorial finlto-dimensional es la dimensión de
<R(A); la nulidad, r{A), es la dimensión de 3l(A).
Teorema 1. Si A es una transformación lineal sobre un
espacio vectorial, entonces p (A ) = p(A') y v(A) = n - p(A ).
Prueba . El teorema de la sección precedente y el § 17, Teore­
ma 1, juntamente implican que
(1 ) *(A') = n - p(A).
Sea SC = {*„ cualquier base para la cual x, x , están
en Slt(A); entonces, para cualquier x = {«** tenemos
A* —£<{<Ax, _ 22f_,+i {(Ai;.

En otras palabras, A x es una combinación lineal de los n - v vec­


tores Ax„„ . . . , Ax.; se sigue que p(A ) S n — »(A). Aplicando este
resultado a A' y usando ( 1 ), obtenemos

(2 ) p(A') S u - ,(A ') = p(A)


En (2 ) podemos reemplazar A por A', obteniendo
(3 ) s(A ) = p(A ") S p(A');
(2 ) y (3 ) juntos demuestran que
(4 ) f(A ) = p(A '),
y ( 1 ) y ( 4 ) juntos demuestran que
(5 ) v(A') = n - p(A').
Reemplazando A por A' en (5 ) da, finalmente
(6 ) .(A ) = n - P(A ),
y concluye la prueba del teorema.
Estos resultados .se discuten generalmente desde un punto de
vista un poco diferente. Sea A una transformación lineal sobre un
espacio vectorial n-dimensional, y sea SC = {*,, . . . , *«} una base
de ese espacio; sea (A] = (ol() la matriz de A en el sistema de co­
ordenadas SC, de manera que

A z ,- 2 W ,
Puesto que x = (¡x¡, entonces A x = £ » se sigue que todo
vector de <R(A) es una combinación lineal de las Ax,, en conse­
cuencia, de cualquier subconjunto máximo linealmente independien­
te de las A x,. Se sigue que el número máximo de Ax,. linealmente
independientes es precisamente p(A). En términos de las coordena­
das («„, . . a.,) de A x, podemos expresar esto diciendo que p(A)
es el número máximo de columnas Unealmente independientes de
la matriz [A], Puesto que (§ 45) las columnas de |A'] (expresada la
matriz en términos de la base dual de se) son las filas de [A],
se sigue del Teorema 1 que p(A) es también el número máximo de
filas linealmente independientes de [A]. De aquí que “el rango
de hilera de [A] = el rango de columna de [A] = el rango de (A]“.
Teorema 2. Si A es una transformación lineal del espacio
vectorial n-dimensional V, y si x es cualquier espacio h-dimen-
sional de v , entonces la dimensión de A X es g k —»(A).
Prueba. Sea x cualquier subespacio para el cual V =■ SC ® OC,
de manera que si fe es la dimensión de x , entonces fe = n - fe. Al
operar con A, obtenemos
AV = A3C + A3C.
(La suma no es necesariamente una suma directa; véase el § 11).
Puesto que Al) = <R(A) tiene dimensión n —»(A), puesto que la
dimensión de A X es claramente g fe = n —fe, y puesto que la di­
mensión de la suma es g la suma de las dimensiones, tenemos el
resultado deseado.
T eorema 3. Si A y B son transformaciones lineales sobre
un espacio vectorial finito-dimensional, entonces
(7) p(A + B ) s p(A) + p(B),
(8) p(AB) s mm |p(A), p(B)|,

(9) »(AB) S »(A) + r(B).


Si B es invertible, entonces
(10) p(AB) - p(BA) - p(A).
Prueba. Puesto que (Afi)x = A(Bx), se sigue que St(AB)
está contenido en «(A ), de manera que p(AB) £ p(A), o,en
palabras, el rango de un producto no es mayor que el rango del pri­
mer factor. Apliquemos este resultado auxiliar al BA'; esto, junta­
mente con lo que ya sabemos, da (8 ). Si B es invertible, entonces

p(A) - p(AB B->) á p(AB)


y
p(A) - p(B_, BA) S p(BA);

juntamente con (8 ) esto da (1 0 ). La ecuación (7 ) es una conse­


cuencia inmediata de un argumento que ya hemos usado en la prue­
ba del Teorema 2. La prueba del ( 9 ) la dejamos como ejercicio al
lector. (Sugestión: apliqúese el Teorema 2 con X - BV - <R(B).)
Juntas las dos fórmulas ( 8 ) y (9 ) se conocen como ley de nulidad
de Silvester.

§51. TRANSFORMACION DE RANGO UNO

Concluimos nuestra discusión del rango por una descripción de


las matrices de transformaciones lineales de rango g 1.
T eorema 1. Si una transformación lineal A sobre un es­
pacio vectorial finito-dimensional v es tal que p(A) g 1 [esto
es, p(A) = 0 o p(A) = 1], entonces los elementos de la matriz
[A) = (a*/) de A tienen la forma a;, = B¡y, en todo sistema de
coordenadas; reciprocamente, si la matriz de A tiene esta forma
en algún otro sistema de coordenadas, entonces p(A) g 1.
Prueba. Si p(A) = 0, entonces A =~0 y el enunciado es trivial.
Si p(A) = 1, esto es, ®(A) es unidimensional, entonces existe en
<Jt(A) un vector no cero *, (una base de «t(A)J tal que todo vector
de « (A ) es un múltiplo de x„. De aquí que, para toda x.

donde el coeficiente escalar y„[ = y0(x )l depende, por supuesto, de


x. La linearidad de A implica que y„ es una funcional lineal sobre
V. Sea 3C = {x„ . . x„} una base de v , y sea (ai*) la correspon­
diente matriz de A, de manera que
A x ,-2 W < .
Si SC' = {y ,y.) es la base dual de v ', entonces [véase el §
45. ( 2 )|
= 1-4.,. V.1-
En el presente caso
o./ - [vo(xy)*o. y.l “ Vo(z,)[xo, y,l - [*o, y.][zy, yol;
en otras palabras, tomamos p, = [x0. Vil y y, = [x,, y„].
Recíprocamente, supóngase que en un sistema fijo de coordena­
das X = (x,...........x.) la matriz (o,,) de A es tal que a,, = p¡yi.
Podemos encontrar una función lineal y„ tal que y, = [x,, y„) y po­
demos definir un vector x , por x0 = La transformación li­
neal X definida por Xx = y„(x)x„ es claramente de rango uno (a
menos, por supuesto, que a„ -- O para toda i y j) y su matriz (¿,j)
en el sistema de coordenadas x es dada por
«i, - [fot, Vil
(donde X' = (y,, . . . . y.) es la base dual de X). De aquí que
- [yo(x/)xo. y,l - (*0i VÁUl, yol - Pn¡,
y, puesto que A y X tienen la misma matriz en un sistema de co­
ordenadas, se sigue que X ~ A. Esto concluye la prueba del teo-
E1 siguiente teorema hace algunas veces posible aplicar el Teo­
rema 1 para obtener resultados con una arbitraria transformación
lineal.
Teorema 2. Si A es una transformación lineal de rango p
sobre un espacio vectorial finito^iimensional T), entonces A pue­
de ser escrito como la suma de p transformaciones de rango uno.
P rueba. Puesto que AT) => 0t(A) tiene una dimensión />, pode­
mos encontrar p vectores x„ . . . . x , que formen una base para
«(A). Se sigue que, para todo vector x de V, tenemos

Ax - E.'-.fcx,,
donde cada (, depende, por supuesto, de x; escribimos £i = y ,(x).
Es fácil ver que y, es una funcional lineal. En términos de estas
y, definimos, para cada t = 1, ...,/> , una transformación lineal A, por
Ai x = y, (x)x,. Se sigue que cada Ai tiene rango uno y A = Z ?-i
A(. [Compárese este resultado con el § 32, Ej. (2)).
Un ligero refinamiento de la prueba que se acaba de dar da el
siguiente resultado.
T eorema 3. Correspondiendo a cualquier transformación
lineal A sobre un espacio vectorial finitcnlimensional t) hay
una transformación lineal P para la cual PA es una proyección.
Prueba. Sean # y DI, respectivamente, el alcance y el espacio
nulo de A y sea {*, xp) una base para «. Sean x.
vectores tales que {x„ . . . . x«) es una base de V. Puesto que está
en 01 para i = 1, . . . . p, podemos encontrar vectores y, tales que
Ay, = x,¡ finalmente, escogemos una base para 31, que podemos de­
notar por [yf .„ . . . . y,}. Afirmamos que {y,, . . . . y») es una base
para v . Necesitamos, por supuesto, probar solamente que las y
son linealmente Independientes. Para este propósito suponemos que
Z*-i»iVí ■=0; .Entonces tenemos (recordando que para i = p + 1,
. . . , n el vector y, pertenece a 31)

A (Z í-i “■vi) - = 0,
de donde a, = . . . = « , = 0. Consecuentemente, Z"-»+i «¡V( = 0;
la independencia lineal de yp„, . . . , y. demuestra que las « restan­
tes deben también desaparecer.
Una transformación lineal P de esta clase, cuya existencia fue

n. En realidad, si i = 1, .... p,
afirmada, se determina ahora por las condiciones Px, = y,, i = 1,
.... entonces PAy, = Px, = y, y si
i = p + 1, ■. .. n, entonces PAy, = P0 = 0.
La consideración del adjunto de A, juntamente con la reflexivi-
dad de V, demuestra que podemos también encontrar un invertible
Q para el cual AQ es una proyección. E n caso de que A misma sea
invertible, debemos tener P = Q = A 1.
EJERCICIOS

su nulidad? g pe r c sobre <,

w(!i!)' w(°;i>
M(: i :)■ ™(; I i)-

§52. PRODUCTOS TENSORIALES DE TRANSFORMACIONES

Liguemos ahora las transacciones lineales con la teoría de los


productos tensoriales. Sean 11 y v espacios vectoriales finito-dimen-
sionales (sobre el mismo campo) y sean A y B dos transformacio­
nes lineales cualesquiera sobre n y V respectivamente. Definimos
una transformación lineal C sobre el espacio v> de todas las for­
mas bilineales sobre H ffi 15 escribiendo
(&»)(*, V) - w(Az, Bu).
El producto tensorial C = A ® B de las transformaciones A y B es,
por definición, el dual de la transformación C, de manera que
(C*)(w) - *(0»)
siempre que z esté e n i i g V y w e n W . Si aplicamos C a un ele­
mento Zo = x.® J„ [recuérdese que esto significa que z,(w ) = » (* .,
jo) para toda w de v?), obtenemos

(C*»)(«) - *o(O») - (*o ® Jo)(0»)


- (Cu>)(zo, Jo) - »(Azo, fijo) = (Alo ® Bjo)(e>).
Inferimos que
(1) Cío “ Az0 ® fijo-
Puesto que hay pocos elementos en si ® V de la forma z ® j, sufi­
cientes en cualquier caso para formar una base (véasfe el $ 25),
esta relación caracteriza a C.
Las reglas formales de productos tensoriales son como sigue.

(2) A ® 0 - 0 ® B - 0,
(3) 1 ® 1 - 1,
(4) (A, + A,) ® B - (A, ® B) + (A, ® B),
(5) A ® (B, + B.) - (A ® B.) + (A ® B,).
(6) aA ® /SB - «S(A ® B),
(7) (A ® B )-' - A“ ‘ ® B -‘,
(8) (AjAj ) ® (Bifij) - (A, ® B,)(A, ® B,).

Las pruebas de estas relaciones, excepto quizás las dos últimas, son
directas.
La fórmula (7 ), como toda fórmula que implica inversos, tiene
que ser lefda con precaución. Tiene el propósito de significar que
si A y B son invertibles, entonces lo son A ® B y la ecuación es
válida, y, reciprocamente, que si A ® B es invertible, también lo son
A y B. Probaremos (7 ) y ( 8 ) en orden inverso.
La fórmula (8 ) se sigue de la caracterización (1 ) de productos
tensoriales y del siguiente cómputo:
(A¡A2 ® B¡B¡)(x ® y) = A¡A¡z ® B¡B¡y
- (Ai ® ® B»y) - (A, ® ® B,)(* ® y).
Como consecuencia inmediata de (8 ) obtenemos
(9) A ® B - (A ® 1)(1 ® B) - (1 ® B)(A ® 1).
Para probar ( 7 ), supóngase que A y B son invertibles, y fórmese
A ® B y A"‘ ® B '. Puesto que, según ( 8 ), el producto de estas dos
transformaciones, en cualquier orden, es 1, se sigue que A ® B es
invertible y (7 ) es válida. Recíprocamente, supóngase que A ® B
es invertible. Recordando que definimos los productos tensoriales

§ 36, Teorema 2; basta con probar que Ax = 0 implica que x = 0 y


By = 0 implica que y = 0. Usamos (1 ):
Ax ® By - (A ® B)(z ® y).
Si cualquiera de los factores sobre la izquierda es cero, entonces (A
® B ) (x ® y ) = 0, de donde * ® y = 0. de manera que o * =
0 o y = 0. Puesto que (por (2 )] B = 0 es imposible, podemos en­
contrar un vector y tal que By ^ 0. Aplicando el argumento anterior
a esta y, con cualquiera x para la cual Ax = 0, concluimos que *
= 0. El mismo argumento con los papeles de A y B intercambiados
prueba que B es invertible.
Un interesante (y complicado) aspecto de la teoría de los pro­
ductos tensoriales de transformaciones es la teoría de los productos
de matrices de Kronecker. Sean íc = {*,, . . . . x ,) y y = (y„
y .) bases en it y v , y sean [Al = [A; ac 1 = ( a¡,) y [B] = [B; Hl
= (/}„) las matrices de A y B. ¿Cuál es la matriz de A ® B en el
sistema de coordenadas (x< ® y,}?
Para resolver la cuestión, debemos recordar la discusión del
$ 37, relativa al arreglo de una base en orden lineal. Puesto que,
infortunadamente, es imposible escribir una matriz sin comprome­
terse en cuanto al orden de las filas y las columnas seremos francos
al respecto y arreglaremos los n veces m vectores x, ® yr en el lla­
mado orden lexicográfico, como sigue:
Procedemos también a efectuar el siguiente cómputo:
(A ® B)(x¡ ® y,) - Ax, ® By, - ( E .a u*.) ®

- E*E»«<A .fo® & )-


Este proceso indica exactamente hasta dónde podemos llegar sin
ordenar los elementos básicos; si, por ejemplo, convenimos en po­
ner índices a los elementos de una matriz, no con un par de ente­
ros, sino con un par de pares, digamos (i, p ) y (;, q), entonces
sabemos ahora que el elemento en la fila (i, p ) y la columna (j, q),
es anPK. Si usamos el ordenamiento lexicográfico, la matriz A ® B
tiene la forma

En una notación condensada cuyo significado es claro, podemos e:

[«iilBl ••• o

•i[B] ••• o
Esta matriz es conocida como el producto de Kronecker de |A] y |B]
en ese orden. La regla para formarlo es fácil de describir en pala­
bras: reemplácese cada elemento de la matriz n por n [A] por
la matriz m por ma,,|B]. Si en esta regla intercambiamos los pape­
les de A y B (y consecuentemente intercambiamos n y m) obtene­
mos la definición de producto de Kronecker de [B] y [A].
EJERCICIOS

con el espacio SV. de polinomio# en do# variable# (véaie"#! | 25. EJ. 2).
Pruébese que ai A y B eon diferenciación sobre <P« y respectivamente.

mmux' Cz 3#dt
2. Con la ordenación lexicográfica de la base de producto (x, Q yp) re­
sultó que la matriz de A ® B es el producto de Kronecker de las matrices
de A y B. ¿Hay una ordenación de los vectores de base, tal que la matriz de
A ® •B. referida al sistema de coordenadas asi ordenado, es el producto

¿A ® B) - ¿A)¿B).

§53. DETERMINANTES

Es. por supuesto, posible generalizar las consideraciones de la


sección procedente a formas muldlineales y productos tensoriales
múltiples. En vez de entrar en esa parte del álgebra multilineal,
marchamos en una dirección distinta; vamos directamente tras de
ios determinantes.
Supóngase que A es una transformación lineal sobre un espacio
vectorial n-dimensional V y sea w una forma alterna n-lineal sobre
V. Si escribimos Aw para la función definida por

<¿ti>)Cc„ “ t»(A*i, • • •, Ax.),

entonces Aw es una forma alterna n-lineal sobre u , y, de hecho, A


es una transformación n-lineal sobre el espacio de esas formas.
Puesto que (véase el § 31) ese espacio es unidimensional, se sigue
que A es igual a la multiplicación por un escalar apropiado. En otras
palabras, existe un escalar S tal que Aw = íw para toda forma al­
terna n-lineal w. Por este procedimiento un tanto indirecto (de A a A a
8) hemos asociado un escalar 8 determinado en forma única con
cada transformación lineal A sobre U; llamamos 8 al determinante
de A, y escribimos 8 = det A. Obsérvese que det no es ni un escalar
ni una transformadón, sino una función que asocia un escalar con
cada transformación lineal.
Nuestro propósito inmediato es estudiar la función det. Comen­
zamos por encontrar los determinantes de las transformaciones li­
neales más sencillas, esto es, las multiplicaciones por escalares. Si
Ax = ax para toda x de 1), entonces
(Au>)(x,, = u>(az¡, ■■■, ca.) = o"u>(x,,
para toda forma alterna n-lineal w; se sigue que det A = a". Nota­
mos, en particular, que det 0 = 0 y det 1 = 1.
En seguida preguntamos sobre las propiedades multiplicativas
de det. Supóngase que A y B son transformaciones lineales sobre V,
y escribase C = AB. Si w es una forma alterna n-lineal, entonces
(Cu)(z¡, ■■-, x») —u>(ABxi, - • ABx.)
- (Al»)(flx„ - (BAioXx,, •

de manera que C = BA. Puesto que


Cu>— (det C)ts
y
S I w = (det B)Aw - (det B)(det A)u>,
se sigue que
det (AB) - (det A)(det B).
(Los valores de det son escalares y, en consecuencia, conmutan en­
tre si).
Una transformación lineal A es llamada singular si det A = 0 y
•no-singular en el otro caso. Nuesto siguiente resultado es que A es
invertible si y solamente si es no-singular. En realidad, si A es in-
vertible, entonces
1 = det 1 - det (AA-1) = (det A)(det A-1),
y, en consecuencia, det A 0. Supóngase, por otra parte, que det A
=£ 0. Si (x,, . . . , x.) es una base de V, y si w ed una forma n-lineal
alterna no cero sobre U, entonces (det A )w (x, x») # 0 , según
el § 30, Teorema 3. Esto implica, según el § 30, Teorema 2, que el
conjunto {Ax, Ax.) es linealmente independiente (y, en con­
secuencia, una base); de esto, a su vez, inferimos que A es inver­
tible.
En la terminología clásica el determinante se define como una
función de matrices (no de transformaciones lineales); estamos
ahora en condiciones de hacer contacto conTese punto de vista. De­
duciremos una expresión para det A en términos de los elementos
123

<>„ de la matriz correspondiente a A en algún sistema de coordena­


das {*,.......... *.}. Sea w una forma n-lineal alterna no cero; sabe-

<1) (det A)u>(zi, •■■,!,) - w(Axu ■■■, Ax,).


Si reemplazamos cada Ax, en el segundo miembro de (1) por
£ia¡jXi y expandimos el resultado por multilinearidad, obtenemos
una larga combinación lineal de términos tales como w(z„ . . . , z.)
donde cada z es una de las x. (Compárese esta parte del argumento
con la prueba del §30, Teorema 3). Si, en un término tal, dos de
las z coinciden, entonces, puesto que w es alterna, ese término debe
desaparecer. Si, por otra parte, todas las z son distintas, entonces
t»(z, z ,) = *w(x,, . . . . x .) para alguna permutación », y,
además, para alguna permutación ir puede ocurrir en esta forma.
El coeficiente del término xw(x, x ,) es el producto a.ovi . . .
a,,., „. Puesto que (§ 30, Teorema 1) w es simétricooblicua, se
sigue que
(2) detA - E rÍB g n 'K tn .r
donde la suma se extiende sobre todas las permutaciones ir de $..
[Recuérdese que w (x, x„) 0, según el § 30, Teorema 3, de
manera que la división por w(x,......... x„) es legitima.]
De esta ecuación clásica (2) podemos deducir muchas propie­
dades especiales de determinantes por cómputo directo. Aqui está
un ejemplo. Si o y » son permutaciones (en S ,) entonces (puesto
que ira es también una permutación), se sigue que los productos
»<»'■ ■- - «•<„}. y oram.odi . . . «»<ri.i.oi. i difieren solamente en el or­
den de sus factores. Si, para cada *, tomamos » = »■' y, a conti­
nuación, alteramos cada sumando de (2 ) consecuentemente, obte­
nemos
det A = 2Z» (sgn x)ori,r<i) • •

(Nótese que sgn ir = sgn y que la suma sobre todas las ir es


la misma que la suma sobre todas las »■'.) Puesto que esta última
suma es justamente como la suma en (2 ). excepto que a¡.,,n apa­
rece en lugar de se sigue de una aplicación de (2) a A' en lugar
de A que
det A = det A'.
Aquí está otro hecho útil sobre determinantes. Si SU es un sub-
espacio invariante bajo A, si B es la transformación A considerada
sobre 311 solamente, y si C es la transformación por cociente <4/311,

det A «■det B-det C.

Esta relación multiplicativa es válida si, en particular, A es la suma


directa de dos transformaciones B y C. La prueba puede basarse
directamente sobre la definición de determinantes o, alternativa­
mente, sobre la expansión obtenida en el párrafo precedente.
Si, para una transformación lineal fija A, escribimos p(A) =
det (A — A) entonces p es una función del escalar A; afirmamos
que es, de hecho, un polinomio de grado n en A y que el coeficiente
de A" es ( - 1)". Para la prueba podemos usar la notación de (1).
Es fácil ver que tu[(A - A)*, (A - A)x„] es una suma de tér­
minos tales como A*w(y,..........y.), donde y¡ = x, para exactamente
k valores de i y y, = Ax, para los restantes n — k valores de i(k =
0, 1..........n). El polinomio p se llama el polinomio característico de
A; la ecuación p = 0, esto es, det(A - A) = 0 es la ecuación carac­
terística de A. Las rafees de la ecuación característica de A [esto
es, los escalares o tales que det (A — o) = 0] se llaman las raíces
características de A.

EJERCICIOS
§54. VALORES PROPIOS

Un escalar X es un valor propio y un vector x no cero es un vec­


tor propio de una transformación lineal A si Ax = Xx. Casi toda
combinación de los adjetivos propio, latente, característico, eigen,
y secular, con los nombres raíz, número y valor, han sido usados
en la terminología para lo que llamamos un valor propio. Es impor­
tante estar sobre aviso del orden de selección en la definición; es
un valor propio de A si existe un vector no cero x para el cual
Ax = Xx y un vector no cero x es un vector propio de A si existe
un escalar X para el cual Ax = xx.
Supóngase que x es un valor propio de A; sea ¡ni la colección
de todos los vectores x que son vectores propios de A que pertene­
cen a este valor propio, esto es, para el cual Ax = xx. Puesto que,
por nuestra definición, 0 no es un vector propio, 3ll no contiene a
0; si, en cambio, alargamos 3lt adjuntándole el origen, entonces se
convierte en un subespacio. Definimos la multiplicidad del valor
propio X como la dimensión del subespacio 311; un valor propio sim­
ple es aquel cuya multiplicidad es igual a 1. Por una obvia exten­
sión de esta terminología, podemos expresar el hecho de que un
escalar X no es un valor propio de A, diciendo que x es un valor de
multiplicidad cero. El conjunto de valor propios de A se llama, al­
gunas veces, el espectro de A. Nótese que el espectro de A es igual
al conjunto de todos los escalares X para los cuales A - x no es
invertible.
Si el espacio vectorial con que estamos trabajando tiene la di­
mensión n, entonces el escalar 0 es un valor propio de multiplicidad
n de la transformación lineal 0, y, de modo semejante, el escalar 1
es un valor propio de multiplicidad n de la transformación lineal
1. Puesto que Ax = Xx si y sólo si (A - X)x = 0, esto es, si y
sólo si x está en el espacio nulo de A - x, se sigue que la multipli­
cidad de X como valor propio de A es igual a la nulidad de la trans­
formación lineal A —X. De esto, a su vez, se infiere (véase el § 50,
Teorema 1), que los valores propios de A, juntamente con sus mul­
tiplicidades asociadas, son exactamente iguales a los de A'.
Observamos que B es cualquier transformación invertible, en­
tonces
BAB“> - X = B(A —X)B-‘,
de manera que (A - X)x = 0, si y sólo si JBAB-' — x)Bx = 0. Es­
to implica que todos los conceptos espectrales (por ejemplo, el es­
pectro y las multiplicidades de los valores propios) son invariantes
bajo el reemplazo de A por BAB-'. Notamos también que si Ax =
xx, entonces
A*x -= A(Ax) = A(Xz) = X(Az) - X(Az) = X*z.
Más generalmente, si p es un polinomio cualquiera, entonces p(A )x
= p(A)x, de manera que todo vector propio de A, que pertenece
al valor propio X, es también un vector propio de p(A ), que per­
tenece al valor propio p(X). De aquí que si A satisface cualquier
ecuación de la forma p(A ) = 0, entonces p(A) = 0, para todo valor
propio A de A.
Puesto que una condición necesaria y suficiente para que A —
a tenga un espacio nulo no trivial es que sea singular, esto es, que
det (A — A) = 0, se sigue que A es un valor propio de A si y sólo
si es una raíz característica de A. Este hecho es la razón de la im­
portancia de los determinantes en el álgebra lineal. El concepto
geométrico útil es el de un valor propio. Por la geometría de la situa­
ción, sin embargo, es imposible probar que existen valores propios.
Por medio de determinantes reducimos el problema a un proble­
ma algebraico; resulta que los valores propios son lo mismo que raí­
ces de cierta ecuación polinómica. No es extraño ahora que sea difícil
probar que los valores propios existen siempre; las ecuaciones poli-
nómicas no siempre tienen raíces y, correspondientemente, hay ejem­
plos fáciles de transformaciones lineales sin valores propios.

§55. MULTIPLICIDAD

La discusión de la sección precedente indica una de nuestras


razones para desear el estudio de los espacios vectoriales complejos.
Por el llamado teorema fundamental del álgebra, una ecuación po-
linomia sobre el campo de números complejos tiene siempre, cuan­
do menos, una raíz; se sigue que una transformación lineal sobre un
espacio vectorial complejo tiene siempre, cuando menos, un valor
propio. Hay otros campos, además del campo de los números com­
plejos, sobre los cuales es resoluble toda ecuación polinomia; se lla­
man campos algebraicamente cerrados. El resultado más general de
la clase que buscamos en este momento es que toda transformación
lineal de un espacio vectorial finito-dimensional tenga, cuando me­
nos, un valor propio. En todo el resto de este capítulo (en las si­
guientes cuatro secciones) supondremos que nuestro campo de es­
calares es algebraicamente cerrado. El uso que haremos de este
128

supuesto es el que se acaba de mencionar, a saber, que del mismo


podemos concluir que existen siempre valores propios.
El punto de vista algebraico sobre valores propios sugiere otra
posible definición de multiplicidad. Supóngase que A es una trans­
formación lineal sobre un espacio vectorial fínito-dimensionai, y su­
póngase que A es un valor propio de A. Podríamos desear considerar
la multiplicidad de A como una raíz de la ecuación característica de
A. Este es un concepto útil, que llamaremos la multiplicidad alge­
braica de k, para distinguirlo de otra noción geométrica anterior de
multiplicidad.
Los dos conceptos de multiplicidad no coinciden, como lo mues­
tra el ejemplo siguiente. Si D es diferenciación sobre el espacio <P„
de todos los polinomios de grado í n - 1, entonces una condición ne­
cesaria y suficiente para que un vector x de <y, sea un vector propio
de D es que ^ as Ax(t) para algún número complejo k. Tomamos
en préstamo de la teoría elemental de las ecuaciones diferenciales
el hecho de que toda solución de esta ecuación es una constante
múltiple de e“ . Puesto que, a menos que k = 0, solamente el múlti­
plo cero de e“ es un polinomio (lo que debe ser, si pertenece a
(P„),debemos tener A = O y x (t) = 1. En otras palabras, esta trans­
formación particular tiene sólo un valor propio (que debe, en con­
secuencia, ocurrir con la multiplicidad algebraica n ), a saber, A =
0; pero, y esto es más perturbador, la dimensión del múltiple linear
de dimensiones es exactamente uno. De aquí que si n > 1, las dos
definiciones de multiplicidad dan valores diferentes. (En este argu­
mento usamos el simple hecho de que una ecuación polinomia de
grado n sobre un campo algebraicamente cerrado tiene exactamente
n raíces, si las multiplicidades son contadas adecuadamente. Se
sigue que una transformación lineal sobre un espacio vectorial n-
dimensional tiene exactamente n valores propios, contando las mul­
tiplicidades algebraicas.)
Es completamente fácil ver que la multiplicidad geométrica de
A no es nunca mayor que su multiplicidad algebraica. En realidad,
si A es una transformación linea], si Ao es cualquiera de sus valores
propios y si 9H es el subespacio de soluciones de Ax = A«x, entonces
está claro que 9tt es invariante bajo A. Si A„ es la transformación
lineal A considerada sobre 3tí solamente, entonces está claro que
det ( A„ - A) es un factor de det (A - A). Si la dimensión de su
( = la multiplicidad geométrica de A») £s m, entonces det (A« - A)
= (A„ — A)",- el resultado deseado se sigue de la definición de muí-
tiplícidad algebraica. Se sigue también que si A„ . . . . A, son valores
propios distintos de A, con multiplicidades geométricas respectivas,
m„ . . . , m,, y si sucede que £ f _ i mi = n, entonces m, es igual a la
multiplicidad algebraica de A, para cada i = 1, . . . , p.
Por medio de valores propios y sus multiplicidades algebraicas
podemos caracterizar dos interesantes funciones de transformacio­
nes lineales; una de ellas es el determinante y la otra es algo nuevo.
(Advertencia: estas caracterizaciones son válidas sólo bajo el su­
puesto usual de que el campo escalar está algebraicamente cerrado.)
Sea A cualquier transformación lineal sobre un espacio vectorial
n-dimensional, y sean Ai A, sus diferentes valores propios. De­
notemos por m , la multiplicidad algebraica de A,, j = 1 p, de
manera que m, + . . . + tn, = n. Para cualquier ecuación polinomia
Oo + oiA H 1- a„X* —0,
el producto de las raíces es ( - 1)”oo/«» y la suma de las raices es
— an-i/a.. Puesto que el coeficiente principal ( = o.) del polinomio
característico det (A - A) es ( - 1)" y puesto que el término cons­
tante es det (A — 0) = det A, tenemos

det a - n r - . v » -

Esta caracterización del determinante motiva la definición

trA =

la función así definida se llama la traza de A. No tendremos oca­


sión de usar la traza en lo que sigue; dejaremos la deducción de las
propiedades básicas de la traza al lector que se interese.

EJERCICIOS
§56. FORMA TRIANGULAR

Es ahora completamente fácil probar el más fácil de los llamí


dos teoremas canónicos de forma. Nuestro supuesto sobre el campo
escalar (a saber, que es algebraicamente cenado) todavía está en
vigor.
T eorema 1. Si A es una transformación lineal sobre un
espacio vectorial finito-dimensional V, existen entonces n + 1
subespacios Dito, Slti, - • •, 3tl._i, 3H„ con las propiedades siguientes.
(i) cada 3% (j = 0, 1 n - 1, n ) es invariante bajo A,
(ii) la dimensión de 3Ity es j,
(iii) (0 = ) 3TCoC ¡Jll, C •• • C 3TC.-1 C 311. (=U).
Prueba. Si n = 0 o n = 1, el resultado es trivial; procedemos
por inducción, suponiendo que el enunciado es correcto para n —1.
Considérese la transformación dual A' sobre v '; puesto que tiene,
cuando menos, un vector propio, digamos xf, existe un subespacio
unidimensional 3Tt invariante bajo el mismo, a saber, el conjunto
de todos los múltiplos de x". Denotemos por 3Í;_, el aniquilador (en
131
V" - U) de 311, 31Zn_i - 311°; entonces 3H,_i es un subespacio (n -
1 ¡-dimensional det),y9TC«-iaes invariante bajo A. Consecuentemente,
podemos considerar A como una transformación lineal sobre solo
y podemos encontrarOTo, 311,, • • -, SR._1, que satisfagan las con­
diciones ( i) , (ii) (iil). Escribimos 3Tt„ =■ V, y está hecho.
El principal interés de este teorema viene de su interpretación
matricial. Puesto que 3T!, es unidimensional, podemos encontrar en
el mismo un vector x, y, 0. Puesto que 3H, c sitj, se sigue que x, está
también en 3Tt2, y puesto que Hitaes bidimensional, podemos encontrar
en el mismo un vector x, tal que x , y x. sobretiendan a ¡JTtj. Procede­
mos, en esta forma, por inducción, escogiendo vectores x¡, de manera
que ........ , x, quedan en Hit/ y sobretienden 3TC, para j = 1, . . . . n.
Obtenemos, finalmente, una base X = {*,, . . . . *„} de U; calcule­
mos la matriz de A en este sistema de coordenadas. Puesto que x,
está en 3TI, y puesto que 3H> es invariante bajo A, se sigue que Ax,
debe ser una combinación lineal de x, X,. De aquí que, en la
expresión
A zj=

el coeficiente de x, debe desaparecer siempre que i > j; en otras


palabras, i > j implica a„ = 0. De aqui que la matriz de A tenga
la forma triangular

Está claro de esta representación que det (A — a,,) = 0. para i =


1 n, de manera que ai, son los valores propios de A, que apa­
recen en la diagonal principal de [A] con las multiplicidades pro­
pias. Resumimos como sigue:
T eorema 2. Si A es una transformación lineal sobre un
espacio vectorial n-dimensional 1), existe entonces una base X
de V tal que la matriz [A; X] es triangular;• o, equivalente­
mente, si [A] es una matriz cualquiera, existe una matriz no sin­
gular [B] tal que [B1'[A][B] es triangular.
La forma triangular es útil para probar muchos resultados sobre
transformaciones lineales. Se sigue de la misma, por ejemplo, que
para cualquier polinomio p, los valores propios de p(A), incluyendo
sus multiplicidades algebraicas, son precisamente los números p(A),
donde A corre a través de los valores propios de A.
Una gran parte de la teoría de las transformaciones lineales
está dedicada a mejorar el resultado de triangularización que se
acaba de obtener. Lo mejor que puede ser una matriz, no es ser
triangular, sino diagonal (esto es, a,, = 0, a menos que i = j); si
una transformación lineal es tal que su matriz es diagonal con res­
pecto de un sistema adecuado de coordenadas, llamaremos a la
transformación diagonable.

EJERCICIOS

< 1)
»> C ¡)

«C °)
»> i , !)■
2. Dos transformaciones lineales conmutativas sobre un espacio vectorial
flnitodimcnsional V sobre un campo algebraicamente cerrado, pueden ser
triangularizadas simultáneamente. En otras palabras, si AB = BA, entonces
existe una base X tal que tanto [A, X] como (B, XI son triangulares. (Su­
gestión: para imitar la prueba del §56 es deseable encontrar un subespacio
311 de V invariante tanto bajo A como bajo B. Con esto presente, considérese
cualquier valor propio de Xde A y examínese el conjunto de todas las solu­
ciones de Ax = Xx para el papel dedil.]
3. Formúlense y pruébense los análogos de los resultados de §56 para
4. Supóngase que A es una transformación lineal sobre un espacio vec­
torial n-dimenslonal. Para cada forma alterna n-lineal w, escríbase Aw para
la función definida por
(l«)(*i, •• *0 - te(4*i, ** ■• *0 _
+ ■(*1,4*1, •••,*J+"-+«(*i,*i, ■••,4*0.
§57. NILPOTENCIA
Como ayuda para obtener un teorema de representación más
informativo que el triangular, procedemos a introducir y a estudiar
una clase muy especial, pero muy útil de transformaciones. Una
transformación lineal A es llamada nilpotente si existe un entero
estrictamente positivo q, tal que A" = 0; el menor entero q es el
índice de nilpotenda.
Teorema 1. Si A es una transformación lineal nilpotente
de índice q sobre un espacio vectorial fmito-dimensional V, y
si x0 es un vector para el cual A«-‘x» ^ 0, entonces los vectores
Xo,.Axo As-'Xc son linealmente independientes. Si x es el
espacio sobretendido por estos vectores, entonces existe un subes­
pacio X tal que v = SC© X y tal que el par (3C, X)reduce a A.

P rueba. Para probar la independencia lineal, supóngase que


o.A’io = 0, y sea j el índice mínimo tal que a¡ — 0. (No ex­
cluimos la posibilidad de que j = 0.) Dividiendo por -a¡ y cambian­
do la notación en una forma obvia, obtenemos una relación de la

A'z„ - 2 - A'+‘y.
Se sigue de la definición de q que
A’t-'io “ A, - '- 1A,*o - A,-í-1A#+1y - A’y - 0;
puesto que esto contradice la selección de x0, debemos tener a, = 0
para cada ;.
Está claro que 3C es invariante bajo A; para construir 3C proce­
demos por inducción sobre el índice q de nilpotencia. Si q = 1. el
resultado es trivial; suponemos ahora el teorema para q - 1. El al­
cance s de A es un subespacio que es invariante bajo A; restrin­
gida a ir la transformación lineal A es nilpotente de índice q — 1.
Escribimos Ko - 3C fl « y y» = A*,; entonces 3Co es sobretendido
por los vectores linealmente independientes y«, Ay„ A,-'ya. La
hipótesis de inducción puede aplicarse y podemos concluir que ir
es la suma directa de SCg y algún otro subespacio invariante Xo.
Escribimos x¡ para el conjunto de todos los vectores x, tales
que Ax está en ¡Ko; está claro que 3Ct es un subespacio. Es grande
la tentación de hacer X = 3Ci e intentar probar que X tiene las
propiedades deseadas. Infortunadamente, no es necesario que esto
sea verdadero; x y 3Ci no necesitan ser disjuntos. (Es verdad, pero
no usaremos ese hecho, que la intersección de se y 3C, está conte­
nida en el espacio nulo.de A.) Que, a pesar-de esto, x , sea útil es
motivado por el hecho de que 3C+ Xi —V. Para probar esto, ob­
sérvese que Ax está en fft para toda x y, consecuentemente, Ax =
y + z con y en Xo y z en Xo. El elemento general de Xo es una
combinación lineal de Ax,, . . . , A'-'x,; de aquí tenemos

y “ £ ! - í <hA{*0 - A (2jrÓ aí+iA'*«) - Ay,,


donde y, está en X. Se sigue que Ax = Ay, + z, o A(x - y ,) = z,
de manera que A (x—y ,) está en Xo. Esto significa que x - y,
está en X|, de manera que x es la suma de un elemento (a saber
y ,) de x y un elemento (a saber, x —y ,) de x¡.
Por lo que concierne a la disyunción, podemos decir cuando me­
nos que x fl Xo = 0. Para probar esto, supóngase que x está en
X 0 Xo, y obsérvese primero que Ax está en Xo (puesto que x está
en X). Puesto que Xo es también invariante bajo A, el vector Ax
pertenece a Xo juntamente con x, de manera que Ax = 0. De esto
inferimos que x está en Xo. (Puesto que x está en x , tenemos x =
E t í «iA'xti; y. en consecuencia, 0 = Ax = £ ! - í <«,•_,A**,; de la
independencia lineal de las A’x, se sigue que o„ = . . . o,., = 0. de
manera que x = c^-tA'-'x,). Hemos probado que si x pertenece a
X 0 Xo, entonces pertenece también a 3Co fl ¡Ko, y de aquí que x
= 0.
La situación es ahora ésta: x y 3Ci juntamente sobretienden a
V, y ¡Ki contiene los dos subespacios disjuntos Ko y 3C fl X ,. Si
suponemos que K’0 es un complemento cualquiera de Ko ® (3C fl Ki)

X'o © 3Co © (3C fl Xi) - X,,


entonces podemos escribir X — X'o © K>; afirmamos que esta x
tiene las propiedades deseadas. En primer lugar X c Xi y X es
disjunta de X fl Xi; se sigue que X fl X = 6. En segundo lugar
X © X contiene tanto a X como a Xi, de manera que x © X - V.
Finalmente, x es invariante bajo A, puesto que el hecho de que
X c x , implica que AX c X g C X . La prueba del teorema es com-

Posteriormente, necesitaremos la siguiente observación. Si lo es


cualquier otro vector para el cual A«-‘x«y t 0, si x es el subespacio
sobretendido por los vectores At A '-'t, y si, finalmente,
X es cualquier subespacio que juntamente con X reduce a A, en­
tonces el comportamiento de A sobre x y X es el mismo que su
comportamiento sobre X y X respectivamente. (En otras palabras,
a pesar de la aparente univocidad en el enunciado del Teorema
1, todo está, de hecho, determinado en forma uníyoca, hasta los iso-
morfismos.) La verdad de esta observación se sigue del hecho de
que el índice de nilpotencia de A sobre 0C(r, digamos) es el mismo que
el índice de nilpotencia de A sobre ac (f, digamos). Este hecho, a
su vez, se prueba como sigue. Puesto que A'v = A 'x. + A’x y
también Arv = A’í í + A’x (estos resultados dependen de la inva­
riancia de todos los subespacios involucrados), se sigue que pueden
ser igualadas las dimensiones de los segundos miembros de estas
ecuaciones, y de aquí que (q —r ) + 0 = (q - r ) + (f - r).
Usando el Teorema 1 podemos encontrar una completa carac­
terización geométrica de transformaciones nilpotentes.
T eorema.2. Si A es una transformación lineal nilpotente
de índice q sobre un espacio vectorial finito-dimensional V, en­
tonces existen enteros positivos r, q, q, y vectores x„ . . . .
x, tales que (i) q, g . . . S q„ (S ) los vectores

Xi, Ax i, •••, A«>_1z,,

forman una base para V, y (ifi) A’ix, = A"ix, = . . . =A*'x, = 0.


Los enteros r, q„ . . . , q, que forman un conjunto completo de
invariantes de isomorfismo de A. Si, en otras palabras, B es cual­
quier otra transformación lineal nilpotente sobre un espacio vec­
torial finito-dimensional v?, entonces una condición necesaria y
suficiente para que exista un isomorfismo T entre v y w tal
como TAT~' = B es que los enteros r, q„ . . . . q, aplicados a &
sean iguales que los aplicados a A.
Prueba. Escribimos q, = q y escogemos x, como un vector
cualquiera para el cual A v i , ^ 0. El subespacio sobretendido por
x¡, A x, A 'f1*! es invariante bajo A, y, por el Teorema 1, posee
un complemento invariante, que, naturalmente, tiene una dimensión
estrictamente más baja que ‘ü. Sobre este subespacio complementa­
rio, A es nilpotente de Índice q„ digamos; aplicamos el mismo pro­
ceso de reducción a este subespacio (comenzando con un vector x,
para el cual A 'rte, # 0 ) . Continuamos asi por inducción hasta
agotar el espacio. Esto prueba la parte existencial del teorema;
la parte restante se sigue de la univocidad (hasta llegar a iso-
morfismos) de la descomposición dada por-el Teorema 1.
Con respecto a la base (A1*,) descrita en el Teorema 2, la
matriz de A toma una forma sencilla. Todo elemento de la matriz
que no está en la diagonal situada exactamente debajo de la dia­
gonal principal, desaparece (esto es, a,, =£ 0 implica j = i - 1 ), y
los elementos situados debajo de la diagonal principal comienzan,
(en la parte superior) con una serie de unos seguidos por un solo
0, continúan con otra serie de unos seguidos por un 0 y continúan
así hasta el fin, con las longitudes de las series de unos disminu­
yendo monótonamente (o, en todo caso, no decreciendo).
Obsérvese que nuestro supuesto sobre la oclusión algebraica del
campo de escalares no se usó en esta sección.

EJERCICIOS

bidimenzlonzl?
2. (a) Pruébese que una transformación lineal n11potente sobre un espa­
cio vectorial finitodimensional tiene traza cero.

es nllpotente y BC = CB; las transformaciones B y C son determinadas en


forma única por estas condiciones.

§58. FORMA DE JORDAN

Es una sana intuición geométrica lo que nos hace conjeturar


que, para transformaciones lineales, el ser invertibles y el ser cero en
algún sentido son nociones exactamente opuestas. Nuestro des­
concierto al encontrar que el alcance y el espacio nulo no es necesa­
rio que estén disjuntos, está conectado con esta conjetura. La situa­
ción puede ser arreglada relajando el sentido en que interpretamos
"ser cero"; para la mayor parte de los propósitos prácticos una
transformación lineal, alguna potencia de la cual es cero (esto es.
una transformadón nilpotente) es tan de naturaleza cero, como
puede esperarse que lo sea. Aunque no podemos decir que una
transformación lineal es invertible o "cero”, aún en el sentido am­
pliado de "ceridad” o naturaleza cero, podemos decir cómo cual­
quier transformadón está compuesta de estas dos clases extremas.
T eorema 1. Toda transformación A sobre u n espacio vec­
torial finito-dimensional v es la suma directa de una transfor­
mación nilpotente y de una transformación invertible.
P rueba . Consideramos el espacio nulo de la fe-ésima potencia
de A; es éste un subespacio 31» - ül(Ak). Claramente 35, c 35, c
. . . . Afirmamos primero que si siempre 35» - 31»+,, entonces 31» —
35»+l- para todos los enteros positivos ;. En efecto, si Ak+ix “ 0, en­
tonces A*+1A<-‘a; = 0, de donde (por el hecho de que 31» = 3l*+i) se
sigue que A*A'-'x = 0, y, en consecuencia, que Al' , 'x = 0. En otras
palabras 3l»+j está contenida en (y, en consecuencia, es igual a ) 3l»+
j-i¡ la inducdón sobre j establece nuestra aserción.
Puesto que V es finito-dimensional, los subespacios 31» no pue­
den continuar aumentando indefinidamente; sea q el entero posi­
tivo más pequeño parael cual 31, “ 31,+,. Está claro que 31, es invariante
bajo A (de hecho cada 31» es así). Escribimos <R» = «(A*) para el
alcance de A* (de manera que, de nuevo, está claro que (R, es inva­
riante bajo A ); probaremos que v -> 35, © (R, y que A sobre 31, es
nilpotente, mientras que sobre m, es invertible.
Si x es un vector común a 31, y a « „ entonces A’x = 0 y x =
A’y, para alguna y. Se sigue que A My = 0 y de aquí que, según la
definición de q, que x = A"y = 0. Hemos demostrado así que el
alcance y el espacio nulo de A’ son disjuntos; un argumento de
dimensionalidad (véase el §50, Teorema 1) demuestra que sobre-
tienden a V, de manera que 3 es su suma directa. Se sigue de la
definición de q y 31, que A sobre si, es nilpotente de índice q. Final­
mente, si x está en (R, (de manera que x = A»y para alguna y ) y si
A x = 0, entonces A’-'y = 0, de donde x = A»y = 0; esto demuestra
que A es invertible sobre at,. La prueba del Teorema 1 es completa.
La descomposición de A en sus partes nilpotentes e invertible es
única. Supóngase, en realidad, que 11 ■= 3C © 3Cde manera que A
sobre X es nilpo'.ente y A sobre X es invertible. Puesto que X C 3t(A*)
para alguna k, se sigue que x C 31,. y. puesto que 3Cc <R(A*) para
toda k, se sigue que x C estos hechos juntos implican que
X - 35, y x - ffi,.
Podemos ahora usar nuestros resultados sobre transformaciones
nilpotentes para estudiar la estructura de transformaciones arbitra-
lias. El método para obtener una transformación niipotente de una
transformación arbitraria puede parecer como una treta mágica,
pero es una treta útil, que se emplea a menudo. Lo que es esencial
es la existencia garantizada de valores propios; por esa razón con­
tinuamos suponiendo que el campo escalar está algebraicamente
cerrado (véase el §55).
T eorema 2. Si A es una transformación lineal sobre un
espacio vectorial finito-dimensional U, y si A, A, son los
distintos valores propios de A con multiplicidades algebraicas res­
pectivas m„ . . . , ntj, entonces V es la suma directa de p subes-
pacios Dtti, ■• •, 3ttp de dimensiones respectivas m , m„ tales
que cada 3n¡ es invariante bajo A y tales que A — A, es niipotente
sobre íitt,.
Prueba. Tómese cualquier j = 1 p , fija y considérese la
transformación A, = A —A,. A A, podemos aplicar la descomposición
del Teorema 1 para obtener los subespacios OH,- y 31¡ tales que A, es
niipotente sobre sn¡ e invertible sobre 3t,-. Puesto que stl¡ es inva­
riante bajo A¡, es también invariante bajo A¡ + Aj = A. De aquí
que, para toda A el determinante A — A es el producto de los dos
determinantes correspondientes para las dos transformaciones linea­
les en que A se convierte, cuando la consideramos sobre 311/ y 31/
separadamente. Puesto que el único valor propio de A sobre 3Tt, es A/,
y puesto que A sobre si,, no tiene el valor propio A, (esto es A — A,
es invertible sobre 31/), se sigue que la dimensión de 3Tí,- es exacta­
mente 3TT, y que cada uno de los subespacios 3ir¿ está disjunto del
ámbito de todos los otros. Un argumento de dimensión prueba que
3«i © - • • © 3Kp = V y, en consecuencia, concluye la prueba del teo-

Procedemos a describir los principales resultados de esta sección


y la precedente en lenguaje matricial. Si A es una transformación
lineal sobre un espacio vectorial finito-dimensional V, entonces con
respecto de una base adecuada de U, la matriz de A tiene la forma
siguiente. Todo elemento que no está inmediatamente sobre o de­
bajo de la diagonal principal desaparece. Sobre la diagonal principal
aparecen los distintos valores propios de A, cada uno un número de
veces igual a su multiplicidad algebraica. Debajo de cualquier valor
particular propio aparecen sólo unos y ceros y éstos en la forma
siguiente: hay cadenas de unos, seguidas de un solo 0, con las
longitudes de las cadenas decreciendo al leerse del extremo superior
al inferior. Esta matriz es la forma de Jordán o la forma canónica
clásica de A; tenemos B = TAT-' si y sólo si las formas canónicas de
A y B son iguales, excepto por lo que hace al orden de los valores
propios. (Así, en particular, una transformación lineal A es diagona-
ble si y sólo si su forma canónica clásica es ya diagonal, esto es,
si cada cadena de unos tiene longitud cero.)
Introduzcamos alguna notación. Supóngase que A tiene p valores
propios distintos A, A,, con multiplicidades algebraicas m„
. . . . m„ como antes; sea r, el número de cadenas de unos bajo A,
y sean q,,, — 1, q,., - 1......... q,,„ - 1 las longitudes de estas cade­
nas. El polinomio e,¡ definido por e¡, (A) = (A — A, )«*.* es llamado
un divisor elemental de A de multiplicidad qu , perteneciente al va­
lor propio A,. Un divisor elemental es llamado simple si su multi­
plicidad es 1 (de manera que la correspondiente longitud de la ca­
dena es 0); vemos que una transformación lineal es diagonal si y
sólo si sus divisores elementales son simples.
Para ilustrar la potencia del Teorema 2 hacemos una aplicación.
Podemos expresar el hecho de que la transformación A —A, sobre 3%
es nilpotente de índice q¡, diciendo que la transformación A sobre
311*es anulada por el polinomio e(l. Se sigue que A sobre T) es anula­
da ( por el producto de los divisores elementales di " s multiplicidades
más altas); este producto se llama el polinomio mínimo de A. Es
sumamente fácil ver (puesto que el índice de nilpotencía de A — A,
sobre su,- es exactamente ) que este polinomio está determinado
en forma única (hasta un factor multiplicativo) como el polinomio
de menor grado que anula a A. Puesto que el polinomio caracterís­
tico de A es el producto de todos los divisores elementales y, en con­
secuencia, un múltiplo del polinomio mínimo, obtenemos la ecua­
ción de Hamilton-Cayley: toda transformación lineal es anulada por
su polinomio característico.

EJERCICIOS '

2. ¿Cuál es el número máximo de transformaciones lineales no similares


por pares, sobre un espacio vectorial tridimensional, cada una de las cuales
TRANSFORMACIONES LINEALES 143

(b) ¿Cuál es el polinomio mínimo de la transformación A sobre (P*defi­


nido por (dar) (t) = *(t + 1)? ^ ^ ^ |UL„.UL1,L fa

22.P(a) SI A y B son'transformaciones lineales, si p es unpolinomio tal


que p(ÁB) = 0, y si q(t) = tp(t), entonces q(BA) = 0.
(b) ¿Qué puede ser inferido de (a) sobre la relación entre los polinomios
mínimos de AB y de BA?
23. Una transformación lineal es invertible si y sólo si el término cons­
tante del polinomio mínimo es diferente de cero.
CAPITULO 3

ORTO GONALI DAD

§59. PRODUCTOS INTERIORES

Pongamos ahora nuestros pies sobre la tierra. Comenzamos en


el Cap. 1 señalando que deseábamos generalizar ciertas propiedades
elementales de ciertos espacios elementales como <R2. Hasta ahora
hemos hecho esto en nuestro estudio, pero hemos dejado por com­
pleto de considerar un aspecto de (R2. Hemos estudiado el concepto
de linearidad; lo que hemos pasado completamente por alto es el
concepto usual cuantitativo de ángulo y longitud. En el presente
capítulo colmaremos ese vacío, sobrepondremos a los espacios vec­
toriales que han de estudiarse ciertas funciones numéricas, corres­
pondientes a las nociones ordinarias de ángulo y longitud y estudia­
remos la nueva estructura así obtenida (espacio vectorial, más
función numérica dada). Por la mayor profundidad de visión geo­
métrica que ganamos de este modo, debemos sacrificar algo de ge­
neralidad; en todo el resto de este libro tendremos que suponer
que el campo subyacente de escalares es, o el campo 31 de números
reales, o el campo C de números complejos.
Para una sugestión sobre cómo proceder, primero inspecciona­
mos ffl2. Si x = (£„ ¿2) y y = (y,, r¡¡) son dos puntos cualesquiera de
IR2 la fórmula usual para la distancia entre x y y, o la longitud
del segmento que une x y y, es V (íi - V¡)‘ + (i¡ - y»)2- Es conve­
niente introducir la notación
general, no cualquiera de las medidas usuales de ángulos, sino sus
cosenos. (Hablando en términos generales, la razón para esto es
que el ángulo, en la representación usual del círculo de radio uno,
es la longitud de cierto arco circular, mientras que el coseno del án­
gulo es la longitud de un segmento de linea; este último es mucho
más fácil de relacionar con nuestro estudio precedente de las fun­
ciones lineales). Supóngase entonces que a es el ángulo entre el
segmento de 0 a x y el eje positivo f„ y sea p el ángulo entre el seg­
mento de 0 a y y el mismo eje; el ángulo entre los dos vectores x
y y es a - p, de manera que su coseno es
ftli + bm
- P) = eos o cosí + señar sen/S =
II x || - Hy
Considérese la expresión (.yi + í,y2; por medio de la misma po­
demos expresar tanto el ángulo como la longitud, por medio de
fórmulas muy sencillas. Hemos visto ya que si conocemos la distan­
cia entre O y i para toda x , entonces podemos calcular la distancia
entre x y y; afirmamos ahora que si para cada par de vectores x y y
se nos da el valor de i, y, + f,y,, entonces, en términos de este valor,
podemos calcular todas las distancias y todos los ángulos. En reali­
dad. si tomamos x = y, entonces f,y, + f,y, se vuelve {,* + = ||x ||!,
y esto resuelve la cuestión de las longitudes; la fórmula anterior del
coseno nos da el ángulo en términos de {,y, + {,<), y de las dos lon­
gitudes || x || y || y ||. Para tener una notación concisa, escribimos,
para x = ( (,.( ,) y y = (y,, *2),
fiii + (¡vi “ (*. y);
lo que dijimos anteriormente se resume por las relaciones

distancia de 0 a * = || * || =- ’
distancia de x a y = || x — y ||
coseno del ángulo entre x y y ■

Las importantes propiedades de (x, y ), considerado como una fun­


ción numérica del par de vectores x y y, son las siguientes: es si­
métrico en x y y, depende linealmente de cada una de sus dos
variables y (a menos que x = 0) el valor de (x, x ) es siempre es­
trictamente positivo. (El conflicto notacional entre el uso de parén­
tesis en (x, y) y en ({, {,) es sólo aparente. Podría suscitarse sola­
mente en espacios bidimensionales y aun allí se evita fácilmente la
confusión).
Obsérvese por un momento la muy trivial imagen de ai'. Para
* = ( íi) y y = (y.) deberíamos tener, en este caso, ( x , y ) = (,i¡, (y
esto es por la razón de que (x, y ) es conocido como el producto
interior o producto escalar de x y y ). El ángulo entre dos vectores
cualesquiera es 0 o s, de manera que su coseno es + 1 o - 1.
Esto demuestra la mayor sensibilidad de la función dada por (x,
y ), que toma todos los posibles valores numéricos.

§60. PRODUCTOS INTERIORES COMPLEJOS

¿Qué sucede si deseamos considerar ea en vez de ai* ? La gene­


ralización parece quedar a la mano; para x = (f,, {,) y y = (•)„ v¡)
(donde ahora las f y las i¡ pueden ser números complejos) escribi­
mos (x, y ) = f,y, + hvi y esperamos que las expresiones || x || =
(x, x) y || x —y || puedan usarse como medidas sensibles de dis­
tancia. Sin embargo, obsérvese el siguiente extraño fenómeno
(cuando i = V—1 ) :
|| i* I* - (¿x, ix) = »(*, ix) = .■*(*, • ) - - ( * f .
Esto significa que si 11x 11 es positivo, esto es, si x está a una dis­
tancia positiva desde el origen, entonces ix no está; de hecho, la
distancia de 0 a ix es imaginaria. Esto es muy desagradable; segu­
ramente es razonable exigir que cualquier cosa que sea lo que va
a jugarse el papel de (x, y ) en este caso, debería tener la propiedad
de que para x = y nunca se hiciera negativa. Está a mano un reme­
dio formal; podríamos tratar de escribir
(*i y) “ tiíi + {262
(donde la barra denota conjugación compleja. En esta definición la
expresión (x, y ) pierde mucho de su anterior belleza; no es ya simé­
trica en x y y no es más completamente lineal en cada una de sus
variables. Pero, y esto es lo que nos impulsó a dar nuestra nueva de-
fllÜCÍÓn (r, x) - t ,|, + = |f, |a + Ifal*
seguramente nunca es negativa. Es dudoso a priori si una útil y ele­
gante teoría puede construirse sobre la base de una función que no
Uega a poseer tantas de las propiedades que la recomendaron en
primer lugar a nuestra atención: la aparente inelegancia se justifi-
cará en lo que sigue por su buen éxito. Es éste un alegre portento.
Considérese el espacio C1 (esto es, el conjunto de todos los números
complejos). Es imposible trazar una imagen de alguna configuración
en este espacio y a continuación estar en condiciones de distinguir­
lo de una configuración en ®2, pero conceptualmente es claramente
un espacio diferente. El análogo de (x, y ) en este espacio, para x =
(fi) y y = (iji) es dado por (x, y ) = f,y, y esta expresión tiene una
sencilla interpretación geométrica. Si unimos x y y al origen por seg­
mentos de rectas, (x, y ) , no será, de seguro, el coseno del ángulo
entre los dos segmentos; resulta que, para || x || = | | s | | 1. su par­
te real es exactamente ese coseno.
Los conjugados complejos que nos vimos forzados a introducir
aqui vendrán a abrumamos después; por ahora dejamos esta intro­
ducción heurística y volvemos al trabajo formal, después de sólo un
comentario más sobre la notación. La similarídad de los símbolos
( ,) y [,], uno usado aquí para el producto interior y el otro usado
anteriormente para las funciones lineales no es accidental. Demos­
traremos más tarde que es, de hecho, sólo la presencia de la conju­
gación compleja en ( ,) lo que hace necesario usar para la misma un
símbolo diferente de [,]. Por ahora, sin embargo, no nos podemos
dar el lujo de confundir los dos.

§61. ESPACIOS DE PRODUCTOS INTERIORES


Definición. Un producto interior, en un espacio vectorial
(real o complejo) es una función valuada numéricamente (res­
pectivamente, real o compleja), del par ordenado de vectores x
y y, tal que

(1) (*,V) - &T*j,


(2) (a,x, + a n 2, y) = <*i(*i, y) + "j(xi, y),
(3) (x, x) g 0; (*, x) - 0 si y sólo si * = 0.
Un espacio de producto interior es un espacio vectorial con un
producto interior.

Observamos que en el caso de un espacio vectorial real, la conju­


gación en ( 1 ) puede ser pasada por alto. Sin embargo, en cualquier
caso, real o complejo ( 1 ) implica que (x, x ) es siempre real, de ma­
nera que tiene sentido la desigualdad de (3 ). En un espacio de
producto interior usaremos la notacióri
el número || x || se llama la norma o longitud del vector x. Un es­
pacio real de producto interior es algunas veces llamado un espacio
euclidiano¡ su análogo complejo es llamado un espacio unitario.
Como ejemplos de espacios unitarios podemos considerar e" y
0>; en el primer caso escribimos, para x = ({,.........{.) y y = (71.......
7.).
( * , » ) - Zr-iM fc

y, en «>, escribimos

(*.») - J" *(0v(<) di.

Las modificaciones que convierten estos ejemplos en espacios eucli-


dianos (esto es, en espacios reales de productos interiores), son obvias.
En un espacio unitario tenemos
(20 (*, «ii/i + a,y3) - a,(i, v,) + 5a(x, Va).
(Para transformar el primer miembro de (2 ') en el segundo miem­
bro. usamos (1 ), desarrollamos (2) y usamos (1 ) de nuevo. Este
hecho, juntamente con la definición de un producto interior explica
la terminología usada algunas veces para describir las propiedades
(1 ), (2) y (3 ) |y su consecuencia (2')]. De acuerdo con esa termi­
nología (x, y) es una forma simétrica hermitiana ( 1 ), bilineal con­
jugada |(2 ) y (2 ')|, y definida positiva (3). En un espacio euclidia­
no la conjugación en (2') puede ser pasada por alto, juntamente
con la conjugación en ( 1); en el caso (x, y ), se llama una forma
simétrica, bilineal y definida positiva. Observamos que en ambos
casos, las condiciones impuestas a (x, y) implican para | | x | | la
propiedad de homogeneidad
II «X II -1 1
o I - X||.
(Prueba: || ox f - (ox, ax) - «5(x, x).)

§62. ORTOGONALIDAD
La más importante relación entre los vectores de un espacio de
producto interior es la ortogonalidad. Por definición, los vectores x
y y se llaman ortogonales si (x, y ) —0. Observamos que esta reía-
ción es simétrica; puesto que (x, y ) = (y, x ), se sigue que (x, y) y
(y, x ) desaparecen juntamente. Si recordamos la motivación para
la introducción de (x, y ) la terminología se explica por sí misma, dos
vectores son ortogonales (o perpendiculares) si el ángulo que hacen
entre sí es de 90°, esto es, si el coseno de este ángulo es 0. Dos sub-
espacios se llaman ortogonales si cada vector de uno es ortogonal a
cada vector del otro.
Un conjunto a: de vectores es ortonormal si siempre que x y y
estén en ¡r se sigue que (x, y) = 0, o (x, y ) = 1, según que x
y o x = y. (Si a: es finito, digamos, a: = {x,....... x„}, tenemos
(x¡, X;) = Ji;). Llamamos completo a un conjunto ortonormal si no
está contenido en un conjunto ortonormal mayor.
Para dar nuestra última definición en este respecto, observamos
primero que un conjunto ortonormal es linealmente independiente.
En realidad, si {x,........x*) es un cualquier subconjunto finito de
un conjunto ortonormal a:, entonces Xa a¡z¡ = 0 implica que

0 = (£< = E. */) - £ . M,y =


en otras palabras, una combinación lineal de las x puede desaparecer
sólo si desaparecen todos los coeficientes. De aquí concluimos que
en un espacio finito-dimensional de producto interior el número de
vectores de un conjunto ortonormal es siempre finito y, de hecho,
no mayor que la dimensión lineal del espacio. Definimos, en este
caso, la dimensión ortogonal del espacio como el mayor número de
vectores que puede contener un conjunto ortonormal.
Advertencia; por lo que sabemos en esta etapa, los conceptos
de ortogonalidad y de conjunto ortonormales son vacuos. Pueden
usarse ejemplos triviales para demostrar que las cosas no están así
de mal; el vector 0. por ejemplo, es siempre ortogonal a todo vec­
tor y, si el espacio contiene un vector x no cero, entonces el conjunto
que consiste en sólo ~7x •.1es un conjunto ortonormal. Garantizamos
que estos ejemplos no son muy inspiradores. Por ahora, sin em­
bargo, nos contentamos con ellos; pronto veremos que hay siempre
"suficientes" vectores ortogonales para operar cómodamente.
Obsérvese también que no tenemos derecho a suponer que el nú­
mero de elementos de un conjunto completo ortonormal es igual a
la dimensión ortonormal. El punto es éste; si tuviéramos jn con­
junto ortonormal con ese número de elementos, está claro que sería
completo; es concebible, igualmente, que algún otro conjunto con­
tenga menos elementos, pero que también sea completo porque su in­
grata estructura excluya la posibilidad de expandirlo. Estas dificulta-
des.son puramente verbales y se desvanecerán en el momento en que
comencemos a probar cosas; ocurren solamente porque de entre
las diversas posibilidades de la definición de completivldad tuvi­
mos que escoger una definida y tenemos que probar su equivalencia
con las otras.
Necesitamos alguna notación. Si B es cualquier conjunto de
vectores de un espacio de producto interior V, denotamos por 6a
el conjunto de todos los vectores de V que son ortogonales a
todo vector de E. Está claro que EA es un subespacio de T) (sea
o no 6 uno) y que 6 está contenido en 8J"L - (C1)1. Se sigue
que el subespacio sobretendido por 6 está contenido en S11. En
caso de que £ sea un subespacio, llamaremos a 61 el comple­
mento ortogonal de 6. Usamos el signo a fin de recordar la or-
togonalidad (o perpendicularidad). En discusiones informales, SA
puede ser llamado “E perp".

EJERCICIOS

1. Dados cuatro números complejos a, 0, y y J, tratamos de definir

(x, y) - «iiéi + Pfiíi + vtiíi + Jfñi

ortogonales si y sólo si || ax + py ||* = || ta ||> + py II* para todos los pares


de escalares a y p.

Discútase el enunciado correspondiente para espacios complejos.


Ce) Si * y y son vectores, de un espacio de producto interior, entonces
§«3. COMPLETIVIDAD

Teorema 1. Si X - | ■■■,*«) es un conjunto finito orto­


gonal cualquiera en un espacio de producto interior, si x es un
vector cualquiera, y si o, = (x ,x ,) entonces (desigualdad de
Bessel)
£ < l“il a s II* IIa-

El vector x' —x — <r¡x¡ es ortogonal a cada x, y, consecuente­


mente, al subespacio sobretendido por SC.
P rueba. Para la primera aserción:
0 S || x! ||a = (*', x') = (x - E i x - Eí<W)
= (x, x) - E ¡ “ ife, *) - 53/ a¿(x, xy) + E < Yi¡ ».«»•(*(, *í)
- l | x | | a - E « W a - 2 :< l« i|a + E i W a
- II*IIa- E < l “ ¡la;
pera la segunda aserción:
(X-, x¡) - (x, xj) - E< «¡(*6 x¡)~ a , - a , - 0.
T eorema 2. Si X es un conjunto finito ortogonal cual­
quiera en un espacio de producto interior V, las siguientes seis
condiciones impuestas a a son equivalentes entre si.
(1) El conjunto ortonormal X es completo.
(2) Si (x, x ,) = 0, para i = 1................................. n, entonc
(3 ) El espacio sobretendido porX es todo el

(5 ) Si x y y están en u , entonces (identidad


(*, V) - T .i <*, *)(*<, V).
(6) Si x está en V, entonces
ll*lla - E < I M Ia-
Prueba. Estableceremos las implicaciones (1) =» (2) =» (3) =>(4)
=* (5) => (6) =» (1). Así, primero suponemos (1) y probamos (2),
a continuación suponemos ( 2 ) y probamos (3 ), y así, sucesivamen­
te, hasta que finalmente probamos ( 1 ) suponiendo ( 6).
(1) =» (2). Sí (x, x¡) - 0 para toda i y x=¡tO, entonces podemos
adjuntar x /|| x || a X y así obtener un conjunto ortonormal mayor
que X.
(2 ) => (3 ). Si hay una x que no sea una combinación lineal de
las x,, entonces, por la segunda parte del Teorema 1, x" = x —
E < (x, Xí)x, es diferente de 0 y es ortogonal a cada x¡.
( 3 ) => (4 ). Si toda x tiene la forma x = Ei<W> entonces
(*. *<) “ E / “í(*i> *.) - «i-
( 4 ) =» ( 5 ).Si z = Y .i<*¡*.y y = S í Pfli, con a¡ - (x, x¡) y p,
— (y, x¡), entonces

(®i y) _ (S < “ í*¡. E>fc*y) — */) - E < “&-


(5 )= »(6). Conjunto x = y.
( 6) =» ( 1 ). Si x estuviera contenida en un conjunto ortogonal
más grande, digamos si x„ es ortogonal a cada x¡, entonces
D*»lla -E (l(* o ,* < )la - 0 ,
de manera que x0 —0.

§64. DESIGUALDAD DE SCHWARZ


T eorema. Si x y y son vectores de un espacio de producto
interior, entonces (desigualdad de Schwarz)
l(*, y)l ¿ H*11-11 y II-
Prueba. Si y = 0, ambos miembros desaparecen. Si y =£ 0, en­
tonces el conjunto consistente en el vector y /\ \ y \| es ortonormal y,
consecuentemente, por la desigualdad de Bessel
I (*, y/ll y II) Ia s II* IIa-
La desigualdad de Schwarz tiene importantes consecuencias arit­
méticas, geométricas y analíticas.
(1 ) En cualquier espacio de producto interior definimos la dis­
tancia í(x , y ) entre dos vectores x y y como
¿(*. y) - II * - y II - V (z - - y).
A fin de que 8 merezca ser llamada una distancia, debería tener las
siguientes tres propiedades
0) «(*, y) = *(y, *).
(ü) 8(x, y) § 0; «Ce, y) = 0 si y sólo si x - y,
(Üi) 8(x, y) £ «(*, ¿) + 8(z, y).
(En un espacio vectorial es también grato estar seguro de que la
distancia es invariante bajo las traslaciones:
(¡v) «(*, y) - 8(* + *, y + *)•)
Las propiedades (i), (ii) y (iv) son obviamente poseídas por la 8
particular que definimos; la única cuestión es la validez de la "desi­
gualdad triangular” (iii). Para probar (íii), observamosque
|| x + y f = (x + y, x + y) - || * ||2 + (*, y)+ (y, *)+ IIVII2
- ii * ii2 + (*. v) + 1 * 7 7 ) + n y IIa
- II z IIa + 2 Re (*, y ) + 11y IIa
É ||x ||2 + 2|(x,y)| + | | y ||2
S IIx ||2+ 2||*||-|| y | | + || y IIa
= (II * II + II y ll)a;
reemplazando x por x - z y y por z — y, obtenemos
II x —y | S || x —* | + || z —y I,
y esto es equivalente a (iii). (Usamos Re £ para denotar la parte real
del número completo £; si £ = f + ty con ¡ j , reales, entonces
Re £ = £. La parte imaginaria de f, esto es, el número real y, es de­
notado por Im £).
(2 ) En el espacio euclidiano ffi", la expresión
(x, y)
II * H-ll y ||
da el coseno del ángulo entre x y y. La desigualdad de Schwarz en
este caso simplemente equivale al enunciado de que el coseno de
un ángulo real es g 1.
(3 ) En el espacio unitario e", la desigualdad de Schwarz se vuel­
ve la llamada desigualdad de Cauchy; afirma que para dos secuen­
cias cualesquiera (£.........£„) y (y y.) de números complejos,
tenemos
lS?-ifefcl* s Sr-ilfe^ -E í-.lw l* .
(4 ) En el espacio CP, la desigual de Schwarz se vuelve

IJ [ ‘x(0yW di Ia S J j * ( 0 1 a <«■J j vM I* di.


Es útil observar que las relaciones mencionadas en ( l) -( 4 ) an­
teriormente. son no sólo análogas a la desigualdad general de Schwarz,
sino de hecho consecuencias o casos especiales de la misma.
( 5 ) Mencionamos de paso que hay lugar entre las dos nociones
(espacios generales vectoriales y espacios de productos interiores)
para un concepto intermedio de cierto interés. Este concepto es el
de un espacio normado, un espacio vectorial en que hay una defini­
ción aceptable de longitud, pero no se dice nada de ángulos. Una
norma en un espacio vectorial (real o complejo) es una función va­
luada numéricamente 11x 11 de todos los vectores x, tal que 11x \\
S O , a menos que x = 0, || ax || = | « | . || x ||, y || x + y || £ || x ||
+ | |y 11. Nuestra discusión hasta ahora muestra que un espacio de
producto interior es un espacio vectorial normado; la reciproca no es
en general verdadera. En otras palabras, si todo lo que se nos da
es una norma que satisface las tres condiciones que se acaban de dar.
puede no ser posible encontrar un producto interior para el cual
(x, x ) sea idénticamente igual a || x ||". En términos un tanto va­
gos, aunque quizás sugestivos, podemos decir que la norma de un
espacio de producto interior tiene un carácter esencialmente "cua-
drático" que las normas no poseen por lo general.

§65. CONJUNTOS ORTONORMALES COMPLETOS

T eorema. Si v es un espacio n-dimensional de producto


interior, existen entonces conjuntos completos ortonormales en
V y todo conjunto completo ortonormal de V, contiene exacta­
mente n elementos. La dimensión ortonormal de v es la misma

P rueba. Para gentes que no tienen inconveniente en dedicarse


a la búsqueda de un elemento en un posible conjunto incontable, es
obvia la existencia de conjuntos completos ortonormales. En reali­
dad, ya hemos visto que existen conjuntos ortonormales, de manera
que escogemos uno; si no es completo, lo agrandamos y si el con­
junto ortonormal resultante todavía no es completo, lo agrandamos
de nuevo, y procedemos en esta forma por inducción. Puesto que
un conjunto ortonormal puede contener cuando más n elementos,
a lo sumo en n pasos llegaremos a un conjunto ortonormal completo.
Este conjunto sobretiende todo el espacio [véase el § 63, Teorema 2,
(1 ) =» (3)], y, puesto que es también linealmente independiente, es
una base y contiene en consecuencia precisamente n elementos.
Esto prueba la primera aserción del teorema; la segunda aserción
resulta ahora obvia de las definiciones.
Hay un modo constructivo de evitar esta cruda inducción y pues­
to que arroja aún más luz sobre las nociones implicadas, lo reprodu­
cimos aquí, como una prueba alternativa del teorema.
Sea ac = {*,....... x„} una base cualquiera de V. Construiremos
un conjunto completo ortonormal y = {y, y n} con la propiedad
de que cada y, es una combinación lineal de x ,,. . . , X/. Para comen­
zar la construcción, observamos que x ,^=0 (puesto que X es lineal­
mente independiente) y escribimos y , = jc,/|| x, ||. Supóngase ahora
que y „ .. . . y, han sido determinadas de modo que forman un con­
junto ortonormal y así, que cada y¡ ( j = 1 r ) es una combina­
ción lineal de x„ . . - ,x (. Escribimos

donde los valores de los escalares <>„ . . . . a, están todavía por deter­
minarse. Puesto que
fe Vi) - fer+l - £ < « ¡SK»«i) = fer+1, Vi) - “i
para j = 1,__, r, se sigue que si escogemos a¡ = (xr.„ y ,), entonces
(z, y ,) = 0 para j = 1 r. Puesto que, además z es una combi­
nación lineal de x„, y y, y„ es también una combinación lineal
de x,., y x „ . . ., x,. Finalmente, z es diferente de cero, puesto que
x „ . . . , x „ x„ , son linealmente independientes y el coeficiente de
x,.i en la expresión de z no es cero. Escribimos yr„ = z /|| z ||; clara­
mente {y„ . . . , y„ y,.,) es de nuevo un conjunto ortogonal con todas
las propiedades deseadas y el paso de inducción queda terminado.
Haremos uso del hecho de que no solamente es cada y, una combina­
ción lineal de las x, con Índices entre 1 y j, sino, viceversa, cada x,
es una combinación lineal de las y, con índices entre 1 y j. El método
para convertir una base lineal en un conjunto ortonormal completo
que acabamos de describir, es conocido, como el proceso de ortogo-
nalización de Gram-Schmidt.
Encontraremos conveniente y natural, en espacios de productos
interiores, trabajar exclusivamente con bases que son también con­
juntos ortonormales completos. Llamaremos a esa base una base
ortonormal o un sistema ortonormal de coordenadas; en el futuro,
cada vez que discutamos las bases que no son necesariamente orto-
normales, pondremos este hecho de manifiesto, llamándolas bases
lineales.
§66. TEOKEMA DE LAS PROYECCIONES

Puesto que un subespacio de producto interior puede él mismo


considerarse como espacio de producto interior, puede aplicarse el
teorema de la sección precedente. El siguiente resultado, llamado
el teorema de las proyecciones, es el de más importante aplicación.
Teorema. Si su es un subespacio cualquiera de un espacio
finito dimensional v , de producto interior, entonces V es la
suma directa de m y 3Ttx, y 9Ei l ■= SU.
P rueba. Sea a:= {x,........ x»} un conjunto ortogonal que es
completo en ült, y sea z un vector cualquiera de V. Escribimos
x= donde a¡ = (z, x(); se sigue del §63, Teorema 1, que
y = z - x está en ¡mA, de manera que z es la suma de dos vectores,
z = x + y, con x en ¡Jtt y y en 3Ka. Que 3R y 311a están disjuntos está
claro; si x perteneciera a ambos, entonces tendríamos || x ||* = (x,
x ) = 0. Se sigue del teorema del §18 que v = 911 ® 3TC1.
Observamos que en la descomposición z = x + y, tenemos
(z, x) - (x + y, x) - || x ||s + (y, x) - || x IIa,
y, de modo semejante,
foy) - II« IIa-
De aquí que, si z está en 3RAA, de manera que (z, y ) = 0 , en­
tonces || y II* = 0, de manera que z ( = x ) está en att; en otras pa­
labras, 3ulx está contenida en un. Puesto que ya sabemos que 3ll
está contenida en 3TC1A, la prueba del teorema es completa.
Esta clase de descomposición de suma directa de un espacio de
producto interior (vía un subespacio y su complemento ortogonal),
es de considerable interés geométrico. Estudiaremos un poco después
las proyecciones asociadas; resultan ser una interesante e importante
subclase de la clase de todas las proyecciones. Por el momento sólo
hacemos una observación sobre la conexión con el teorema de Pi-
tágoras; puesto que (z, x ) = || x ||J y (z, y) = || y ||*. tenemos
II * II’ - (*,«) - (*. *) + ( * ,» ) - II * I * + I » IIa-
En otras palabras, el cuadrado de la hipotenusa es igual a la suma
de los cuadrados de los lados. Más generalmente, si 3Ki, 3üt son
subespacios ortogonales por pares, en un espacio de producto inte­
rior V, y si x = x, + . . . + xt con x¡ en Jfy para j = 1 fc, en­
tonces
II* IIa” II* i lla+ - -- + ll* » lla-

§67. FUNCIONALES LINEALES

Estamos ahora en condiciones de estudiar funcionales lineales


sobre espacios de productos. Para un espacio vectorial n-dimensional
el espacio dual es también n-dimensional y es, en consecuencia, iso-
mórfico al espacio original. Sin embargo, no hay un isomorfismo
natural obvio que podamos establecer; tenemos que esperar que el
segundo espacio dual regrese allí de donde partimos. El punto prin­
cipal del teorema que probaremos ahora es que en espacios de pro­
ducto interior hay una correspondencia "natural" entre U y t /;
la única nube en el horizonte es que, en general, no es completamen­
te un isomorfismo.
T eorema. A cualquier funcional lineal y" sobre un espacio
finito dimensional de producto interior V corresponde un vector
y único en V tal que y"(x) = (x, y ) para toda x.
Prueba. Si tf = 0, podemos escoger y = 0; supongamos desde
ahora que y '(x ) no es idénticamente cero. Sea 3tt el subespacio
consistente en todos los vectores x para los cuales y'(x) = 0, y sea
31 - 3H1 el completamente ortogonal de 3tl. El subespacio 31 con­
tiene un vector no cero, y multiplicando por una constante
adecuada, podemos suponer que || y01| = 1. Escribimos y = y'(yQ)
,y„. (La barra denota conjugación compleja, como de costumbre;
en caso de que v sea un espacio real de producto interior y no un
espacio unitario, la barra puede ser omitida). Tenemos entonces la
relación deseada.
(1) ✓M - (x, y)
cuando menos para x = y 0 y para toda x de 3Tt. Para una * arbi­
traria de D, escribimos x 0 — x — \y 0, donde

entonces y"(x0) = 0 y x = x 0 + \y , es una combinación lineal de


dos vectores, para cada uno de los cuales ( 1 ) es válida. De la linea-
ridad de ambos miembros de ( 1 ) se sigue que ( 1 ) es válida para
x , como se tenía que probar.
Para probar la univocidad, supóngase que (x, y ,) = (x, y ,) para
toda x. Se sigue que (x, y, - y,) = 0 para toda x y, en consecuen­
cia, en particular para x = y , - y,, de manera que || y, - y , ||* = 0
y V. = Vi-
La correspondencia i f i* y es una correspondencia uno a uno en­
tre o y V , con la propiedad de que y', + y", corresponde y, + y„ y
a ay' corresponde ay; por esta razón nos referimos a ella como un
isomorfismo conjugado. A pesar del hecho de que este isomorñsmo
conjugado hace a t>' prácticamente indistinguible de V, es prudente
conservar a ambos conceptualmente separados. Una razón para esto
es que quisiéramos que V fuera un espacio de producto interior
juntamente con \>; si, en cambio, seguimos la pista dada por el iso­
morfismo conjugado entre V y V', la conjugación causa de nuevo
dificultades. Sean y y y’, dos elementos cualesquiera de V ; si y'i(x )
= (*> Vi) y V'i(-C) —(x, Vi), es grande la tentación de escribir
(¡fu v'a) = (v., Va)-
Un momento de reflexión mostrará que esta expresión puede no sa­
tisfacer el §61, ( 2 ) y no es consecuencia un adecuado producto in­
terior. La dificultad se origina solamente en espacios complejos (esto
es, unitarios); tenemos, por ejemplo,
(<*v'i, y'a) = (av., va) = a(vi. va) = « V i, v'a)-
El remedio es claro-, escribimos
(2) (¡A, v'a) - (V., Va) - (Va, V.)l
dejamos al lector la comprobación de que con esta definición V se
convierte en todos los casos en un espacio de producto interior. De­
notaremos este espacio de producto interior con V*.
Hacemos la observación de que nuestras dificultades (si así pue­
den llamarse) con la conjugación compleja han sido ahora más
notacionales que conceptuales; sigue siendo verdadero que la única
diferencia entre la teoría de los espacios euclidianos y la teoría de
los espacios unitarios es que en los últimos aparece ocasionalmente
una barra. Se suscitarán diferencias más profundas entre las dos
teorías cuando pasemos a estudiar las transformaciones lineales.

§68. PARENTESIS CONTRA CORCHETES

Se hace necesario ahora aclarar la relación entre espacios vecto­


riales generales y espacios de productos interiores. El teorema de la
sección precedente muestra que, mientras procedamos con cuidado
con respecto de la conjugación compleja, (x , y ) puede tomar por com­
pleto el lugar de [x, y]. Podría parecer q> «. habría sido deseable des­
arrollar todo el tema de espacios vectoriales generales en forma tal
que el concepto de ortogonalidad en un espacio se vuelva no sola­
mente un análogo, sino un caso especial de alguna relación general
previamente estudiada entre vectores y funcionales. Una form a, por
ejemplo, de evitar el hecho desagradable de la conjugación (o, más
bien, de cambiarla a una posición menos conspicua), habría sido
definir el espacio dual de un espacio vectorial complejo como el con­
junto de funcionales lineales conjugadas, esto es, el conjunto de 'fun­
ciones y numéricamente valuadas, para las cuales
¡/(a,*, + o2x2) - 5,!/(*,) + aai/(*a).
A causa de que parecía sin objeto (y contrario al uso común) intro­
ducir esta complicación en la teoría general, escogimos el camino
indirecto que hemos seguido. Puesto que de ahora en adelante tra­
taremos sólo con espacios de productos interiores, pedimos al lector
que revise mentalmente todo el trabajo anterior, reemplazando, en
todas partes, el corchete [x, y] por el paréntesis (x, y). Examinemos
el efecto de este cambio sobre los teoremas y definiciones de los
primeros dos capítulos.
El reemplazo de v ' por V * es meramente un cambio de nota­
ción; el nuevo símbolo se supone que nos recuerda que algo nuevo
( a saber, un producto interior) h a sido añadido a v '. De un poco
más interés es el isomorfismo (conjugado) entre V y T)*; por
medio de él, los teoremas del §15, que afirman la existencia de
funcionales lineales con varías propiedades, pueden ser ahora inter­
pretados como afirmando la existencia de ciertos vectores en ti
mismo. Así, por ejemplo, la existencia de una base dual a cualquier
base dada SC= ( x „ . . . , x.) implica ahora la existencia de una base
“i* = {»■.• ••,</.} (de u ), con la propiedad de que (x¡, y ,) =
Más excitante aún es el reemplazo implicado del aniquidador sn°
de un subespacio 3H (3Tt° queda en V o U *) por el complemento
ortogonal arz-*- (que queda, juntamente con OH, en V). El nuevo
desarrollo más radical, sin embargo, se refiere al adjunto de una
transformación lineal. Así, podemos escribir el análogo del § 44 (1)
y correspondiendo a cada transformación lineal A sobre V pode­
mos definir una transformación lineal A* escribiendo
(Ax, y) - (z, A*y)
para cada x. Se sigue de esta definición que A* es de nuevo una
transformación lineal definida sobre el mismo espacio vectorial v ,
pero, a causa de la simetría hermitiana de (x, y ), la relación entre
A y A* no es completamente la misma que la relación entre A y A'.
La diferencia más notable es que (en un espacio unitario) (oA)*
= oA* (y no (oA)* = aA*). Asociado con este fenómeno está el he­
cho de que si la matriz de A, con respecto de alguna base fija, es
(<«() entonces la matriz de A*, con respecto de la base dual, no
es (ají), sino (a»). Para determinantes, no tenemos det A* = det A,
sino det A* = det A, y, consecuentemente, los valores propios de A’
no son los mismos que los de A, sino más bien sus conjugados. Aquí,
sin embargo, se detiene la diferencia. Todos los demás resultados del
§44 sobre la naturaleza antisomórfica de la correspondencia A**A‘
son válidos; la identidad A = A** es estrictamente verdadera y no
necesita la ayuda de un isomorfismo para interpretarla.
De inmediato discutiremos transformaciones lineales sobre espa­
cios de productos interiores y veremos que la principal característica
nueva que diferencia su estudio de la discusión del Cap. II es la
posibilidad de comparar A y A’ como transformaciones lineales so­
bre el mismo espacio y de investigar las clases de transformaciones
lineales que tienen una relación particularmente sencilla con sus

§69. ISOMORFISMOS NATURALES

Hay ahora sólo una duda posible más que el lector podría (o, en
todo caso, debería) tener. Muchos de nuestros resultados preceden­
tes fueron consecuencia de relaciones d e reflexividad como A** =
A; ¿permanecen éstas válidas después de la revolución de corchetes a
paréntesis? Más al grano es el siguiente modo de presentar la cues­
tión. Todo lo que decimos de un espacio unitario TJ debe ser también
verdad de un espacio unitario v *; en particular está también en
una relación isomórfica conjugada natural con su espacio dual
V •*. Si ahora a cada vector de v hacemos corresponder un
vector de **, aplicando primero el isomorfismo conjugado gene­
ral de V a V ’ y a continuación procediendo en la misma forma
de í ' a 1) entonces este mapa es un rival para el titulo de
mapa natural u a i) •*, título ya concedido en el Cap. 1 a una
correspondencia aparentemente diferente. ¿Cuál es la relación entre
las dos correspondencias naturales? Nuestros enunciados sobre
las coincidencias, excepto en cuanto a modificaciones triviales, de las
teorías de los paréntesis y los corchetes, se justifican realmente por
el hecho, que probaremos ahora, de que dos mapas son iguales. (No
debe sorprender puesto que a = ■>. que después de dos aplicaciones
desaparezca la molesta conjugación). La prueba es más corta que
la introducción a la misma.
Sea y„ cualquier elemento de V ; al mismo corresponde la funcio­
nal lineal y0" de V ", definida por ya’ ( x ) = (x, y0) y a y0’ , a su vez
corresponde la funcional lineal y„"" de V**, definida por y0" ( y ’ )
- (»*■ !/o* )• Ambas correspondencias se dan por el mapa introduci­
do en este capítulo. Anteriormente (véase §16), el correspondiente
y0" en 1) " de en 1) fue definido como y„**(y*) = y*(y«)
para toda y* e n l ) ‘ ¡ debemos demostrar que y„**, como lo hemos
definido aquí, satisface esta identidad. Sea y" cualquier funcional
lineal sobre t) (esto es, cualquier elemento de V * ); tenemos
Vo"(y') - <y’, vo*) - (yo, y) - v*(yo).
(la igualdad de en medio viene de la definición de producto interior
en v •) . Esto resuelve todos nuestros problemas.

EJERCICIOS
§70. TRANSFORMACIONES AUTO-ADJUNTAS

Estudiemos ahora la estructura algebraica de la clase de todas


las transformaciones lineales sobre un espacio de producto interior.
En muchos respectos fundamentales esta clase se parece a la
clase de todos los números complejos. En ambos sistemas las no­
ciones de adición, multiplicación, 0 y 1 se definen y tienen propie­
dades similares y en ambos sistemas hay un involuntario anti-auto-
morfismos del sistema sobre sí mismo (a saber A-* A* y { -> f)
Usaremos esta analogía como principio heurístico e intentaremos lle­
var a transformaciones lineales algunos bien conocidos conceptos
del dominio complejo. Estaremos estorbados en este trabajo por dos
dificultades en la teoría de las transformaciones lineales, de las cua­
les, lo que es posiblemente sorprendente, la segunda es mucho m is
seria; son la imposibilidad de división irrestricta y la no conmutati-
vidad de transformaciones lineales generales.
Los tres más importantes subconjuntos del plano de números
complejos son el conjunto de los números reales, el conjunto de los
números reales positivos y el conjunto de números de valor absoluto
uno. Procederemos ahora sistemáticamente a usar nuestra analogía
heurística de transformaciones con números complejos y a tratar de
descubrir los análogos entre transformaciones de estos bien conoci­
dos conceptos numéricos.
¿Cuándo es real un número complejo? Claramente, una condi­
ción necesaria y suficiente para la realidad de £ es la validez de la
ecuación £ = ?. Podríamos en consecuencia (recordando que el aná­
logo del conjugado complejo para transformaciones lineales es el
adjunto), definir una transformación lineal A como real si A - A*.
Más comúnmente, las transformaciones lineales A, para las cuales
A = A* son llamadas auto-adjuntas; en espacios reales de productos
interiores la palabra usual es simétrico y en espacios complejos de
productos interiores, hermitiano. Veremos que las transformaciones
auto-adjuntas juegan en realidad el mismo papel que los números

Es completamente fácil caracterizar la matriz de una transfor­


mación auto-adjunta con respecto de una base ortonormal K =
Si la matriz de A es (««) entonces sabemos que la
matriz de A* con respecto de la base dual de SC es (a i)'), donde
ai,* = a„ puesto que una base ortonormal es autodual y puesto que
A = A*, tenemos
Dejamos al lector la verificación de la recíproca; si definimos una
transformación lineal A por medio de una matriz (•><;) y un sistema
arbitrario de coordenadas ortonormales X = { x „ ...,x .} vía las
ecuaciones usuales

¿ ( H i la ) - £ . W ,
11 “

y si la matriz (aif) es tal que = aj„ entonces A es auto-adjunta.


Las reglas algebraicas para la manipulación de transformaciones
auto-adjuntas son fáciles de recordar si pensamos en esas transfor­
maciones como análogos de números reales. Asi, si A y B son auto-
adjuntas, también lo son A + B; si A es auto-adjunta y diferentes de
0, y si a es un escalar no cero, entonces una condición necesaria y
suficiente para que oA sea auto-adjunta es que a sea real; y si A es
invertible, entonces ambas o ninguna de A y A-1 son auto-adjuntas.
El lugar donde hay siempre algo mal es en la multiplicación; el pro­
ducto de dos transformaciones auto-adjuntas no necesita ser auto-
adjunto. Los hechos positivos sobre productos son dados por los
siguientes dos teoremas.
T eorema 1. Si A y B son auto-adjuntos, entonces una con­
dición necesaria y suficiente para que AB (o BAj sean auto-ad­
juntos es que AB = BA (esto es, que A y B conmuten).
Prueba. Si AB = BA, entonces (AB)* = B*A* = BA = AB. Si
(AB)* = AB, entonces AB = (AB)* = B*A* = BA.
T eorema 2. Si A es auto-adjunto entonces B'AB es auto-
adjunto para toda B; si B es invertible y B'AB es auto-adjunto,
entonces A es auto-adjunto.
Prueba. Si A = A*, entonces (B'AB)* = B 'A 'B " = B'AB.
Si B es invertible y B'AB = ( B 'A B )' = B 'A 'B , entonces (multipli­
qúese por B '-' sobre la izquierda y B-‘ sobre la derecha) A = A*.
Un número complejo £ es puramente imaginario si y sólo si { =
—{. El concepto correspondiente para la transformación lineal se
identifica por la palabra oblicuo, si una transformación lineal A so­
bre un producto interior es tal que A*‘= —A, entonces A se llama
simétrico oblicuo o hermitiano oblicuo según el espacio sea real o
complejo. Aquí hay alguna evidencia de la naturaleza total de nues­
tra analogía entre números complejos y transformaciones lineales:
una transformación lineal arbitraria puede ser expresada, de un mo­
do y sólo de uno. en la forma A = B + C, donde B es un auto-ad­
junto y C es oblicuo. (La representación de A en esta forma es,
algunas veces, llamada la descomposición cartesiana de A.) En rea­
lidad, si escribimos

(1)

entonces tenemos B- = — 5 — = B y C- = — 5— = - C y,

por supuesto, A = B + C. De esta prueba de la existencia de la des­


composición cartesiana, es clara su univocidad; si tenemos A = B +
C, entonces A’ = B —C y, consecuentemente, A, B y C están de
nuevo conectadas por ( 1 ) y (2 ).
En el caso complejo hay una forma simple de obtener transfor­
maciones hermitianas oblicuas de hermitianas, y viceversa: multi­
pliqúese stío por i( = V - 1 )- Se sigue que, en el caso complejo, to­
da transformación lineal A tiene una representación única en la for­
ma A = B + iC, donde B y C son hermitianas. Nos referiremos a B
y C como las partes real e imaginaria de A.

EJERCICIOS
Dé un ejemplo de dos transformaciones auto-adjuntas cuyo producto no
2. Considérese el espacio (P-. con el producto interior dado por (x, y) =
p x(tM Í) dt.
(a) ¿Es auto-adjunto el operador de multiplicación T (definido por (Tx)
(O = tx(t)?
(b) ¿Es auto-adjunto el operador de diferenciación D?
3. (a) Pruébese que la ecuación (x, y) - £*_„* (j¡) V (~) define un pro­
ducto interior en el espacio (P„.
(b) ¿Es el operador de multiplicación T [definido por (Tx)(f) = íx(t)l
(c) ¿Es auto-adjunto el operador de diferenciación D?
I que3l(A) C 31(0) en

n simétrico oblicua

§71. POLARIZACION

Antes de continuar con el programa de estudiar las analogias en­


tre números complejos y transformaciones lineales, nos damos tiem­
po para escoger algunos importantes resultados auxiliares sobre espa­
cios de productos interiores.
T eorema 1. Una condición necesaria y suficiente para que
a espacio de producto inte-

P rueba. La necesidad de la condición es obvia; la suficiencia


se sigue de hacer y igual a Ax.
T eorema 2. Una condición necesaria y suficiente para que
una transformación lineal auto-adjunta A sobre un espacio de
producto interior A sea 0 es que (Ax, x ) = 0 para toda x.
Prueba. La necesidad es obvia. La prueba de suficiencia co­
mienza por verificar la identidad
(1) (Ax, y) + (Ay, x) = (A(x + y), (x + y)) - (Ax, x) - (Ay, y).
(Desarróllese el primer término del segundo miembro). Puesto que
A es auto-adjunto, el primer miembro de la ecuación es igual a 2
Re (Ax, y ). La condición supuesta implica que desaparece el segun­
do miembro y de aquí que Re (Ax, y ) = 0. En este punto es nece­
sario dividir la prueba en dos casos. Si el espacio de producto inte­
rior es real (esto es, A es simétrica), entdhces (Ax, y ) es real y, en
consecuencia, (Ax, y ) = 0. Si el espacio de producto interior es com­
piejo (esto es, A es hermitiana), entonces encontramos un número
complejo 0 tal que | 8 | = 1 y 0(Ax, y ) = | ( Ax, «f)|. (Aquf x y y son
temporalmente fijos). El resultado que ya tenemos, aplicado a Sx
en lugar de x, da 0 = Re (A(flx), y ) = Re (0(A x, y ) = Re | {Ax, y )
| = | {Ax, t/)|. En todo caso, en consecuencia, (Ax, y ) = 0 para toda
x y y, y el resultado deseado se sigue del Teorema 1.
Es útil preguntar qué tan importante es la auto-adjunción de A
en el Teorema 2; la respuesta es que en el caso complejo no es im­
portante en lo más mínimo.
T eorema 3. Una condición necesaria y suficiente para una
transformación lineal A sobre un espacio unitario sea 0, es que
(A x, x ) = 0 para toda x.
Prueba. Como antes, la necesidad es obvia. Para la prueba de
suficiencia, usamos la llamada identidad de polarización:
(2) aB(Ax,y) + se(dy,x)
= (A(az + Py), (ax + Pv)) - \a \\A x, x) - |A|*(Ay, y).
(Justamente como para ( 1 ), la prueba consiste en desarrollar el pri­
mer término del segundo miembro). Si (Ax, x ) es idéntico a cero,
entonces obtenemos, escogiendo primero a = p = 1, y a continua­
ción « = i ( = vTHT). 0 = 1.
(Ax, y) + (Ay, x) - 0
i(Ax, y) —i(Ay, x) —0.
Dividiendo la segunda de estas ecuaciones por i y formando a con­
tinuación su medio aritmético, vemos que (Ax, y ) = 0 para toda x
y y, de manera que, por el Teorema 1, A = 0.
Este proceso de polarización es a menudo usado para obtener
información sobre la "forma bilinear (A x, y ) cuando solamente se
supone el conocimiento de la "forma cuadrática’ (Ax, x ).
Es importante observar que, a pesar de esta aparente inocencia,
el Teorema 3 hace un uso muy esencial del sistema de números
complejos, éste y muchas de sus consecuencias dejan de ser verda­
deras para espacios reales de productos interiores. La prueba, por
supuesto, falla en nuestra selección de o = V - 1 - Como ejemplo
considérese una rotación de 90° en el plano; claramente tiene la pro­
piedad de que convierte a cada vector x en un vector ortogonal a x.
Hemos visto que las transformaciones hermitianas juegan el
mismo papel que los números reales; el siguiente teorema indica que
están ligadas con el concepto de realidad en formas más profundas
que a través de la analogía formal que sugirió su definición.
Teorema 4. Una condición necesaria y suficiente para que
una transformación lineal A sobre un espacio unitario sea her-
mitiana es que (Ax, x ) sea real para todas las x.
Prueba. Si A = A ’ , entonces
(Ax, x) - (x, A 'x) - (x, Ax) - (Ax, x),
de manera que (Ax, x) es igual a su propio conjugado y, en conse­
cuencia, real. Si, recíprocamente, (Ax, x ) es siempre real, entonces
(Ax, x) - (Ax, x) - (x, A 'x ) - (A'x, x),
de manera que (|A —A*]x, x ) = 0, para toda x y, por el Teorema
3, A = A*.
El Teorema 4 es falso para productos reales de espacios interio­
res. Es o era de esperarse, porque, en primer lugar, su prueba depen­
de de un teorema que es verdadero solamente para espacios unitarios
y, en segundo lugar, en un espacio real la realidad de (Ax, x ) es
automática, mientras que la identidad (Ax, y ) = (x. A y) no se sa­
tisface necesariamente.

§72. TRANSFORMACIONES POSITIVAS

¿Cuándo es un número complejo £ positivo (esto es, 2 0)? Dos


condiciones igualmente necesarias y suficientes son que £ pueda ser
escrito en la forma £ = con algún { real, o que £ pueda ser escrito
en la forma ( = mr con alguna ® (en general compleja). Recordando
también el hecho de que (cuando menos para espacios unitarios) el
carácter hermitiano de una transformación A puede ser descrito en
términos de productos interiores (Ax, x ) podemos considerar cual­
quiera de las tres condiciones siguientes e intentar usarla como defi­
nición de positividad para transformaciones
(1) A = B‘ para alguna B auto-adjunta,
(2 ) A = C*C para alguna' C,
(3 ) A es auto-adjunta y (Ax, 0 para toda x.
Antes de decidir cuál de estas tres condiciones usar como definición,
observamos que (1) => (2) =» 0). En realidad: Si A = B!, y B = B*.
entonces A = BB = B 'B y Si A = C'C , entonces A* = C*C = A y
(Ax, x ) = (C*Cx, X ) = Cx, Cx) = || Cx ||* S 0. Es de hecho verda­
dero que (3 ) implica a ( 1 ), de manera que las tres condiciones son
equivalentes, pero no podremos probar esto sino hasta más tarde.
Adoptamos como nuestra definición la tercera condición.
Definición. Una transformación lineal A sobre un espacio
de producto interior es positiva, en símbolos A 2 0, si es auto-
adjunta y si (Ax, x ) 2 0 para toda x.
Más generalmente, escribiremos A a B(o 8 S A ) siempre que A -
B 2 0. Aunque, por supuesto, es completamente posible que la di­
ferencia de dos transformaciones que no son auto-adjuntas pares
resulte positiva, generalmente escribiremos desigualdades solamente
para transformaciones autoadjuntas. Obsérvese que para un espacio
complejo de producto interior, una parte de la definición de positi­
vidad es superflua; si (Ax, x) 2 0 para toda x, entonces, en parti­
cular, (Ax, x) es real para toda x, y por el Teorema 4 de la sección
precedente, A debe ser positiva.
Las transformaciones positivas son generalmente llamadas semi-
definidas no negativas. Si A 2 0 y (Ax, x ) = 0 implica que X = 0,
diremos que A es estrictamente positiva; el término usual es definida
positiva. Puesto que la desigualdad de Schwarz implica que
| (Ax, x) | S || Ax || •|| 1 1|,
vemos que si A es una transformación estrictamente positiva y si
Ax = 0, entonces x = 0, de manera que, sobre un espacio finito-di-
mensional de producto interior, una transformación estrictamente
positiva es invertible. Veremos posteriormente que la reciproca es
verdadera. Si A S 0 y A es invertible, entonces A es estrictamente
positiva. Es algunas veces conveniente indicar el hecho de que una
transformación A es estrictamente positiva escribiendo A > 0, si A
- B > 0, podemos también escribir A > B (o B < A).
Es posible dar una caracterización matricial de las transforma­
ciones positivas; pospondremos esta discusión para después. Mien­
tras tanto tendremos ocasión de referimos a matrices positivas, sig­
nificando con eso matrices simétricas hermitianas (o,,) (esto es,
ai, = a„ ) con la propiedad de que para cada secuencia ((,........ {„)
de n escalares tenemos 22/ <•,,{j , & 0. (En el caso real pueden
omitirse las barras; en el caso complejo, la simetría hermitiana se
sigue de la otra condición). Estas condiciones son claramente equi­
valentes a la condición de que (a„) es la matriz, con respecto de
172

algún sistema de coordenadas ortonormales, de una transformación

Las reglas algebraicas para combinar transformaciones positivas


son similares a las de las transformaciones auto-adjuntas, por lo que
concierne a sumas, múltiples escalares e inversos; aun el §70, Teo­
rema 2, sigue siendo válido si reemplazamos totalmente "auto-ad­
junto" por "positivo". Es también verdad que si A y B son positivos,
es que AB = BA (esto es, que A y B conmuten), pero tendremos que
posponer algún tiempo la prueba de este enunciado.

EJERCICIOS

a un producto interior?
TSüH las siguientes matrices son positiv

™C ',)■
<»(-! ;)• w( í í í
>l °;>
<•

(i: i)
§73. ISOMETRIAS

Continuamos con nuestro programa de investigar la analogía en­


tre números y transformaciones. ¿Cuándo un número complejo C tie­
ne valor absoluto uno? Claramente una condición necesaria y sufi­
ciente es que C = l/{; guiados por nuestro principio heurístico nos
vemos conducidos a considerar transformaciones lineales U para las
cuales {/• = l/-', o, equivalentemente, para las cuales UU’ = U’ U
= 1. (Observamos que sobre un espacio vectorial finitodimensional
cualquiera de las dos condiciones UU* = 1 y U'U = 1 implica la otra;
véase el § 36, Teoremas 1 y 2.) Esas transformaciones se llaman
ortogonales o unitarias, según el espacio subyacente de producto in­
terior sea real o complejo. Procedemos a deducir un par de útiles
caracterizaciones alternativas de los mismos.
T eorema. Las siguientes tres condiciones impuestas a una
transformación lineal U sobre un espacio de producto interior,
son equivalentes entre si
(1) U’ U - 1,
(2) (Ux, Uy) - (z, y) para toda z y v.
(3) || Ux || - | | z I| para toda z.
Prueba. Si (1) es válido, entonces
(Ux, Uy) - (U’Ux, y) - (z, y)
para toda x y y y . e n particular
|| tr* !■ - 1 * 1 »
para toda x; esto piueba ambas implicaciones ( 1) =» (2) y ( 2) =>
(3). La prueba puede completarse demostrando que (3) implica a
(1). Si (3) es válido, esto es, si (U ’Ux, x ) = (x, x ) para toda x,
entonces el § 71, Teorema 2, es aplicable a la transformación (auto-
adjunta) U’ U — 1; la conclusión es que U’ U = 1 (como se desea).
Puesto que (3) implica
(4) lltfz —U y | | - | | z —Vil
para toda x y y (la implicación recíproca (4 ) => (3 ) es también
verdadera y trivial), vemos que las transformaciones del tipo que
trata el teorema se caracterizan por el hecho de que preservan dis­
tancia. Por esta razón llamaremos a esa transformación una isome-
tria. Puesto que, como ya hemos observado, una isometría sobre un
espacio finito dimensional es necesariamente ortogonal o unitaria
(según el espacio sea real o complejo), el uso de la terminología nos
facultará para tratar simultáneamente los casos real y complejo. Ob­
servamos que (sobre un espacio finito-dimensional) una isometría
es siempre invertible y que U-'( = U’ ) es una isometría, juntamente
con U.
En cualquier sistema algebraico, y en particular en espacios vec­
toriales generales y espacios de productos interiores, es de interés
considerar los automorfismos del sistema, esto es, considerar esos
mapas uno a uno del sistema sobre si mismo que preservan todas las
relaciones estructurales entre sus elementos* Ya hemos visto que los
automorfismos de un espacio vectorial son las transformaciones li­
neales invertibles. En un espacio de producto interior requerimos más
de un isomorfismo, a saber, que también preserve los productos inte­
riores (y, consecuentemente, longitudes y distancias). El teorema
precedente demuestra que este requerimiento es equivalente a la con­
dición de que la transformación sea una isometría. (Estamos supo­
niendo aqui la finitodimensionalidad; sobre espacios finitCMiimen-
sionales, el alcance de una isometria no necesita ser todo el espacio.
Este sacrificio sin importancia de la generalidad es en obsequio de
la comodidad terminológica; para espacios finiUMlimensionales no
hay palabras de uso común que describan simultáneamente las trans­
formaciones ortogonales y unitarias). Asi, las dos preguntas, "¿qué
transformaciones lineales son los análogos de números complejos de
valor absoluto uno?” y "Cuáles son los automorfismos más gene­
rales de un espacio finitodimensional de producto interior?" tienen
la misma respuesta: isometrías. En la siguiente sección demostrare­
mos que las isometrías suministran también la respuesta a una ter­
cera importante cuestión.

§74. CAMBIO DE BASES ORTONORMALES


Hemos visto que la teoría del pase de una base lineal de un es­
pacio vectorial a otro se estudia mejor por medio de una transforma­
ción lineal asociada A (§ §46, 47); se suscita la cuestión de qué
propiedades especiales tiene A cuando pasamos de una base ortonor-
mal de un espacio de producto interior a otro. La respuesta es fácil.
Teorema 1. Si SC = (x„. es una base ortonormal
de un espacio n-dimensional V, de producto interior, y si U es
una isometria sobre 7), entonces UiC = {Ux„ . . . , Ux.) es tam­
bién una base ortonormal de U Recíprocamente, si U es una
transformación lineal y SC es una base ortonormal con la pro­
piedad de que U x es también una base ortonormal, entonces
U es una isometría.
Prueba. Puesto que ( Ux¡, Ux¡) = x¡, x ,) = J„, se sigue que
UX es un conjunto ortonorm.U juntamente con SC; es completo si
X lo es, puesto que (x, Ux¡) = 0 para i = 1 n implica que
(U*x, X|) = 0 y de aquí que U 'x = x = 0. Si, reciprócamente Ux
es un conjunto completo ortonormal juntamente con x, entonces te­
nemos (Ux, Uy) = (x, y) cada vez que x y y están en SC, y está cla­
ro que por linearidad obtenemos (Ux, Uy) = (x, y) para toda x y y.
Observamos que la matriz (u,,) de una transformación isomé-
trica. con respecto de una base arbitraria ortonormal, satisface las
condiciones
176

y que, recíprocamente, cualquier matriz como esa, juntamente con


una base ortonormal, define una isometria. (Prueba: U’ U = 1. En
el caso real las barras pueden ser omitidas). Por razones de brevedad
diremos que una matriz que satisface estas condiciones es una ma­
triz isométrica.
Una consecuencia interesante y fácil de nuestras consideracio­
nes concernientes a isometrias es el siguiente corolario del § 56,
Teorema 1.
Teorema 2. Si A es una transformación lineal sobre un es­
pacio complejo n-dimensional de producto interior V, existe en­
tonces una base ortonormal X en V tal que la matriz [A; scj ]
es triangular, o equivalentemente, si (A) es una matriz, entonces
existe una matriz isométrica [U] tai que [U]'[A][U] es triangular.
Prueba. En el § 56, en la deducción del Teorema 2 del Teore­
ma 1, construimos una base (lineal) a: = { x ,,.. .,x»} con la pro­
piedad de que x , x¡ queda en 3líj y sobrentiende a 3It,- para
j = 1, . . . . n y demostramos que con respecto de esta base la matriz
de A es triangular. Si supiéramos que esta base es también una base
ortonormal, podriamos aplicar el Teorema 1 de la presente sección,
para obtener el resultado deseado. Si SC no es una base ortonormal,
es fácil convertirla en una; esto es precisamente lo que puede hacer
el proceso de ortogonalización de Gram-Schmidt (§65). Aquí usamos
una propiedad especial del proceso de Gram-Schmidt, a saber, que
el elemento j-ésimo de la base ortonormal que construye es una com­
binación lineal de x „ .. . , x , y queda, en consecuencia, en 3%.

EJERCICIOS

1. Si (A*)(t) = * ( - t ) sobre <? (con el producto interior dado por


(*,¥) = J 'x ( t ) W ) <
“ ) es la transformación lineal de A Isométrica. ¿Es
auto-adjunto?

múltiplo de (1. 1. 1). *** *


notaciones diagonales de lUPUAlíü] ,on cero. 56?EJ* 6*)*

§75. PROYECCIONES PERPENDICULARES

Estamos ahora en condiciones de cumplir nuestra promesa an­


terior de investigar las proyecciones asociadas con las descomposicio­
nes particulares de suma directa U -3TC © 3KX. Llamaremos a esa
proyección una proyección perpendicular. Puesto que SU1 está deter­
minada en forma única por el subespacio 3H, no necesitamos espe­
cificar ambos sumandos directos asociados con una proyección si
ya sabemos que es perpendicular. Llamaremos a la proyección (per­
pendicular) E sobre 9ít a lo largo de ¡Jlf1 simplemente la proyección
sobre 9H y escribiremos E = POT.
T eorem a 1. Una transformación lineal E es una proyec­
ción perpendicular si y sólo si E = E’ = E*. Las proyecciones
perpendiculares son transformaciones lineales positivas y tienen
la propiedad de que 11 Ex 11g 11 x 11 para toda x.
P rueba. Si E es una proyección perpendicular, entonces el
§45. Teorema 1 y el teorema del §20 demuestran (después, por su­
puesto. de las sustituciones naturales como 91tx por 3Tt° y A" por
A'), que E = E*. Recíprocamente, si E = E’ = E*. entonces la idem-
potcncia de E nos garantiza que E es la proyección sobre <R a lo
largo de 91, donde, por supuesto ' 51 fft(E) y 31 = 91(E) son el
alcance y el espacio nulo de E, respectivamente. De aquí que necesi­
temos solamente demostrar que « y 91 son ortogonales. Para este
propósito, sea x un elemento de 81 y y cualquier elemento de 91; el
resultado deseado se sigue de la relación
(*, y) - (Ex, y) - (*, E 'y) - (z, Ey) - 0.
El carácter positivo de una E que satisface E = E* = E* se sigue de
(Ez, x) - (E*z, x) - (Ez, E 'z) - (Ez, Ez) - || Ex ||* £ 0.
Aplicando este resultado a la proyección perpendicular 1 —E, vemos

II XII» - II Ex II» - (x, x) - (Ex, x) - (|I - Elx, x) £ 0;


esto concluye la prueba del teorema.
Para algunas de las generalizaciones de nuestra teoría es útil sa­
ber que la idempotencia, juntamente con la última propiedad men­
cionada en el Teorema 1 es también característica de las proyeccio­
nes perpendiculares.

y
Teorema 2. Si una transformación lineal E es tai que E
= E* || Ex || s¡ || * || para toda x, entonces E = E*.
Prueba. Vamos a demostrar que el alcance <R y el espacio nu­
lo 31 de E son ortogonales. Si x está en SI1, entonces y = Ex —x
está en 31, puesto que Ey —E’x - Ex = Ex —Ex = 0. De aquí que
Ex = x + y con (x, y ) = 0, de manera
II* B* a De* IIa - ll * II*+ II» IIa s II* I*,
y, en consecuencia, y = 0. Consecuentemente, Ex = x, de manera
que x está en <R; esto prueba que 31x c fft. Recíprocamente, si z
está en <R, de manera que Ez = z, escribimos z = x + y con x en3¡x
y y en 3t. Entonces z - Ez =Ex + Ey = Ex = x. (La razón para esta
igualdad es que x está en SI1 y, en consecuencia, en ít.) De aquí
que z esté en 3lx, de manera que 31 c 311, y, en consecuencia® =3tx.
Necesitaremos también el hecho de que el teorema del § 42 sigue
siendo verdadero si a la palabra "proyección” se le agrega la califi­
cación de "perpendicular”. Esta es una consecuencia inmediata de la
caracterización precedente de proyecciones perpendiculares y del
hecho de que las sumas y diferencias de transformaciones auto-adjun­
tas son auto-adjuntas si y sólo si conmutan. Por nuestros actuales
métodos geométricos es también completamente fácil generalizar la
parte del teorema que trata de sumas desde dos sumandos hasta un
número finito cualquiera. La generalización es enunciada muy con­
venientemente en términos del concepto de ortogonalidad para pro­
yecciones; diremos que dos proyecciones (perpendiculares) E y F
son ortogonales si EF = 0. (La consideración de los adjuntos demues­
tra que esto es equivalente a FE = 0). El siguiente teorema demues­
tra que el lenguaje geométrico está justificado.
Teorema 3. Dos proyecciones perpendiculares E = P » y
F = P31 son ortogonales si y sólo si los subespacios 311 y 31 (es­
to es, los alcances o árbitos de E y F) son ortogonales.
P rueba. Si EF = 0, y si x y y están en los alcances (ámbitos)
de E y F respectivamente, entonces
(*, V) - (Ez, Fy) - (z, E-Fy) - (z, EFy) - 0.
Si, recíprocamente, su y si son ortogonales (de manera que
31 c 3HX), entonces el hecho de que Ex = 0 para x en 3tlx implica
que EFx = O para toda x (puesto que Fx está en 31 y, consecuente­
mente. en 3Ra ).

§76. COMBINACIONES DE PROYECCIONES


PERPENDICULARES

El teorema de la suma para proyecciones perpendiculares es aho­


ra fácil.
Teorema 1. Si E „ ...,E „ son proyecciones (perpendicula­
res), entonces una condición necesaria y suficiente para que E
= Ei + . . . + E. sea una proyección (perpendicular) es que
EiE, = 0, siempre que i ^ j (esto es, que las E, sean ortogona­
les dos a dos).
Prueba. La prueba de la suficiencia de la condición es trivial:
probamos explícitamente su necesidad solamente, de manera que
ahora, suponemos que E es una proyección perpendicular. Si x per­
tenece al alcance de alguna Ef, entonces

|| * ||» £ II Ei ||s - ( & , * ) - < £ , E¡x,x)


- E l (Bfl, x) - £ , II EjX II1 £ II Efe II» - IIa ||»,

de manera que debemps tener igualdad a todo lo largo. Puesto que,


en particular, debemos tener
E r II B¡x ||» - || Eíx ||»,
se sigue que E,x = 0, siempre que i. En otras palabras, toda x
en el alcance de E¡ está en el espacio nulo (y, consecuentemente, es
ortogonal al alcance) de cada E, con ; =f=i; usando el § 75, Teorema
3, obtenemos la conclusión deseada.
Terminamos nuestra discusión de las proyecciones con un breve
estudio de relaciones de orden. Es tentador escribir E g F, para dos
proyecciones perpendiculares E = P y F = P , siempre que
Anteriormente, sin embargo, interpretamos el signo g cuando se usó
en una expresión que implicaba las transformaciones lineales E y
F (como en E £ F), como significado que F - E es una transfor­
mación positiva. Hay también otras razones posibles para considerar
que E es más pequeño que F; podríamos-tener || Ex || g || Fx || para
toda x, o FE = EF = E (véase el § 42, (ii)]. La situación se subsana
por el siguiente teorema, que juega aqui un papel similar al del § 7 5,
Teorema 3, esto es, establece la coincidencia de varios conceptos
aparentemente diferentes, concernientes a proyecciones, algunos de
los cuales se definen algebraicamente, mientras que otros se refieren
a los objetos geométricos subyacentes.
Teorema 2. Para proyecciones perpendiculares E = P3H y
F = P3t las condiciones siguientes son mutuamente equivalentes
0) ESF.
(¡i) || Ex || S || Fx ||para toda x
(ni) 9It C 9L
Ov») FE - E,
Gvb) EF - B.
Prueba. Probaremos las relaciones de implicación (i) => (ii)
=> (iii) =* (iva =» (ivb) =» (1).
(i) =» (ii). Si E g F, entonces, para toda x,
0 S ( [ f - E\x, z) - (Fx, x) - (Ex, X) - || Fx ||a - || Ex ||*
(puesto que E y F son proyecciones perpendiculares).
(ii) =» (iii). Suponemos que || Ex || g || Fx || para toda x. To­
memos añora cualquier x de 3!t; entonces tenemos
11*11 a II f* n & II Ex II -11*11,
de manera que || Fx || x || o (x, x ) - (Fx, x ) = 0, de donde
([X - F]x, x) - || (1 —P)x I* *■0,
y, consecuentemente x = Fx. En otras palabras, x en 311 implica que
x está en 01 , pero había de probarse.
(iii) => (iva). Sism e 91, entonces Ex está en ot para toda x,
de manera que FEx = Ex para toda x, como habla de probarse.
Que (iva) implica a (ivb) y que es de hecho equivalente al
mismo, se sigue tomando adjuntos.
(iv) => (i). Si EF = FE = E, entonces, para toda x.

(Fx, z) - (Ex, x) - (Fx, x) - (FEx, *) - (F[l - E]x, x).

Puesto que E y F son proyecciones conmutativas, también lo son


(X - E ) y F, y consecuentemente, G = F(1 - E) es una proyección.
De aqui que

(Fx, x) - (Ex, x) = (Ox, x) - || Ó i f £ 0.


Esto completa la prueba del Teorema 2.
En términos de los conceptos introducidos hasta ahora, es posi­
ble dar una formulación que suena completamente intuitiva del teo­
rema del § 42 (en cuanto se aplica a las proyecciones perpendicula­
res), como sigue. Para dos proyecciones perpendiculares E y F su
suma, producto o diferencia, es también una proyección perpendi­
cular si y sólo si F es respectivamente ortogonal a, conmutativo con
o mayor que E.

EJERCICIOS

1. (a) Dé un ejemplo de una proyección que no sea una proyección per­


pendicular.
(b) Dése un ejemplo de dos proyecciones E y F, no pueden ser ambas
perpendiculares) tales que EF = 0 y FE^=0.
2. Encuéntrese la proyección (perpendicular) de (1, 1, 1) sobre el subes­
pacio (unidimensional) de C* sobretendido por (1, —1, 1). (En otras pa-

3. Encuéntrense las matrices de todas las proyecciones perpendiculares

que U sea una isometria lnvolutoria es que E sea una proyección perpendicular,

un subespacio 311 tal que II lfa|| = || x || siempre que x esté en 3It y Ux =

(a) El adjunto de una isometria parcial es una isometria parcial.


(b) Si U es una isometria parcial y si 311 es un subespacio tal que || Ux ||

ción perpendicular sobre 3IÍ .

íal "U . Pruébese que si di


mes lineales B y C sobre i;
. (Sugestión: sea B una is
§77. COMPLEJIFICACION

En las últimas secciones hemos estado tratando simultáneamen­


te espacios vectoriales reales y complejos. Algunas veces esto no es
posible; el sistema de números complejos es más rico que el real. Hay
teoremas que son verdaderos tanto para espacios reales como para
complejos, pero para los cuales la prueba es mucho más fácil en el
caso complejo y hay teoremas que son verdaderos para espacios com­
plejos, pero no para espacios reales. (Un ejemplo de esta última
clase es la aserción de que si el espacio es finito-dimensional, enton­
ces toda transformación lineal tiene un valor propio). Por estas ra­
zones, es frecuentemente cómodo estar en condiciones de "comple-
jificar” un espacio vectorial real, esto es, asociarlo con un espacio
vectorial complejo de las mismas propiedades esenciales. El propósi­
to de esta sección es describir ese proceso de complejificación.
Supóngase que 7) es un espacio vectorial real, y sea 7)+ el con­
junto de todos los pares ordenados <x, y) con * y y en 7) . Defínase
la suma de los dos elementos de 7)+ por
<*t, Vi) + f e , Va) - f e + *2> Vi + Vs>,
y defínase el producto de un elemento de t j + por un número com­
plejo o +ip ( « j f real, t = V _ I ) P°r
(o + 0)(x, y) = (ax - fiy, 0z + ay).
(Para recordar estas fórmulas, preténdase que (x, y) significan
x + iy). Un cálculo directo y sólo ligeramente laborioso muestra que
el conjunto 7)+ se convierte en un espacio vectorial complejo con
respecto de estas definiciones de las operaciones lineales.
El conjunto de los elementos (x, y) de 71+ para los cuales y = 0
está en una correspondencia natural uno a uno con el espacio 7).
Siendo un espacio vectorial complejo, el espacio 75 puede ser tam­
bién considerado como un espacio vectorial real, si identificamos
cada elemento x de 75+ con su réplica (x, 0) de 75+ (es excesivamen­
te conveniente hacer esto) podemos decir que 75+ (como espacio
vectorial real) incluye a 7) . Puesto que (0, y) = Uy, 0), de manera
que (x, y) = (x, 0> + Uy, 0), nuestra convención de identificación nos
faculta para decir que todo vector de 75+ tiene la forma x + iy, con
x y y en 7). Puesto que 7) e i 71 (donde i 7) denota el conjunto
de todos los elementos (x, y) de 75+ con x = 0 ) son subconjuntos de
7J+ con solamente 0 (esto es, (0, 0)) en común, se sigue que la re­
presentación de un vector de 7)+ en la forma x + iy (con x y y en
75) es única. Hemos así construido un espacio vectorial complejo 75+
184

con la propiedad de que V+ considerado como u n espacio real inclu­


ye a V como un subespacio, y tal que u + es la suma directa de V
y de i V . Aquí iv denota el conjunto de todos los elementos de v +
que tienen la {orma iy para alguna y de V ). Llamaremos a V + la
complejificación de v ■
Si { * ,,.... x.) es un conjunto linealmente independiente en v
(coeficientes reales), entonces es también un conjunto linealmente
independiente en ■u+ (coeficientes complejos). En realidad, si
a , , . . . , a„, p¡ , . ..,/? « son números reales tales que (aj + i0j)x¡= o,
entonces (£)«»*>) + *'(£í &*/) = 0,
y, consecuentemente, por la univocidad de la representación de vec­
tores de <u+ por medio de vectores de -o se sigue que (22/“>*í “
(52i0iz:) — 0; el resultado deseado está) ahora implicado por la
supuesta independencia lineal (real) de { * „ ... x„) en v ■ Si, ade­
más, {x,.........*„} es una base de m (coeficientes reales), entonces
es también una base de u + (coeficientes complejos). En realidad si
x y y están en U entonces existen números reales a„
p . tales que x =^¡a¡x¡ y y = se sigue que x +
•y = S í (“í + y de aquí que { x „ .. . . x .) sobretiende a .
Estos resultados implican que el espacio vectorial complejo V + tiene
la misma dimensión que el espacio vectorial real V .
Hay un modo natural de extender cada transformación lineal A
sobre u a una transformación lineal A• sobre U+ ; escribimos
A+(x + iy) - Ax + i Ay
cada vez que x y y están en v . (La verificación de que A* es en
realidad una transformación lineal sobre v + es rutinaria). Una
extensión sim ilar es válida para funcionales lineales y hasta multi-
lineales. Si, por ejemplo, w es una función bilineal (real) sobre U ,
su extensión a U+ es la funcional bilineal (compleja) definida por
w+(:ci + ty„ z j + iya)
- to(*„ x,) - w(yu y2) + »(»(*,, ya) + to(y,, z2)).
Si, por otra parte, w es alterna, entonces lo mismo es cierto de
to+. En realidad, las partes real e imaginaria de|w *(x + iy, x + iy)
son w (x , x ) - w (y, y ) y ™(x, y ) + w (y, x ) respectivamente; si
w es alterna, entonces w es simétrico oblicua (§ 30, Teorema 1) y,
en consecuencia, w es alterna. La misma prueba establece el resul­
tado correspondiente también para funcionales ft-lineales, para todos
los valores de fc. De esto y de la definición de determinantes se sigue
que det A = det A- para toda transformación lineal A sobre V ■
El método de desarrollar funcionales bilineales es válido también
para funcionales bilineales conjugadas. Si, esto es, V es un espacio
(real) de producto interior, entonces hay un modo natural de intro­
ducir un producto interior (complejo) en 75+; escribimos, por de­
finición,
(*t + ‘Vi, *s + m ) “ (*i, *») + (lli, Vi) - »'((*i, Vi) - (Vi, *»)).
Obsérvese que si x y y son vectores ortogonales de u , entonces
ii x+iy r = 1 1 * n * + i i vf .
La correspondencia de A a A- preserva todas las propiedades al­
gebraicas de las transformaciones. Así, si B = <tA (con a real), en­
tonces B- = «A‘; si C‘ = A* + B", entonces C* = A* + B*; y si C =
AB, entonces C* = A*B*. Si, además 75 es un espacio de producto in­
terior y si B = A*, entonces B* = (A*)*. (Prueba.- evalúese [A*(x,
+ iy,). (xa + iy,)! y [x, + %„ B‘(xa + iy,)].
Si A es una transformación lineal sobre 75 y si A- tiene un vec­
tor propio x + iy, con valor propio a + ifi (donde x y y serán en 75
y a y ¡I son reales), de manera que

Ay = /3* + ay,
entonces el subespacio de 7) sobretendido por x y y es invariante
bajo A. (Puesto que toda transformación lineal sobre un espacio
vectorial complejo tiene un vector propio, concluimos que toda trans­
formación lineal sobre un espacio vectorial real deja invariante un
subespacio de dimensión igual a l o 2 ). Si, en particular, A- resulta
tener un valor real propio (esto es, si 0 = 0, entonces A tiene el
mismo valor propio (puesto que Ax - ax, Ay = ay, y no desaparecen

Ya hemos visto que toda base (real) de 75 tiene al mismo tiempo


una base (compleja) en t)+. Se sigue que la matriz de una transfor­
mación lineal A sobre 75, con respecto de alguna base X de 75,es
la misma que la matriz de A* sobre 75"*", con respecto de la base X
de 73+. Este comentario está en la raíz de toda la teoría de las com-
plejificacíón, el punto de vista ingenuo de la materia es que las ma­
trices reales constituyen un caso especial de matrices complejas

1. ¿Qué sucede si el proceso de compleiificación descrito en el § 77 se


aplica a un espacio vectorial que ya es complejo?
2. Pruébese que existe un isomorfismo único entre la complejíficacíón des*
crlta en el § 77 y la descrita en el§ 25, Ej. 5, con la propiedad de que cada

3. (a) ¿Cuál es la complejlficación dedt1?


(b) Si V es un espacio vectorial real n-dimensional, ¿cuál es la dimen­
sión de su complejificación‘U+lconsiderada como espacio vectorial real?
4. Supóngase que V+ es el espacio complejo de producto interior obtenido
complejifícando un espacio real de producto interior V.
(a) Pruébese que si \)+ es considerado como un espacio vectorial real y
si A(* + is) = x - iy siempre que x y y están en V, entonces A es una
transformación lineal sobre D+.
(b) ¿Es A auto-adjunto? ¿Isométrico? ¿Idempotente? ¿Involuntario?
5. Discútase la relación entre dualidad y complejlficación y, en particular,
la relación entre el adjunto de una transformación lineal sobre un espacio
vectorial real y el adjunto de su complejlficación.
subespacio SE de la complejlficación T)+es invariante bajo A* entonces
3Ei fl D es invariante bajo A.

§78. CARACTERIZACION DE ESPECTROS

Los siguientes resultados apoyan más que cualquier otra cosa has­
ta ahora, la analogía entre los números y transformaciones; asegu­
ran que las propiedades que hacen que definamos las clases espe­
ciales de transformaciones que hemos estado considerando están
reflejadas por su espectro.
Teorema 1. Si A es una transformación autoadjunta de un
espacio de producto interior, entonces el valor propio de A es real,
si A es positivo, o estrictamente positivo, entonces todo valor
propio de A es positivo, o estrictamente positivo, respectivamente.
Prueba. Podemos pasar por alto el hecho de que la primera aser­
ción es trivial en el caso real; la misma prueba sirva para establecer
ambas aserciones tanto en el caso real como en el complejo. En rea­
lidad, si Ax = \x , con x qA0, entonces
(Ax, x) X(x, x)
11*11* " 11*11* “ '
se sigue que si (Ax, x ) es real, (véase el § 71, Teorema 4), entonces
lo es y si (Ax, x ) es positivo (o estrictamente positivo), entonces lo
T eorema 2. Toda raíz de la ecuación característica de una
transformación auto-adjunta sobre un espacio finito-dimensional
de producto interior, es real.

P rueba. En el caso complejo, las ralees de la ecuación carac­


terística son la misma cosa que valores propios, y el resultado se si­
gue del Teorema 1. Si A es una transformación simétrica sobre un es­
pacio Euclidiano, entonces su complejificación A* es Hermitiana y el
resultado se sigue del hecho de que A y A- tienen la misma ecuación
característica.
Observamos que es una consecuencia inmediata del Teorema 2
que una transformación autoadjunta sobre un espacio finito dimen­
sional de producto interior tenga siempre un valor propio.
T eorema 3. Todo valor propio de una isometria tiene va­
lor absoluto uno.
Prueba. Si U es una isometria, y si Ux = Ax, con r ^ O , enton­
ces || x || = || I b || = 11 A 11 . || xr ||
T eorema 4. Si A es autoadjunta o isométrica, entonces los
vectores propios de A que pertenecen a valores propios distintos
son ortogonales.
Prueba. Supóngase Ax, = A,x„ Ax, = A,x,, A, ^ A,. Si A es au­
toadjunta, entonces
(1) X,(x„ *,) - (Axi, Xa) - (x„ Axa) - Xa(x„ xa).
(El paso medio hace uso del carácter autoadjunto de A, y el último
paso de la realidad de A,). En caso de que A sea una isometria, (1)
es reemplazado por

(2) (x„ Xa) - (Ax„ Axa) - (X,/Xa)(x„ x,);


recuérdese que A, = 1/A,. En cualquier caso, (x„ x2) 0 implicaría
que A, = A,, de manera que debemos tener (x„ xs) = 0.
Teorema 5. Si un subespacio 311 es invariante bajo una
isometria U sobre un espacio finito-dimensional de producto in-

Prueba. Considerada sobre el subespacio finito-dimensional 3TC,


la transformación U es aún una isometríaTy, consecuentemente, es
invertible. Se sigue que toda x de Sil puede escribirse en la forma
x = Uy, con y en su; en otras palabras, si x está en 311 y si y =
U 'x, entonces y está en 311. De aqui que 3lt sea invariante bajo U'1
= U’. Se sigue del § 45, Teorema 2, que 3ilx es invariante bajo
(1/*)* = U.
Observamos que el mismo resultado para transformaciones auto-
adjuntas (aun en espacios no necesariamente finito-dimensionales)
es trivial, puesto que si SU es invariante bajo A, entonces 311x es
invariante bajo A* = A.
Teorema 6. Si A es una transformación autoadjunta so­
bre un espacio finito-dimensional de producto interior, entonces
la multiplicidad algebraica de cada valor propio A„ de A es igual
a su multiplicidad geométrica, esto es, a la dimensión del subes-
pacio 311 de todas las soluciones de Ax = kjc.
Prueba, Está claro que su es invariante bajo A y, en conse­
cuencia, lo esSIt1; denotamos por B y C la transformación lineal A,
considerada solamente sobre 311 y 31¡x respectivamente. Tenemos
det (A - A) - det (B - A)-det (C - A)
para toda A. Puesto que B es una transformación autoadjunta sobre
un espacio finito-dimensional, con un solo valor propio, a saber, Ao,
se sigue que A0 debe ocurrir como un valor propio de B con multi­
plicidad algebraica igual a la dimensión de 311. Si esa dimensión es
m, entonces det (B - A) = (A» - A)”. Puesto que, por otra parte,
A» no es un valor propio de C en lo más mínimo y, puesto que conse­
cuentemente. det (C - A») y£0, vemos que det (A - A) contiene
(Ao —A) como factor, exactamente m veces, como tenía que probarse.
Lo que hizo válida esta prueba fue la invarianda de 31tx y el he­
cho de que toda raíz de la ecuación característica de A es un valor
propio de A. La última aserción es verdadera para toda transforma­
ción lineal sobre un espacio unitario; el siguiente resultado es una
consecuencia de estas observaciones y del Teorema 5.
T eorema 7. Si U es una transformación unitaria sobre un
espacio unitario finito-dimensional, entonces la multiplicidad al­
gebraica de cada valor propio de U es igual a su multiplicidad
geómetrica.

EJERCICIOS
1. Dése un ejemplo de una transformación lineal con dos vectores propios
no ortogonales, pertenecientes a valores propios distintos.
§79. TEOREMA ESPECTRAL

Estamos ahora listos para probar el principal teorema de este li­


bro, el teorema del cual son corolarios todos los otros resultados de
este capitulo. Hasta cierto punto, lo que hemos estado haciendo has­
ta ahora fue una cuestión de deporte (útil, sin embargo, para gene-
realizaciones ); deseábamos demostrar cuanto puede hacerse cómoda­
mente con la teoría espectral, antes de probar el teorema espectral.
En el caso complejo, incidentalmente, puede hacerse que el teorema
espectral se siga del proceso de triangularización que ya hemos
descrito; a causa de la importancia del teorema preferimos dar a
continuación una prueba directa (completamente fácil). El lector
puede encontrar provechoso adaptar el método de prueba (no el
resultado) del § 56, Teorema 2, para probar tanto como pueda del
teorema espectral y sus consecuencias.
Teorema 1. A cada transformación lineal autoadjunta A
sobre un espacio finito-dimensional de producto interior, corres­
ponden números reales . . , a, y proyecciones perpendiculares
E ,. . . . E, (donde r es un entero estrictamente positivo, no mayor
que la dimensión del espacio), de manera que
(1) las a, son distintas dos a dos (por pares),
(2 ) las Ei son ortogonales dos a dos (por pares) y diferentes de 0,
(3) y . i E i - 1 ,
(4) E , «,E, - A.
Prueba. Sean o, los distintos valores propios de A, y
sea E¡ la proyección perpendicular sobre el subespacio consistente en
todas las soluciones de Ax = a¡x ( j = 1 , . . r ). La condición (1 ) se
satisface entonces por definición: el hecho de que las a sean reales
se sigue del § 78, Teorema 1. La condición ( 2 ) se sigue del § 78,
Teorema 4. De la ortogonalidad de E¡ inferimos que si E = E ¿ .
entonces E es una proyección perpendicular. La dimensión del al­
cance o ámbito de E es la suma de las dimensiones de los alcances
de la E¡ y, consecuentemente, según el § 78, Teorema 6, la dimen­
sión del alcance de E es igual a la dimensión del espacio entero; esto
implica a (3). (Alternativamente, si E=f= 1, entonces A considerada
sobre el alcance de 1 - E seria una transformación autoadjunta sin
valores propios). Para probar ( 4 ) tómese cualquier vector x y es­
críbase x , = E¡x; se sigue que Ax¡ = a,x¡ y de aquí que
Ax - A(Z.iE¡x) - Z y Ax¡ = 'ZjafCj = Z> «¡E?-
Esto completa la prueba del teorema espectral.
La representación A Z i aiEi (donde las a y las £ satisfacen las
condiciones (l) -( 3 ) del Teorema 1), es llamada una forma espec­
tral de A; el principal efecto del resultado siguiente es el de probar
la univocidad de la forma espectral.
Teorema 2. Si Z / - i “J®f es forma espectral de una
transformación autoadjunta A, sobre un espacio finito-di­
mensional de producto interior, entonces las a son todas los dis­
tintos valores propios de A. Si, además, 1 S k S r, entonces exis­
ten polinomios pi, con coeficientes reales, tales que p*(a¡) = 0,
siempre que j p L k y tales que pt(<a) = 1; paxa cada uno de esos
polinomios p*,(A) = E».
Prueba. Puesto que E, =f=0, existe un vector x en el alcance de
E¡. Puesto que E,x = x y E,x = 0, siempre que i= £j, se sigue que
Ax =■ Z< uiEa - a¡EjX = ap¡,
de manera que cada a, es un valor propio de A. Si, recíprocamente,
A es un valor propio de A, digamos Ax = Ax, con entonces es­
cribimos X) = EjX y vemos que

A * - A x - x Z i* i
Ax -= A Z í x¡ - Z y “y**

de manera que Z y O' ~ “y)*y = 0. Puesto que las x, son ortogo­


nales dos a dos, las que no son cero de entre ellas forman un conjun­
to linealmente independiente. Se sigue, para cada o x j = 0, o
A = a¡■ Puesto que x 0, debemos tener x¡ 0 para alguna j y,
consecuentemente, A es en realidad igual a una de las a.
Puesto que E,E¡ = 0, si i # j, y E," = E¡, se sigue que
= ( Z í “.£.)(2>y£y) “ Z í Z i oiayE.Ey
- Z rV « y -
De modo semejante
An —T - a*Ej
para todo entero positivo n [en caso de que n = 0, úsese (3)], y de
aquí que
v W - £ ,p (a,)E /
para todo polinomio p. Para concluir la prueba del teorema, todo lo
que necesitamos hacer es exhibir un polinomio (real) p* tal que
p»(«<) = 0 cada vez que j y t fe y tal que pi,(«) = 1. Si escribimos

p*w - I L - t _ a’a :

entonces p» es un polinomio con todas las propiedades requeridas.


T eorema 3. Si £ j . i a¡E¡ es la forma espectral de una trans­
formación autoadjunta A sobre un espacio finito-dimensional de
producto interior, entonces una condición necesaria y suficiente
para que una transformación lineal B conmute con A, es que

Prueba. La suñciencia de la condición es trivial. Si £,■ a¡E¡


y E,B = BEf para toda j, entonces AB = BA. La necesidad se sigue
del Teorema 2; si B conmuta con A, entonces B conmuta con todo
polinomio en A y, en consecuencia, B conmuta con cada E/.
Antes de continuar explotando el teorema espectral, hacemos
notar su interpretación matricial. Si escogemos una base ortonormal
en el alcance de cada E,, entonces la totalidad de los vectores de
estas pequeñas bases es una base para el espacio entero; expresada
en esta base, la matriz de A será diagonal. El hecho de que por una
adecuada selección de una base ortonormal puede hacerse diagonal
la matriz de una transformación autoadjunta o, equivalentemente,
que cualquier matriz autoadjunta puede ser transformada isométrica-
mente (esto es, reemplazada por [Í7)-‘(A][17|, donde U es una isome-
tría) en una matriz diagonal, ya se sigue (en el caso complejo) de la
teoría de la forma triangular. Dimos la versión algebraica por dos
razones: primero, es la versión que se generaliza fácilmente hasta el
caso infinito-dimensional y, segundo, aun en el caso finito-dimensio­
nal, escribiendo £ / aiE! tiene a menudo grandes ventajas notado-
nales y tipográficas sobre la notación matricial.
Haremos uso del hecho de que una transformación A no necesa­
riamente autoadjunta es isométricamente diagonablc (es decir, que
su matriz es diagonal con respecto de una base adecuadamente or­
tonormal) si y sólo si son válidas para la misma las condiciones
( ])-(4 ) del Teorema 1. En realidad, si tenemos ( l) -( 4 ), entonces
es aplicable la prueba de la diagonabilidad, dada para transforma­
ciones autoadjuntas; el recíproco lo dejamos como ejerecicio para
el lector.

EJERCICIOS
i. Supóngase que A es una transformación lineal sobre un espacio comple-

son unitariamente equivalentes si existe una transformación unitaria V tal


que A = U ‘BV. (El concepto correspondiente al caso real es llamado equtva-
equivalencia.
(c) ¿Son A A' siempre unitariamente equivalentes? ^ ^

<->c !> - c :>■

M(i: : ) ’ (!! 1
CilD-
§80. TRANSFORMACIONES NORMALES

Las más fáciles (y al mismo tiempo las más útiles) generaliza­


ciones del teorema espectral se aplican a espacios complejos de pro­
ducto interior (esto es, espacios unitarios). A fin de evitar compli­
caciones irrelevantes, excluimos en esta sección el caso real y
concentramos nuestra atención solamente sobre espacios unitarios.
Hemos visto que toda transformación hermitiana es diagonable,
y que una transformación arbitraria A puede ser escrita en la forma
B + iC, con B y C hermitianos, ¿por qué no es cierto que simplemen­
te diagonalizando 8 y C separadamente podemos diagonalizar A? La
respuesta es, por supuesto, que la ortogonalización implica la selec­
ción de una adecuada base ortonormal, y no hay razón para esperar
que una base que diagonalice B tendrá el mismo efecto sobre C. Es
de considerable importancia saber la clase precisa de transforma­
ciones para las cuales es válido el teorema espectral y afortunada­
mente esta clase es fácil de describir.
Llamaremos normal a una transformación lineal A si conmuta
con su adjunta A 'A = AA’ . (Esta definición tiene sentido y se usa
tanto en espacios reales como complejos de producto interior) con­
tinuaremos, sin embargo, usando técnicas que están inextricable­
mente ligadas con el caso complejo.) Hacemos notar primero que A
es normal si y sólo si conmutan sus partes real e imaginaria. Supón­
gase, en realidad, que A es normal y que A = B + iC con B y C her­
mitianas; puesto que B = %(A + A*) y C = — (A —A*), está claro
que BC = CB. Si, recíprocamente, BC = CB, entonces las dos rela­
ciones A = B + iC y A* = B —iC implican que A es normal. Obser­
vamos que las transformaciones hermitiana y unitaria son normales.
La clase de transformaciones que poseen una forma espectral en
el sentido del § 79, es precisamente la clase de transformaciones nor­
males. La mitad de este enunciado es fácil de probar: si A = aiE¡,
entonces A • = s¡E¡, y se necesita un sencillo cálculo para demos­
trar que A*A = AA* *= Para probar la recíproca, esto es,
para probar que la normalidad implica la existencia de una forma
espectral, tenemos dos alternativas. Podríamos deducir este resulta­
do del teorema espectral para transformaciones hermitianas, usando
las partes reales e imaginarias, o podríamos probar que los lemas
esenciales del § 78, sobre los cuales descansa la prueba del caso her-
mitiano, son igualmente válidos para una transformación normal ar­
bitraria. A causa de que estos métodos son de-cierto interés, adop­
tamos el segundo procedimiento. Observamos que en el § 78
dispusimos de la maquinaria que se necesita para probar los lemas
que siguen, de manera que podríamos haber enunciado inmediata­
mente el teorema de las transformaciones normales; la principal
razón de que hayamos seguido el camino actual fue motivar la defi­
nición de normalidad.
T eorema 1. Si A es normal, entonces una condición nece­
saria y suficiente para que x sea un vector propio de A es que
sea un vector propio de A’ ; si Ax = Ax, entonces A’x = A*.
Prueba. Observamos que la normalidad de A implica que
|| Ax ||» - (Ax, Ax) - (A'Ax, x) - (AA’x, x)
- (A’x, A ’x) - || A ’z ||».
Puesto que A - A es normal juntamente con A y puesto que <A -
A)* = A ’ — A, obtenemos la relación
|| Ax - Az || - || A ’x - X* ||,
de la cual se siguen inmediatamente las aserciones del teorema.
Teorema 2. Si A es normal, entonces los vectores propios
que pertenecen a distintos valores propios son ortogonales.
Prueba. Si Ax, = AiX, y Ax, = \fx„ entonces

M *i. *a) “ (Ax 1, *2) - (x,, A ’x,) - Aa(x,, *»).

Este teorema generaliza el § 78, Teorema 4; en la prueba del


teorema espectral para transformaciones hermitianas necesitamos
también el § 78, Teoremas 5 y 6. El siguiente resultado toma el lu­
gar del primero de éstos.
Teoremas 3. Si A es normal, A es un valor propio de A, y
31? es el conjunto de todas las soluciones de Ax = Ax, entonces
tanto 317 como 317a son invariantes bajo A.
Prueba. El hecho de que 371 sea invariante bajo A lo hemos
visto antes; esto nada tiene que ver con la normalidad. Para probar
que 317a es también invariante bajo A, es suficiente con probar que
317 es invariante bajo A*. Esto es fácil; si x está en 317, entonces
A(A*x) - A*(Ax) - A(A’x),
de manera que A 'x está también en su.
Este teorema es mucho más débil que su correspondiente del
§ 78. La cosa importante que observar, sin embargo, es que la prue­
ba del § 78. Teorema 6, dependía sólo de la correspondiente versión
debilitada del Teorema 5, los únicos subespacios que necesitan ser
considerados son los del tipo mencionado en el teorema precedente.
Esto concluye el trabajo de preparación; el teorema espectral
para operadores normales se sigue justamente como en el caso her-
mitiano. Si en los Teoremas del § 79 reemplazamos la palabras "au-
toadjunto” por "normal”, destruimos toda referencia a la realidad, e
insistimos en que el espacio subyacente de producto interior sea com­
plejo, las partes restantes de los enunciados y todas las pruebas que­
dan sin cambio.
Es la teoría de las transformaciones normales la que es de prin­
cipal interés en el estudio de los espacios unitarios. Uno de los he­
chos más útiles sobre transformaciones normales es que las condi­
ciones espectrales del tipo dado en el § 78, Teoremas 1 y 3, que allí
se demostró eran necesarias para el carácter autoadjunto, positivo e
isométrico de una transformación, son suficientes en el caso normal
T eorema 4. Una transformación normal sobre un espacio
finito-dimensional unitario es ( 1) hermitiana, (2 ) positiva, (3)
estrictamente positiva, (4 ) unitaria, ( 5 ) invertible, (6) idempo-
tente si y sólo si todos sus valores propios son ( V ) reales, (2 ')
positivos, (3 ') estrictamente positivos, (4 ') de valor absoluto
uno (5 ') diferentes de cero, (6 ') iguales a cero o uno.
Prueba. El hecho de que (1 ), (2 ), (3 ) y (4) impliquen ( ! ') ,
(2'), (3 ') y ( 4 '). respectivamente, se sigue del § 78. Si A es inver­
tible, y Ax = Ax, con x yfc 0, entonces x = A 'Ax = AA-‘x y, en con­
secuencia, A=£0; esto prueba que (5) implica (5 '). Si A es idempo-
tente y Ax = Ax, con x # 0, entonces Ax = Ax = A*x = A’x, de
manera que (A —a’)x = 0 y, en consecuencia, A = Agesto prueba que
(6) implica a (6'). Obsérvese que estas pruebas son válidas para
un espacio arbitrario de producto interior (ni siquiera necesariamen­
te finito-dimensional) y que el supuesto auxiliar de que A es normal,
también es superfluo.
Supóngase ahora que la forma espectral de A es 2 • Pues-
to que A* = Z i &!&)• . vemos que (1 ') implica a (1 ). Puesto que
(Az, z) = Z i ntlEfc, z) - £ , a, || Bfz II», "
se sigue que (2 ') implica a (2 ). Si a, > O para toda j y si (Ax, x )
= 0, entonces debemos tener E ,x = 0 para toda j y, en consecuencia
x ■» E ji = 0; esto prueba que (3 ') implica a (3 ). La implica­
ción de (4 ') a ( 4 ) se sigue de la relación
AM - E iM 'B , .
Si o, ^ 0 para toda j, podemos formar la transformación lineal
B - YLt —B¡; puesto que AB = BA = 1, se sigue que ( 5 ') impli­
ca a (5 ). Finalmente A1 — a*E,; de esto podemos inferir que ( 6 ')
implica a (6).
Observamos que las relaciones de implicación ( 5 ) =* ( 5 ').
(2 ) => ( 2 '). y. ( 3 ') « ( 3 ) juntas cumplen una promesa que hici­
mos en el § 72. Si A es positiva e invertible. entonces A es estricta­
mente positiva.

EJERCICIOS

nltodimenslonal unitario) y si a y 0 son números complejos tales que | o | =


10 1 = 1, entonces *A + pA' es normal.
(b) Si II Axil = II A** II para toda x, entonces A es normal.
(c) ¿Es siempre normal la suma de.dos transformaciones normales?
3. SI A es una transformación normal sobre un espacio finitodimen-
sional unitaria y sí ’DTZ es un subespacio invariante bajo A, entonces la restric-
4. Una transformación lineal A sobre un espacio finitodimensional unlta-
rio V es normal si y sólo si A3R C 3rt implica A3U1 C 31ti para cada subes­
pacio 311 de V.
5. (a) Sí A es normal e idempotente, entonces es autoadjunto.
(b) Si A es normal y nilpotente, entonces es cero.
(c) SI A es normal y A* = A*, entonces A es Idempotente. ¿Permanece ver­
dadera la conclusión si se omite el supuesto de normalidad?
(d) SI A es autoadjunta y si A* = 1 para algún entero estrictamente po-

7. Supóngase que A es una transformación lineal sobre un espacio ti-dimen­


sional unitario; sean X, X, los valores propios de A (ocurriendo cada uno
un número de veces igual a su multiplicidad algebraica). Pruébese que
Z<IM*Str(A*A),
y que A es normal si y sólo si la igualdad, es válida.
finito-dimensional unitario es el conjunto W(A) de todos los números com­
plejos de la forma (Ax, x), con ||* || = 1.
(a) Si A es normal, entonces W(A) es convexa. (Esto significa que si
£ y , están en W(a) y s l O g a S l entonces o£ + (1 - . ) , está también en
W(A)).
(b) Si A es normal, entonces todo punto extremo de W(A) es un valor
propio de A. (Un punto extremo es uno que no tiene la forma «£ + (1 -
para alguna £ y , de W(A) y para cualquier a propiamente entre 0 y 1)
(c) Es sabido que la conclusión de (a) permanece verdadera aún si no se
supone la normalidad. Este hecho puede ser expresado como sigue: si A, y
Aj son transformaciones hermitianas. entonces el conjunto de todos los puntos
de la forma [(A,x.x). (A.t, x )1 en el plano de coordenadas reales (con || x ||

§81. TRANSFORMACIONES ORTOGONALES


Puesto que una transformación unitaria sobre un espacio unita­
rio es normal. los resultados de la sección precedente incluyen la teo­
ría de las transformaciones unitarias como un caso especial. Sin em­
bargo. puesto que. una transformación ortogonal sobre un espacio
real de producto interior no tienen valores propios, el teorema espec­
tral, como lo conocemos hasta ahora, no nos da información sobre
transformaciones ortogonales. No es difícil llegar a los hechos; la
teoría de la complejlficación se hizo a la medida para este propósito.
Supóngase que U es una transformación ortogonal sobre un es­
pacio V; finito-dimensional real de producto interior; sea U' la ex­
tensión de U a la complejlficación V*. Puesto que U’U = 1 (sobre
V). se sigue que (U •)•[/• = 1 (sobre V*), esto es. que U• es uni-

Sea A = a + i¡3 un número complejo (o y 0 son reales), y sea


311el subespacio consistente en todas las soluciones de U‘z = Az en
U+. (Si A no es un valor propio de U \ entonces 3lt - 0.) Si z está
en Stt, escríbase z = x + iy. con x y y en U La ecuación
Ux + iUy - (a + tf) (z + iy)
implica (véase el § 77) que
U z-a z-B v
y
Uy - Bx + ay.
Si multiplicamos el segundo del último par de ecuaciones por i y a
continuación lo sustraemos del primero, obtenemos
Ux - iUy = (a - tf)(z - iy).
Esto significa que U'z = Xí, donde el sugestivo y conveniente símbo­
lo z denota, por supuesto, el vector x — iy. Puesto que el argumento
(esto es, el paso de U'z = Az a U'z = Xz) es reversible, hemos proba­
do que el mapa z -* z es una correspondencia uno a uno entre 311 y
el subespacio 3Ü consistente en todas las soluciones z de U-z = Az.
El resultado implica, entre otras cosas, que los valores propios com­
plejos de U' vienen en pares; si A es uno de ellos, entonces también
lo es A. (Esta observación sola podríamos haberla obtenido más rápi­
damente del hecho de que los coeficientes de la característica polino-
mial de U' son reales).
No hemos hecho uso todavía del carácter unitario de U‘. Una
forma en que podemos hacer uso del mismo es ésta. Si A es un valor
propio complejo (definitivamente no real) de U', entonces A#=A se
sigue que si U'z = Az, de manera que U'z = Az, entonces z y z son
ortogonales. Esto significa que
0 - (z + iy. z - iy) - || * II* - || y ||* + »((x, y) + (y, *)),
y de aquí que || x ||* = || y ||* y (x, y ) = - (y, x). Puesto que un
producto interior real es simétrico ¡(x, y) = (y, x)] se sigue que
(x, y) = 0. Esto, a su vez, implica que || z ||* = || x ||* + || y ||* y
de aquí que || * || = || y | | = - ^ || z ||.
V2
Si A, y A, son valores propios de U' con A, A, y A, =£ A, y si z, =
x , + iy, y z, = x , + iy, son vectores propios correspondientes_(r„ *,
y,, y, en U), entonces z, y z, son ortogonales y ( puesto que z, es un
vector propio que pertenece al valor propio A,) z, y Zi son también or­
togonales. Usando de nuevo la expresión para el producto interior
complejo sobre T)+ en términos del producto interior real sobre ti,
vemos que
(*,, *a) + (¡/i, V») “ (*t, Vi) ~ O/i, ®a) “ 0

tu , *s) - O/i, vi) - (*i, Vi) + (i/i, *i) ” o.

Se sigue que los cuatro vectores x,, x„ yry y, son ortogonales dos a
dos (por pares).
La transformación unitaria II* podría también tener valores rea­
les propios. Sin embargo, puesto que sabemos que los únicos valores
reales propios posibles de V • tienen valor absoluto uno, se sigue que
los únicos valores reales propios posibles de U• son 1 y —1. Si U '(x
+ iy) = ± ( x + iy), entonces Ux = ± x y Uy = ♦ y, de manera
que los vectores propios de U- con valores reales propios se obtienen
colocando juntos los vectores propios de V de una manera obvia
Estamos ahora listos para dar el paso final. Dada U escogemos
una base ortonormal, digamos Xi, en el múltiple lineal de soluciones
de Ux = x (en V), y, de modo semejante, escogemos una base
otomormal, digamos X_,,en el múltiple lineal de soluciones de Ux =
—x (en V). (Los conjuntos Xi y X_i pueden estar vacíos). A con­
tinuación, para cada par conjugado de valores propios complejos
Ay A de U* escogemos una base ortonormal ¡ z „ . . . , z,} en el múltiple
lineal de soluciones de U'z = Az (en V+). Si = x¡ + iy¡ (con x, y
y¡ en V), sea Xx el conjunto {V 2xi, V2 y , , . . y/2 x„ V 2 y,) de
vectores en u Los resultados que hemos obtenido implican que si
formamos la unión de todos los conjuntos X1, X_i, y Xx, para todos
los valores propios A de U \ obtenemos una base ortonormal de V.
En caso de que X] tenga tres elementos, X_, tiene cuatro elementos
y hay dos pares conjugados {A,, A>) y (A,, X,}, entonces la matriz de
U con respecto de la base así construida se ve así:

B, a,

(Todos los términos no explícitamente indicados son iguales a cero;.


En general, hay una hilera de +1 sobre el diagonal principal, segui­
da por una hilera de - 1 y a continuación hay una hilera de cajas
dos por dos que corren diagonal abajo¿ cada caja tiene la forma
con o* + fP = 1. El hecho de que «' + p1 = 1 implica que
podemos determinar un número real o tal que « = eos 9 y í - sen 0.
es costumbre usar esta representación trigonométrica al escribir la
forma canónica de la matriz de una transformación ortogonal.

iledad P ’AP es diagonal?


3. Enuncíese y pruébese un análogo razonable del te
isformaciones normales sobre un espacio real de prod

§82. FUNCIONES DE TRANSFORMACIONES

Uno de los más útiles conceptos en la teoría de las transforma­


ciones normales sobre espacios unitarios es el de una función de una
transformación. Si A es una transformación normal con forma es­
pectral £ i a¡R¡ (Para esta discusión suponemos temporalmente
que el espacio vectorial subyacente es un espacio unitario) y si f es

nos en los puntos a,, entonces definimos una transformación lineal


f(A) como
/(A) - Z l /( « r e ­
puesto que para polinomios p (y aún para funciones racionales) he­
mos ya visto que nuestra definición anterior de p(A) da, si A es nor­
mal, p(A) = p(a¡)Eil vemos que el nuevo concepto es Una
generalización del anterior. La ventaja de considerar f(A) para fun­
ciones arbitrarias f es para nosotros en gran parte notacional; no
introduce nada nuevo conceptualmente, en realidad, para una f arbi­
traria, podemos escribir f(«,) = 0 ,, y en seguida podemos encontrar
un polinomio p que, en el conjunto finito de números complejos dis­
tintos tome, respectivamente, los valores 0¡. Con este polinomio
p tenemos f(A)= p(A), de manera que Ta clase de transformaciones
definidas por la formación de funciones arbitrarias no es nada esen­
cialmente nuevo; sólo ahorra la dificultad de construir un polinomio
adecuado a cada caso especial. Así, por ejemplo, si para cada número
complejo x escribimos
A(í) “ 0 siempre que f ¡a A

A to " 1,

entonces f»(A) es la proyección perpendicular sobre el subespacio de


soluciones de Ax = Xx.
Observamos que si f t f )= i , entonces (suponiendo por supuesto que
f está definida para todaa,,esto es a¡ V=0)f(A)=A‘‘y si f( { ) = £■ en"
tonces f(A )=A *. Estos enunciados implican que si f es una función
arbitraria racional de ( y t, obtenemos f(A ) por los reemplazos
{-» A, f - » A * y i = A-1. El símbolo f(A ) está, sin embargo, definido
para funciones mucho más generales y en lo que sigue nos sentiremos
libres para hacer uso de expresiones tales como eA y y/A.
Una función particularmente importante es la raíz cuadrada de
transformaciones positivas. Consideramos f({ ) = V£ definida para
toda { 2 0 real como la raíz cuadrada positiva de {, y para toda A
- £ í a,E¡ positiva escribimos

V a - Z í ^ i B/.

(Recuérdese que > , 2 0 para toda ]. La discusión que sigue se aplica


tanto a espacios reales como complejos de prodccto anterior). Está
claro que y'A 'S 0 y que (VA)* = A; desearíamos investigar hasta
qué punto estas propiedades caracterizan a VÁ. A primera vista po­
dría parecer sin esperanza buscar alguna univocidad, puesto que si
consideramos B = ± V a¡ E¡, con una selección arbitraria de sig­
no en cada lugar, tenemos todavía A = B*. La transformación y/A
que construimos fue, sin embargo, positiva y podemos demostrar que
esta propiedad adicional garantiza la univocidad. En otras palabras,
sí A = B' y B 2 0, entonces B = VA. Para probar esto, sea B =
Btfk la forma espectral de B. entonces
Puesto que las fik son distintas y positivas, también lo son las /?»';
la univocidad de la forma espectral de A implica que cada f t 1 es
igual a alguna a, (y viceversa) y que las correspondientes E y F
son iguales. Por una permutación de los Índices podemos, en conse­
cuencia, lograr = «, para toda j, de manera que = V“i. como
tuvo que demostrarse.
Hay varias importantes aplicaciones de la existencia de raíces
cuadradas para operadores positivos; daremos ahora dos de ellas.
Primero; recordamos que en el § 72 mencionamos tres posibles
definiciones de una transformación positiva A y adoptamos la más
débil, a saber, que A es autoadjunto y (Ax, x ) g 0 para toda x. La
más fuerte de las tres definiciones posibles era que podíamos escribir
A en la forma A = B’ para alguna B autoadjunta. Señalamos que el
resultado de esta sección concerniente a raíces cuadradas implica que
la (aparentemente) más débil de nuestras condiciones es, en conse­
cuencia, equivalente a la más fuerte. (De hecho, podemos hasta ob­
tener una raíz cuadrada única positiva.)
Segundo: en el § 72 enunciamos también que si A y B son posi­
tivas y conmutativas, entonces AB es también positiva; podemos
ahora dar una fácil prueba de esta aserción. Puesto que \/A" 7 V®
son funciones (polinomiales en) A y B, respectivamente, la conmu-
tividad de A y B implica que VA y VB conmutan entre sí; consecuen­
temente
ab = Va V a Vb Vb - Va Vb Va Vb - (V a V b )*.
Puesto que V A y VB son autoadjuntas y conmutativas, su producto
es autoadjunto y, en consecuencia, su cuadrado es positivo.
La teoría espectral hace también completamente fácil caracterizar
la matriz (con respecto de un sistema arbitrario de coordenadas or-
tonormales) de una transformación positiva A. Puesto que det A es
el producto de los valores propios de A, está claro que A g 0 implica
det A g 0. (La discusión del § 55 se aplica directamente sólo a es­
pacios complejos de producto interior; la modificación apropiada ne­
cesitada para la discusión de transformación autoadjuntas sobre
espacios reales posibles es, sin embargo, completamente fácil de sumi­
nistrar. ) Si consideramos la propiedad definitoria de posidvidad ex­
presada en términos de la matriz (au) de A, que es Z i Z y “¡y£¡fy S 0,
observamos que la última expresión permanece positiva si restrin­
gimos las coordenadas ((,, ,£„) requiriendo que algunas de ellas
desaparezcan. En términos de la matriz esto significa que si tachamos
las columnas numeradas U y tachamos también las filas que
llevan los mismos números, la pequeña matriz remanente es todavía
positiva y, consecuentemente, lo es su determinante. Este hecho se
expresa usualmente diciendo que los menores principales del deter­
minante de una matriz positiva son positivos. El coeficiente de la
potencia j-ésima de A en el polinomio característico det (A — A) de
A es (excepto por el signo) la suma de todos los menores principales
de n-j filas y columnas. El signo es alternativamente más y menos;
esto implica que si A tiene menores positivos principales y es auto-
adjunta (de manera que se sepa que los ceros de det [A —A] son
reales), entonces los valores propios de A son positivos. Puesto que
el carácter autoadjunto de u n a matriz es discemible observando si
es o no simétrica hermitiana (a„ = o(J), nuestros comentarios redu­
cen el problema de determinar si es o no positiva una matriz, a un
número finito de cálculos elementales.
§83. DESCOMPOSICION POLAR

Hay otra consecuencia útil de la teoría de las raíces cuadradas,


a saber, el análogo de la representación polar ( = pe‘* de un número
Teorema 1. Si A es una transformación lineal arbitraria
sobre un espacio finito-dimensional de producto interior, enton­
ces hay uña transformación positiva P (determinada única­
mente), y hay una isometria U, tal que A — UP. Si A es inverti-
ble, entonces U está también únicamente determinada por A.
Prueba. Aunque no es lógicamente necesario hacerlo así, da­
remos primero la prueba en el caso en que A es invertible; la prueba
general es una modificación obvia de esta especial, y la prueba es­
pecial da mayor comprensión de la estructura geométrica de la trans­
formación A.
Puesto que la transformación A*A es positiva, podemos encon­
trar su raíz cuadrada positiva (única) P = \JA'A . Escribimos V —
PA-'; puesto que VA = P, el teorema quedará probado si podemos
probar que V es una isometria, puestos entonces podemos escribir
U = V-’. Puesto que
V - (A -')-pr - (A T 'P ,
Vemos que
V V - (A T 'PP A -1 - (A*)“'AMA-1 - 1,
de manera que V es una isometria, y estamos listos.
Para probar la univocidad, observamos que UP = U0Po implica
PU" = P0l/„* y, en consecuencia
P* - PU'UP - PoUfUoPe - P0a.
Puesto que la transformación positiva P1 = P0’ tiene sólo una raíz
cuadrada positiva, se sigue que P = P„. (En esta parte de la prueba
no usamos la invertibilidad de A). Si A es invertible, entonces lo es
P (puesto que P = IP'A), y de esto obtenemos (multiplicando la
relación UP = U„P0 sobre la derecha por P-‘ = P,-‘) que U — U„.
Pasamos ahora al caso general, donde no suponemos que A es
invertible. Formamos P exactamente en la misma forma que ante­
riormente, de manera que P* = A*A, y entonces observamos que
para todo vector x tenemos
|| Pz ||a - (Pz, Pz) - (Paz, x) - (AMz, x) = || Ax ||a.
Si para cada vector y = Px en el alcance flt(P) de P escribimos Uy
= Ax, entonces la transformación U es conservadora de la longitud,
dondequiera que se defina. Debemos demostrar qu5 U está determl-
nada inambiguamente, esto es, que Px, = Px, Implica Ax, = Ax,.
Esto es verdad puesto que P (x,— x ,) = 0 es equivalente a || P(x, —
x ,) || = 0 y esta última condición implica || A(x, - x,)¡| = 0. El al­
cance de la transformación U, definido hasta ahora sobre el subes­
pacio ffi(P) solamente, es «(A). Puesto que U es lineal, <R(A) y <R(P)
tienen la misma dimensión, y, por lo tanto, («(A))A y (B(P))Xtienen
la misma dimensión. Si definimos a U sobre (<t(P))x como cualquier
transformación lineal e isométrica de (<R(P))x sobre (<R(A))x, entonces
U, determinada por lo mismo sobre toda v , es una isometria con
la propiedad Vpx - Axp para toda x. Esto completa la prueba.
Aplicando a A• en vez de A el teorema que se acaba de probar y
tomando a continuación adjuntos, obtenemos también el hecho dual
de que toda A puede ser escrita en la forma A = PU con una U iso­
métrica U y una P positiva. En contraste con la descomposición carte­
siana (§ 70), llamamos la representación A = UP una descompo­
sición polar de A.
En términos de descomposiciones polares, obtenemos una nueva
caracterización de normalidad.
Teorema 2. Si A = UP es una descomposición polar de la
transformación A, entonces una condición necesaria y suficiente
para que A sea normal es que PU = UP.
Prueba. Puesto que U no está necesariamente determinada
únicamente por A, el enunciado debe interpretarse como sigue: si A
es normal, entonces P conmuta con cada U, y si P conmuta con
alguna U, entonces A es normal. Puesto que A A ' = UP'U' = UP*l/-1
y A 'A = P1, está claro que A es normal si y sólo si U conmuta con
P*. Puesto que, sin embargo, P* es una función de P y viceversa P
ís una función de P’(P = y/P '), se sigue que conmutar con P’ es
equivalente a conmutar con P.

ducto interior tiene sólo una descomposición polar, entonces es invertible.


2. Usese el cálculo funcional para deducir la descomposición polar de u
operador normal.
3. (a) Si A es una transformación lineal arbitraria sobre un espacio f
nito-dimensional de producto interior, entonces hay una isometria parcial l
y hay una transfomadón positiva P, tal que UUU) —3Z(P) y tal que A =
(b) La transformación A es normal si 7 sólo si las
y P descritas en (a) conmutan entre si.

§84. CONMUTATTVIDAD
El teorema espectral para operadores autoadjuntas y normales y el
cálculo funcional pueden también usarse para resolver ciertos pro­
blemas concernientes a la conmutatividad. Es éste un tema profun­
do y extenso; más que ilustrar ciertos métodos que para obtener
resultados, discutimos dos teoremas del mismo.
Teorema 1. Dos transformaciones autoadjuntas A y B so­
bre un espacio finito-dimensional de producto interior son con­
mutativas si y sólo si existe una transformación autoadjunta C
y existen dos funciones real-valuadas f y g de una variable real,
de manera que A = f(C ) y B = g(C). Si existe una C tal, en­
tonces podemos hasta escoger C en la forma C - h(A, B), donde
k es una adecuada función real-valuada de dos variables reales.
Prueba. La suficiencia de la condición es clara; probamos so­
lamente la necesidad.
Sean A = £ , o A y B = B,F, las formas espectrales de A y
B; puesto que A y B conmutan, se sigue del § 79, Teorema 3. que
E, y E, conmutan. Sea h cualquier función de dos variables reales
tales que los números h(a,, p,) = y„ son todos distintos, y escribamos
C - HA, B) - fc)Wí-
(Está claro que h puede hasta ser escogido como polinomio, y lo mis­
mo es cierto de las funciones f y g que vamos a describir). Sean f
y g tales que f(yu) = a, y g(y„) = p, para toda i y ;. Se sigue que
f(C ) = A y g(C) = B, y todo está probado.
Teorema 2. Si A es una transformación normal sobre un
espacio finitodimensional unitario y si B es una transformación
arbitraria, que conmuta con A, entonces B conmuta con A*.
Prueba. Sea A - a,E, la forma espectral de A; entonces
A* - SiE^Sea f una función tal (polinomio) de una variable com­
pleja que f(«i) = «i, para toda i. Puesto que A* = f(A ), se sigue la
conclusión.
EJERCICIOS

§85. TRANSFORMACION AUTOADJUNTA DE RANGO UNO


Hemos visto ya (§ 51, Teorema 2 ) que toda transformación li­
neal A de rango p es la suma de p transformaciones lineales de rango
uno. Es fácil ver (usando el teorema espectral) que si A es autoad­
junta, o positiva, entonces los sumandos pueden también tomarse
autoadjuntos y positivos, respectivamente. Sabemos (§ 5 1 , Teorema
1), lo que tiene que ser la matriz de transformación de rango uno;
¿qué más podemos decir si la transformación es autoadjunta o po­
sitiva?
Teorema 1. Si A tiene rango uno y es autoadjunta (o po­
sitiva), entonces en cada sistema de coordenadas ortonormales
la matriz («,<) de A es dada por a„ = spipjcon una real k (o por
ai, = yiyj). Si, recíprocamente, [A] tiene esta forma en algún sis­
tema de coordenadas ortonormales, entonces A tiene rango uno
y es autoadjunta (o positiva).
Prueba. Sabemos que la matriz ■<ai,) de una transformación
A de rango uno, en cualquier sistema de coordenadas ortonormales
ÍE = es dada por mj = f i ¡ y Si A es autoadjunta, debe­
mos también tener a„ = afi de donde fi,y, = fi,y¡. Si fi, = 0 y y, ^ 0
para alguna i, entonces fi, = fity,/y, = 0 para toda j, de donde A =
= 0. Puesto que supusimos que el rango de A es uno (y no cero)
esto es imposible. De modo semejante fi, 0 y yi = 0 es imposible;
esto es, podemos encontrar una i para la cual fi,y\ 0. Usando esta
i, tenemos
Bi - (fin ,x,l¡ - sy¡
con alguna constante k no cero, independiente de j. Puesto que los
elementos de la diagonal a,¡ = (Ax,, x¡) = fi,y, de una matriz auto-
adjunta son reales, podemos hasta concluir que a,, = .fi,fi, ccm una

Si, además, A es positiva, entonces hasta sabemos que rfi,fi, =


ai, = (Ax¡, x ,) es positiva y, en consecuencia, lo es «. En este caso
escribimos A = V *; la relación *fiifii = (\fi,)(Xfi¡) demuestra que
a,, es dada por « / = y ¡y,.
Es fácil ver que estas condiciones necesarias son también sufi­
cientes. Si oij = trfifi, con una « real, entonces A es autoadjunta. Si
«u = y.% y * = ¿({iz¡, entonces
(Ax, X) - S í “ 5 ZiH i yfijhii
“ ( Z . %í .)(S ívA ) - I E . 7.I.P a o,
de manera que A es positiva.
Como consecuencia del Teorema 1 es muy fácil probar un nota­
ble teorema sobre matrices positivas.
Teorema 2, Si A y B son transformaciones lineales positi­
vas cuyas matrices en algún sistema ortogonal de coordenadas
son (a¡¡) y (fin), respectivamente, entonces la transformación li­
neal C, cuya matriz (y„) en el mismo sistema de coordenadas es
dada por y„ = a,ifi„, para toda i y j, es también positiva.
Prueba. Puesto que podemos escribir tanto A como B, como
sumas de transformaciones positivas de rango uno, de manera que

se sigue que
210 ESPACIOS VECTORIALES PINITO-DIMENSIONALES

(Los supraíndices no son aquí exponentes). Puesto que una suma


de matrices positivas es positiva, será suficiente con probar que, para
p y q fijas, la matriz ((<*f0!)(aflsj))es positiva y esto se sigue del Teo-

Incidentalmente, la prueba demuestra que el Teorema 2 perma­


nece válido si se reemplaza "positivo” por “autoadjunto” en ambas
hipótesis y conclusión; en la mayoría de las aplicaciones, sin embar­
go, es sólo la versión enunciada la que es útil. La matriz (y,,) des­
crita en el Teorema 2 se llama el producto de Hadamard de (a¡f)
y (*#).

EJERCICIOS

1. Supóngase que 11 y V son espacios finito-dimensionales de productos


interiores (ambos reales o ambos complejos).
(a) Hay un producto interior único sobre el espacio vectorial de todas las
formas bilineales sobre 11 ©11 tales que w:(x, y) = (x, x,)(y, y,) y w,(x, y)
= (*. *,)(», v,), entonces (» „ w,) = (*„ *,)(»„ y,).
(b) Hay un producto interior único sobre el producto tensorial 11 ® 11. tal
que si z, = x, ® y, y z, = x, ® y,, entonces (z,, z,) = (*„ x,)(y„ y¡).
(c) Si {x,} y (yf) son bases ortonormales en 1t y 11. respectivamente,
2. ¿Es necesariamente hermitlano el producto tensorial de dos transforma­
ciones hermitianas? ¿Qué sobre transformaciones unitarias? ¿Qué sobre trans-
CAPITULO 4

ANALISIS

§86. CONVERGENCIA DE VECTORES

Esencialmente la única forma en que explotamos, hasta ahora,


la existencia de un producto interior en un espacio de producto inte­
rior, fue introduciendo la noción de transformación normal, junta­
mente con ciertos importantes casos especiales de la misma. Un
circulo de ideas mucho más obvio es el estudio de los problemas de
convergencia que se suscitan en un espacio de producto interior.
Veámos qué podríamos dar a entender con la aserción de que
una secuencia (x„) de vectores en D converge a un vector x en U
Hay dos posibilidades que se sugieren por sí mismas:
(i) || x» - x || -* 0 a medida que n-» » ;
(II) (x„ —x, y ) -» 0, a medida que n -> co, para cada y fija deV.
Sí (i) es verdadera, entonces tenemos, para cada y.
I b .- 4 i ) |£ I r | -» o ,
de manera que (ii) es verdadera. En un espacio finito-dimensional
la implicación recíproca es válida: (ii) =»( i )- Para probar esto, sea
{*,, . . . . z») una base ortonormal en u (A menudo en este capítulo
escribiremos N para la dimensión de un espacio vectorial finito-di­
mensional a fin de reservar n para la variable ficticia en procesos
limitadores). Si suponemos (ii), entonces (x . —x ,Z i)-» 0 para
cada i = 1, . . . , N. Puesto que (5 63, Teorema 2)
I * . - * II’ !(* .- * .* > I*.
se sigue que || x» —x || -* 0, como tenia que probarse.
Con respecto de la convergencia de vectores (en cualquiera de
dos sentidos equivalentes), usaremos sin prueba tos siguientes he­
chos. (Todos estos hechos son fáciles consecuencias de nuestras
definiciones y de las propiedades de la convergencia en el dominio
usual de los números complejos; suponemos que el lector, tiene
alguna familiaridad con estos conceptos). La expresión ax 4- py de­
fine una función continua de todos sus argumentos simultánea­
mente; esto es, si (a.) y (/)„) son secuencias de números y (¡r»)
y (y ,) son secuencias de vectores, entonces a. -» a, pn -* p, x . -* x , y
y ,-* 'y implican que a ajcn + p .y .-* a x + fty. Si {Zi} es una base
ortonormal en V, y si ar« - o a a y * = E f «b*í, entonces una
condición necesaria y suficiente para que xn—* x es que a,» — » a, (a
medida que n -* co ) para cada t = 1, . . . , N. (Así, el concepto de
convergencia aqui definido coincide con el usual en el espacio N-di­
mensional de coordenadas reales o complejas). Finalmente, supon­
dremos conocido el hecho de que un espacio finito-dimensional de
producto interior con la métrica definida por la norma es completo;
esto es, si (x„) es una secuencia de vectores para los cuales [| x . —
xm || -* 0, a medida que n, m -►co, entonces hay un vector (único) x,
tal que x . -* x , a medida que n-> » .

5 87. NORMA

por || A 11.
Claramente si A es ligada, entonces || Ax || g || A || - 1| x || para
toda x. Como ejemplos podemos considerar los casos en que A es una
proyección perpendicular (no cero) o una isometría; el Teorema 1
del § 75 y el teorema del § 73, respectivamente, implican que en
ambos casos || A || = 1. Consideraciones de los vectores definidos por
x ,( t) = t" en 9 muestra que la transformación de diferenciación no
está ligada.
A causa de que en lo que sigue tendremos ocasión de considerar
bastantes ligaduras superiores e inferiores similares a || A ||, intro­
duciremos una notación conveniente. Si P es cualquier propiedad po­
sible de números reales t, denotaremos el conjunto de todos los núme­
ros reales t que poseen la propiedad P cor el símbolo {t: P}, y
denotaremos la máxima ligadura inferior y la mínima ligadura
superior con inf (por infimum) y sup (por supremum), respectiva­
mente. En esta notación tenemos, por ejemplo,
|| A || - inf {K:M * II á J fM lfo r.il* ).
La noción de ligadura esta intimamente relacionada con la noción
de continuidad. Si A está limitada y si e es cualquier número positivo,
escribiendo 8 = podemos aseguramos de que || * - y || < 8
implica que
|| A* - Ay || - || A(* - y) || S || A ||-1| * - » || <
en otras palabras, la ligadura significa continuidad (uniforme). (En
esta prueba supusimos tácitamente que 11A 11 0; el otro caso es
trivial). En vista de este hecho, el siguiente resultado es bienvenido.
T eorema. Toda transformación lineal sobre un espacio fi-
nito-dimensional de producto interior es ligada.
Prueba. Supóngase que A es una transformación lineal en D;
sea {x„ . . . x ,) una base ortonormal en 1) y escribamos
Kc = máx {|| Ax, | | II A x, II)-
Puesto que un vector arbitrario x puede ser escrito en la forma
* = 2 .- (*, *¡)*(, obtenemos, aplicando la desigualdad de Schwarz y
recordando que || x¡ || = 1 ,
IM *II-IM (E < (*,*)*) II
- nEt <*,xi)AX¡ II S E í I(*, X<)I•IIAx< II
s E í II * II • II II • II a * II á jc. E< II * I
- jv x o ii * n-
En otras palabras, K = NK0 es una ligadura de A, y la prueba es
completa.
No es un accidente que la dimensión N de V entre en nuestra
evaluación; ya hemos visto que el teorema no es verdadero en espa­
cios infinito-dimensionales.

EJERCICIOS
1, (a) Pruébese que el producto interior es una función continua (y en
consecuencia lo es también la norma); esto es, si xH * y yn-» y, entonces
»„>-* <*. »>•
§ 88. EXPRESIONES PARA LA NORMA

Para facilitar el trabajo con la norma de una transformación,


consideramos las siguientes cuatro expresiones:
p —sup (I Ax 1/1 x ||:z ^ 0),
q ■=sup {|| Ax ||: 11 1 “ 1),
r - sup | |(A*. V)j/|| x || • || y ||: * ¡t 0, y * 0|,
« - sup (|(A*,y)|: | | * | | - | | v | | - l ) .
De acuerdo con nuestra definición de la notación de llave, la expre­
sión (11Ax 11 : 11x 11 = 1, por ejemplo, significa elconjunto de to­
dos los números reales de la forma 11Ax | | , considerada para todas
las * para las cuales || x || = 1.
Puesto que ||A x |[ g K |] x j | es trivialmente verdadera con cual­
quier K si x = 0, la definición de supremum implica que p = || A ||;
probaremos que, de hecho p = q = r = s = || A |[. Puesto que el
supremum en la expresión de <j se extiende sobre un subconjunto
del correspondiente conjunto para p (esto es, si || x || = 1, entonces
|| Ax ||/ || * || = || A x||), vemos que q g p; un argumento semejante
demuestra que s S r.
Para cualquier xqtO , consideramos y = |y - ^ (de manera que
|¡ S || = 1)¡ tenemos || Ax ||/ || x || = || Ay ||. En otras palabras,
todo número del conjunto cuyo supremum es p ocurre también en
el correspondiente conjunto para q, se sigue que p g q, y consecuente­
mente que p = q = || A ||.
De modo semejante, s i x # 0 y y # 0 , consideramos xf = x / | | x ||
y í ' = y /\\y ||; tenemos
l(A x ,y )|/||x ||-||y ||- |( A x ',y ') |,
y de aqui que, por el argumento que se acaba de usar, r g s , de ma-

Para consolidar nuestra posición, notamos que hasta ahora hemos


probado que
p = q - IIA II and r =■ >.
Puesto que
|(Ax,y)| [| Ax || • |[ p || || Ax ||
11*11 - IIWII | * | - I » | " 11*11 ’
se sigue que r g p; completaremos la prueba demostrando que p £ r .
Para este propósito consideramos cualquier vector x para el cual
Axqí=0 (de manera que x # 0 ); para una tal x escribimos y = Ax
y tenemos
|| Xx U/ll x || - \{Ax, y)|/||x || • || y ||.
En otras palabras, probamos que todo número que ocurre en el con­
junto que define a p, y es diferente de cero, ocurre también en el
conjunto del cual r es supremum; esto claramente implica el resultado
deseado.
La función numérica de una transformación A dada por 11 A 11
satisface las siguientes cuatro condiciones:
(0 » X + fl || á | X ||+ 111111,
(2) IIAB || á || X || - 1| £ ||,

La prueba de las primeras tres de éstas es inmediata de la definición


de la norma de una transformación: para la prueba de (4) usamos
la ecuación || A || = r, como sigue. Puesto que
|(¿*. ¥)| - | <*, A*y)| S || x || - || A 'y |
s Bx* || - D* II - II y II.
vemos que || A || g || A* ||; reemplazando A por A* y A* por A’ *
= A, obtenemos la desigualdad reciproca.

EJERCICIOS
I . S I B o invertible. entonce. ||AB|| g || A |J/II B'1 II P " “ »da A.
2. ¿E. verdad para cada transformación lineal A que || A*A || = AA* ||?
^ (a) Si A e. hermitiana y .1 « g 0. entonce, una condición neccaria
(b) Si A es hermitiana, .1 a g A g /?, y ai p es un
p(t) g 0, cada vea que « g t g 0, entonce. p(A) g 0.
(c) Si A es hermitiana, el a g A g 0, y si p es un
p(t) 0, cada vez que a g t g 0, entonce. p(A ) es invertible.

§89. LIMITES DE UNA TRANSFORMACION AUTOADJUNTA

Como de costumbre podemos decir un poco más del caso espe­


cial de una transformación autoadjunta que en el caso general. Con­
sideramos, para cualquier transformación autoadjunta A, los conjun-

* - ((Ax, x)/|| * ||a: x yó 0|

* - { ( A . , x ) : |x ||- l |.
Esta claro que + C *. Si para toda x 0, escribimos y = x /|| x||,
entonces II y || = 1 y (Ax, x ) / || x ||’ = (Ay, y), de manera que todo
número de ó ocurre también en + y, consecuentemente ó = ♦. Es­

te m inf # - inf ♦,
0 - sup » - sup Ir,

y decimos que a es el limite inferior y 0 es el limite superior de la


transformación autoadjunta A. Si recordamos la definición de trans­
formación positiva, vemos que a es el número real máximo para
cual A - « g 0 y /? e s e l número real mínimo para el cual ( I - A 2 0.
Con relación a estos números aseguramos que
y = máx (|a|, |í|) = || A ||.
La mitad de la prueba es fácil. Puesto que
|(A * ,* )|S M * II-11*11 S IIA || • n* II*.
está claro que tanto |«| como |/3| están dominados por || A ||. Para
probar la desigualdad reciproca, observamos que el carácter positivo
de las dos transformaciones lineales y - A y y + A implica que ambas
(y + A)*(y - A)(y + A) - (y + A)(y - A)(y + A)

(y - A)*(y + A)(y - A) - (y - A)(y + A)(y - A)


son positivas y, en consecuencia, lo es también su suma 2y(y2 - A').
Puesto que y = 0 implica || A || = 0, la aserción es trivial en este caso;
en cualquier otro caso podemos dividir entre 2 y obtenemos el re­
sultado de que / - A’ g 0. En otras palabras
yj || z ||! - ys(x, z)S{A íz, x) - | | A x ||j,

de donde y 2 |] A ||, y la prueba es completa.


Llamamos la atención del lector al hecho de que el cómputo en
el cuerpo principal de esta prueba podría haber sido evitado entera­
mente. Puesto que tanto y - A como y + A son positivas, y puesto
que conmutan, podemos concluir inmediatamente (§82) que su
producto y’ —A2 es positivo. Presentamos el método indirecto conse­
cuentemente con el principio de que, con vista a las generalizaciones
de la teoría, debería uno evitar el uso del teorema espectral simpre
que sea posible. Nuestra prueba del hecho de que la positividad y la
conmutatividad de A y 6 implican la positividad de AB estaba basada
sobre la existencia de raíces cuadradas para transformaciones posi­
tivas. Este hecho, de seguro, puede obtenerse por métodos llamados
"elementales", esto es, método que no usan el teorema espectral, pero
hasta la prueba simple más elemental implica complicaciones que
son puramente técnicas, y, para nuestros propósitos no particular­
mente útiles.

§9(1. PRINCIPIO MINIMAX

Un hecho muy elegante y útil, relativo a las transformaciones au-


toadjuntas es el siguiente principio mirdmax.
Teorema. Sea A una transformación autoadjunta sobre un
espacio n-dimensional de producto interior Ti, y sean A,, . . . ,
A. los valores propios (no necesariamente distintos) de A, con la
notación escogida de tal modo que A, g A, S . . . g A». Si, para
cada subespacio, 311 de V,
U(m) - Bup I(Ax, x): x in 3TC, || x || - 1|,
y si, para k = 1 n,
tu = ¡ni {/i(3H); dim 3R = n —k + 1),
entonces ji* = A* para k = 1, . . . , n.
Prueba. Sean (x,, una base ortonormal en V para
la cual Ax, = \,x¡, i = 1 n, (579); sea 3R, el subespacio sobre-
tendido por x„ . . . , x«, para fe = 1, . . . , n. Puesto que la dimensión
de 3Ri, el subespacio 3d, no puede ser disjunto de cualquier subespa­
cio (n - fe + 1 )-dimensional en 3lt ; si V es uno de esos espacios,
podemos encontrar un vector x que pertenece tanto a 3TC» como a 3It
y tal que |[ x || = 1. Para estar = ]£*_, {.*■ tenemos
(Ax, x) - EÍ-.Xrl&l* S \k Z f - i l&l*
- A ,||r ||* - X t>
de manera que n( 3lt) 2 A*.
Si, por otra parte, consideramos el subespacio Sito particular
(n —fe + 1 )-dimensional, sobretendido por x», x,., x „ entonces
para cada x — de este subespacio, tenemos, (suponiendo
11*11 = 1)
(Ax, x) - £?-* A.u.f s A» Er-tl&l*
- Xfc|| x IIa - Ab
de manera que fi(SHo) g A*.
En otras palabras, como 3lt corre sobre todos los subespacios
(n —fe + 1 )-dimensionales, /i( 3tl) es siempre g A», y es cuando
menos una vez g A»; esto demuestra que n = A», como habla de pro-

En particular, para fe = 1, vemos (usando el §89) que si A es


autoadjunta, entonces || A || es igual al máximo de los valores ab­
solutos de los valores propios de A.

EJERCICIOS
§91. CONVERGENCIA DE TRANSFORMADORES LINEALES

Retomamos a hora a la consideración de problemas de conver­


gencia. Hay tres sentidos obvios en que podemos tratar de definir
la convergencia de la secuencia (A.) de transformaciones lineales
a una transformación lineal fija A.

(i) |¡A» - A|| -* 0 a medida que n -» ce.


(U) ||A¿r - A x||-+0, a medida que n-* co para cada * fija.
(iii) |(A»x, y ) - (Ax, p ) |-* 0 , a medida que n-> » para cada
* y y fijas.
Si (i) es verdadera, entonces para cada x,
|| Aje - Ax || - || (A. - A)x || S || A . - A || • Hx || —. 0,
de manera que (i) =» (ii). Hemos visto ya (§86) que (ii) => (iii)
y que en espacios finito-dimensionales (iii) (ii). Es aun verdad
que en espacios finito-dimensional (ii) =» (i), de manera que
las tres condiciones son equivalentes. Para probar esto, sea (ii, . . . .
x») una base ortonormal en V. Si suponemos que (ii) es válido,
entonces, para cada t > 0, podemos encontrar n0 = Jio(e) tal que
|| Ajc¡ - Ax¡ || < t para n £ n„ y para t = 1 N. Se sigue
que para una x = (x, xi)x¡, arbitraria, tenemos

n (A. - A)x II - IlE í (*, *i)(A. - A)xt II


S S í II * II • II (A« —A)x¡ || S «lí Hx ||,
y esto implica (i).
Es fácil también probar que si la norma se usa para definir una
distancia para transformaciones, entonces es completo el espacio
métrico resultante, esto es, si || A» - A , || -» 0 , a medida que n,
m -* oo, entonces hay una A tal que || A„ - A || -» 0. La prueba de
este hecho se reduce al hecho correspondiente para vectores. Si
|| A„ - A„ || -» 0, entonces || Aje - A je 11— » 0 para cada x , de ma­
nera que podemos encontrar un vector correspondiente a x, que po­
demos denotar por Ax, por ejemplo, tal que || Aje - Ax || -» 0. Está
claro que la correspondencia de x a Ax es dada por una transforma­
ción lineal A; la relación de implicación (ii) =» ( i) anteriormente
probada, completa la prueba.
Ahora que sabemos lo que significa la convergencia para trans­
formaciones lineales, nos corresponde examinar alguna funciones
simples de estas transformaciones a fin de verificar su continuidad.
Afirmamos que || A ||, || Ax||, (Ax, y ), Ax, A + B, aA, AB, y A*
todas definen funciones continuas de todos sus argumentos simultá­
neamente. (Obsérvese que las tres primeras son funciones numérico-
valuadas, la siguiente es vector-valuada y las cuatro últimas son
transformaciones valuadas). Las pruebas de estos enunciados son to­
das completamente fáciles y similares entre sí; para ilustrar las
ideas, discutimos l| A ||, Ax, y A*.
(1 ) Si A.-* A estoes, | | A „ - A || — » 0, entonces, puesto que
las relaciones
II A, || S || A . - A || + || A 1,

| | A | | s | | A - A . | | + ||A „||

implican que

vemos que || A . || -* || A ||.


(2 ) Si A, -» A y x . -» x, entonces,
|| A^x. - Ax || S || A # , - A x. || + || A x. - Ax || -
de manera que A¿c. -» Ax.
(3 ) Si A. -* A, entonces, para cada x y y,
(A.*x, y) - (x, A,y) = (A„y, x) -» (Ay, x)
- (y, A*x) - (A*x, y),

EJERCICIOS
1. Una secuencia (A.) de transformaciones lineales converge a una trans­
formación lineal A si, y sólo para todo sistema de coordenadas, converge
diente entrada en la matriz de A.
2. Para cada transformación lineal A existe una secuencia (A,) de trans­
formaciones lineales invertibles, tal que A ,-, A.
3. Si E y F son proyecciones perpendiculares, entonces (EFE*) converge,
a medida que n-* oo. a la proyección cuyo alcance es la intersección de los
alcances de E y F.
unitario, entonces una condición necesaria y suficiente para que A" -> 0 es
valor absoluto.

0 10 ••• 0
0 0 1 ••• 0

0 00 1
1 1 1 1
el rango. *** Pro’’ecc n c T ° rang e emdon
6. Pruébese que det y tr son continuos.

§92. TEOREMA ERGODICO

Ha terminado el trabajo de rutina: pasamos a ilustrar la teoría


general, considerando algunos problemas de convergencia muy es­
peciales pero completamente importantes.
T eorema. Si U es una isometria sobre un espacio finito-dimen­
sional de producto interior, y si Hiles el subespacio de todas las
soluciones de Ux = x, entonces la secuencia definida por

converge a medida que n -» co, hacia la proyección perpendicular


E = Pst-
Prueba. Sea 31 el alcance de la transformación linea] 1 —U.
Si * = y - Uy está en 31, entonces

V,x - - (y - Uy + Vy - IPy + • ■ + I P - 'y - U'y)


- - (V - U'y),
de manera que

¿ ( m + IP V D

Esto implica que Vjc converge hacia cero cuando x está en 31.
Por otra parte, si x está en 31t, esto es, Ux = x, entonces V»x = x,
de manera en este caso V .r ciertamente converge hacia x.
Completaremos la prueba demostrando que 3tA = 311. (Esto im­
plicará que todo vector es una suma de dos vectores, para los cuales
(V .) converge, de manera que (V.) converge en todas partes). Lo
que hemos ya probado sobre el límite de_£V„) en 311 y en 31 demues­
tra que (V^c) converge siempre hacia la proyección de x en 311.).
Para demostrar que 3tJ-=DK, observamos que * está en el comple­
mento ortogonal de 31 si y sólo si (x, y - Uy) = 0 para toda y. Esto,
a su vez, implica que
0 - (x, y - Uy) - (x, y) - (x, Uy) - (x, y) - (U'x, y)
- (x - U'x, y),
esto es, que x - U 'x = x — U 'x es ortogonal a cada vector y, de
manera que x — U 'x = 0, x = U'-x, o U x = x. La lectura del último
cálculo de derecha a izquierda, demuestra que esta condición necesa­
ria es también suficiente; necesitamos solamente recordar la defini­
ción de 3IZ para ver que 5TC—se-1.
Esta prueba tan ingeniosa, que es válida sólo con muy ligeras
modificaciones en la mayor parte de los casos infinito-dimenciona-
les, es debida a F. Riesz.

§93, SERIES DE POTENCIAS

Consideramos a continuación la llamada serie de Neuman


donde A es una transformación lineal con norma < 1 sobre
un espacio vectorial finito-dimensional.
Si escribimos
4 -2 2 -4 " .
entonces
(1) (1 - A)S, - S, - AS, - 1 - A '+1.
Para probar que S, tiene un limite, a medida que p -» a>, conside­
ramos (para dos Índices cualesquiera p y q, con p > q)
ii sr - s , i S ii a ' H s E :- ,+1 n a i i* .
Puesto que || A || < 1, la última cantidad escrita se aproxima a cero
a medida que p, t¡ -» tn; se sigue que S, tiene un limite S, a media
que p-> x . Para evaluar el limite, observamos que 1 - A es inver­
tible. (Prueba: (1 - A )x = 0 implica que Ax = x, y, si x •£ 0, esto
implica que || Ax || = || x || > || A || • ||x ||, una contradicción). De
aquí que podamos escribir (1) en la forma
(2) Sp - (1 - A '« )(l - A)-> - (1 - A)->(1 - A»+>);
puesto que A**' —>0, a medida que p -» m, se sigue que S =
(1— A ) '.
Como otro ejemplo de una serie infinita de transformaciones, con­
sideremos la serie exponencial. Para una transformación lineal arbi­
traria A (no necesariamente con || A [¡ < 1) escribimos

s-
Puesto que tenemos
l |S p - s j s ^ M il-,

y puesto que el lado derecho de esta desigualdad, siendo parte de la


serie de potencias para exp || A || = e11'111. converge hacia 0, a medida
que p, q -* co, vemos que hay una transformación lineal S tal que
S, —►S. Escribimos S = exp A; solamente mencionaremos algunas de
las propiedades elementales de esta función de A.
La consideración de las formas triangulares de A y de S, demues­
tra que los valores propios de exp A, justamente con sus multiplici­
dades algebraicas, son iguales a las exponenciales de los valores pro­
pios de A. (Este argumento, asi como algunos de los que siguen, se
aplica directamente sólo al caso complejo; el caso real tiene que ser
deducido vía complejificación). De la consideración de la forma trian­
gular se sigue también que el determinante de exp A, esto es H m
exp A,, donde Ai, . . . , A,- son los valores propios de A (no necesaria­
mente distintos), es igual que exp (A, + . . . + A») = exp (tr A).
Puesto que exp { =¡í 0, esto demuestra, incidentalmente, que exp A
es siempre invertible.
Considerada como función de una transformación lineal, expo­
nencial retiene muchas de las simples propiedades de la función
ordinaria numérica exponencial. Tomemos, por ejemplo, cualesquiera
dos transformaciones lineales conmutativas A y B. Puesto que exp
(A + B) — exp A exp B es el limite (a medida que p -» oo) de la
expresión

E : - . ¿ ( A + B)' - S i - o ¿ A “ -

habremos probado la regla de multiplicación para exponenciales,


cuando hayamos probado que esta expresión converge hacia cero.
^Aquí representa el coeficiente combinatorio . .'j Una
fácil verificación resulta en el hecho de que k + m g p el producto
A"B* ocurre en ambos términos de la última expresión escrita, ccm
coeficientes que difieren en signo únicamente. Los términos que
no se cancelan están todos en el substraendo y juntos son iguales a

extendiéndose la sumo sobre los valores de m y fc que son g p y para


los cuales m + k > p. Puesto que m + k > p implica que cuando
menos uno de los dos enteros m y fc es mayor que el entero parte
de jj| (en símbolos [£]), la norma de este resto es dominada por

+ E : .o ^ ii a y- ii b f

- ( e = - ¿ m p ) ( s íb Íi. i> )

- (exp II A ||)«, + (exp || B ||)/3„


donde « , - * 0 y í , - * O a medida que p -» oo.
Métodos similares sirven para tratar f(A ), donde f es una fun­
ción representable por una serie de potencias
m - E ;- o ° .r,
y donde || A || es (estrictamente) más pequeña que el radio de con­
vergencia de la serie. Dejamos al lector la verificación de que el
cálculo funcional que estamos sugiriendo es consistente con el cálculo
funcional para transformaciones normales. Asi, por ejemplo, exp A
como se define anteriormente, es la misma transformación li­
neal, como se define por nuestra noción previa de exp A, en caso
de que A sea normal.

EJERCICIOS
1. Dése una prueba alternativa del teorema ergódlco. basada sobre el teo­
rema espectral para transformaciones unitarias.
2. Pruébese que si || 1 —A || < 1, entonces A es invertible, considerando
APENDICE

ESPACIO DE HILBERT

Probablemente la más útil y, ciertamente, la mejor desarrollada


generalización de la teoría de espacios finito-dimensionales de pro­
ducto interior es la teoría de espacio de Hilbert. Sin entrar en deta­
lles, y enteramente sin pruebas, intentaremos indicar ahora cómo
procede esta generalización y cuáles son las principales dificultades
que tenemos que vencer.
La definición de espacio de Hilbert es fácil: es un espacio de
producto interior que satisface una condición extra. Que esta con­
dición, (a saber, completividad), queda automáticamente sadsfecha
en el caso finito-dimensional, se prueba en el análisis elemental. En
el caso infinito-dimensional puede ser posible que para una secuen­
cia (x .) de vectores || x. - x , || -* 0, a medida que n. m -» pero,
no obstante, no hay un vector x para el cual ||x . - x | | - » 0 , la
única manera efectiva de descartar esta posibilidad es suponer lo
contrario. En otras palabras: un espacio de Hilbert es un espacio
completo de producto interior. (Algunas veces el concepto de espa­
cio de Hilbert se restringe por condiciones adicionales, cuyo propósito
es el de limitar el tamaño del espacio, de arriba y de abajo al mismo
tiempo. Las condiciones más usuales requieren que el espacio sea in­
finito-dimensional y separable. En años recientes, desde que se ad­
virtió que esas restricciones adicionales no dan por si mismas buenos
resultados, se ha hecho constumbre usar el "espacio de Hilbert” para
el concepto que definimos).
Es fácil ver que el espacio 9 de polinomios con el producto inte­
rior definido por (x, y) = J x(t)y(t)dt no es completo. En cone­
xión con la plenitud o completividad de ciertos espacios particulares
de Hilbert, hay un conocimiento matemático completamente extenso.
Asi, por ejemplo, la principal aserción del celebrado teorema de
Riesz-Fischer es que un espacio de Hilbert, construido con el con-
junto de todas las funciones x para las cuales J " | x ( t) |'d t < <o (en
el sentido de la integración de Lebesgue) es un espacio de Hilbert
(con formalmente la misma definición de producto interior que
para los polinomios). Otro popular espacio de Hilbert, que recuerda
por su apariencia el espacio de coordenadas finito-dimensionales, es
el espacio de todas las secuencias ({„) de números (reales o com­
plejos, como sea el caso) para las cuales converge.
Usando la plenitud a fin de discutir inteligentemente la conver­
gencia de algunas sumas infinitas, se puede proceder durante bas­
tante .iempo en la construcción de la teoría de los espacios de Hilber*
sin encontrar dificultades debidas a la infinito-dimensionalidad. Así,
por ejemplo, las nociones de ortogonalidad y de conjuntos completos
ortonormales pueden definirse en el caso general exactamente como
las definimos. Una prueba de la desigualdad de Bessel y de la equi­
valencia de las varias formulaciones posibles de plenitud para con­
juntos ortonormales, tienen que sufrir solamente ligeros cambios ver­
bales. (La convergencia de las diversas sumas infinitas que entran,
es una consecuencia automática de la desigualdad de Bessel). Nues­
tra prueba de la desigualdad de Schwarz es válida, tal como está, en
el caso más general. Finalmente, la prueba de la existencia de con­
juntos ortonormales completos se parece bastante a la prueba en el
caso finito. En la prueba inconstructiva, el lema de Zom (o induc­
ción transfinita) reemplaza la inducción ordinaria, y aun los pasos
constructivos d i proceso Gram-Schmidt son efectuados fácilmente.
En la discusión de múltiples, funcionales, y transformaciones
la situación se vuelve incómoda si no hacemos una concesión a la
topología del espacio de Hilbert. Pueden probarse buenas generaliza­
ciones de todos nuestros enunciados para el caso finito-dimensional,
si consideramos múltiples lineales cerrados, funcionales lineales con­
tinuas, y transformaciones lineales limitadas. (En un espacio finito-
dimensional, todo múltiple lineal es cerrado, toda funcional lineal
es continua y toda transformación lineal es limitada). Si, en cambio,
convenimos en hacer estas concesiones, entonces una vez más po­
demos deslizamos por inercia sobre nuestras pruebas finito-dimensio­
nales, la mayor parte del tiempo sin cambio alguno, y con sólo la
inserción de una c ocasional el resto del tiempo. Así, una vez más
obtenemos que V - su ©3ltx, que ¡JTC- SHA1, y que toda funcional
lineal de x tiene la forma (x, y); nuestras definiciones de transfor­
mación autoadjunta y transformación positiva todavía tienen sentido,
y todos nuestros teoremas sobre proyecciones perpendiculares (asi
como sus pruebas) pasan sin cambio.
La primera insinuación de cómo pueden descomponerse las cosas
viene del estudio de las transformaciones ortogonales y unitarias.
Llamamos todavia a una transformación U ortogonal o unitaria (se­
gún el espacio es real o complejo) si UU• = U*U = 1, y es aún
verdadero que esa transformación es isométrica, esto es, que 11 Ux 11
= | | x | | para toda x, o, equivalentemente, (Ux, Uy) = (x , y ) para
toda x y y. Es, sin embargo, fácil de construir una transformación
isométrica que no sea unitaria; a causa de su importancia en la cons­
trucción de contraejemplos, describiremos esa transformación. Con­
sideremos un espacio de Hilbert en que hay un conjunto ortonormal
completo contable, digamos (x„, x „ x ,, . . . } . Una transformación
lineal única limitada U se define por las condiciones U x. = x . + 1
para n = 0, 1, 2 Esta U es isométrica (U ‘ U = 1 ), pero, puesto
que UU’x0 - 0, no es verdad que UU' = 1.
Es cuando llegamos a la teoría espectral cuando todo el sabor del
desarrollo cambia radicalmente. La definición de valor propio con un
número A para el cual A x = Ax tiene una solución no cero, tiene
aún sentido, y todavia es verdadero nuestro teorema sobre la realidad
de los valores propios de una transformación autoadjunta. La no­
ción de valor propio pierde, sin embargo, mucho de su importancia.
Los valores propios son tan útiles en el caso finito-dimensional, por­
que son un modo de cómo describir el hecho de que hay algo que no
anda bien con el reciproco de A — A, y la única cosa que puede re­
sultar errónea es que el recíproco se niegue a existir. Cosas ensen-
cialmente diferentes pueden suceder en el caso infinito-dimensional;
justamente para ilustrar las posibilidades podemos mencionar, por
ejemplo, que puede existir la recíproca de A —A, pero ser ilimitada.
Que no hay una generalización útil de determinante y, en consecuen­
cia, de la ecuación característica, es la menor de nuestras preocupa­
ciones. Toda la teoría ha, de hecho, alcanzado su plena belleza y ma­
durez sólo después de que se renunció a la profusa imitación de los
métodos finito-dimensionales.
Después de cierta valuación del hecho de que el caso infinito-di­
mensional tiene que vencer grandes dificultades, viene como una
agradable sorpresa que el teorema espectral para transformaciones
autoadjuntas (y, en el caso complejo, hasta para normales) tiene una
generalización muy bella y poderosa. (Aunque describimos el teorema
sólo para transformaciones limitadas, hay uña gran clase de ilimi­
tadas para las cuales es válido). A fin de estar en condiciones de
establecer la analogía, reexaminemos el caso finito- dimensional.
Sea A una transformación lineal autoadjusta sobre un espacio
finito-dimensional de producto interior, y sea A = £ íA,F, su forma
espectral. Si M es intervalo en el eje real, escribimos E(M) para la
suma de todas las F, para las cuales x, pertenece a M. está claro que
E(M) es una proyección perpendicular para cada M. Las siguientes
propiedades de la función-intervalo, proyección-valuada E son las cru­
ciales: Si M es una unión de una colección contable (M.) de interva­
los disjuntos, entonces
(X)
y si M es el intervalo impropio consistente en todos los números
reales, entonces E(M) = 1. La relación entre A y E es descrita por
la ecuación
A - EiX,E(lM ),
donde, por supuesto, {A,} es el intervalo degenerado consistente del
solo número x¡. Los que están familiarizados con la integración Le-
besgue-Stieltjes reconocerán la última suma escrita como una suma
tipica aproximante a una integral de la forma I A dE(X) y, en con­
secuencia, verán cómo puede uno esperar que vaya la generalización.
El concepto algebraico de suma es reemplazado por el concepto ana­
lítico de integración; la relación generalizada entre A y E es descrita
por la ecuación

Con la excepción de esta alteración formal, el teorema espectral para


transformaciones autoajustas es verdadero en el espacio de Hilbert.
Tenemos, por supuesto, que interpretar correctamente el significado
de las operaciones limitantes implicadas en (1 ) y (2 ). Una vez más
estamos confrontados con las tres posibilidades mencionadas en el §
91. Se llaman, respectivamente, convergencia uniforme, fuerte y
débil, y resulta que tanto a (1 ) como a (2) puede darse la inter­
pretación fuerte. (El lector deduce, por supuesto, de nuestro len­
guaje que en un espacio finito-dimensional de Hilbert las tres posibi­
lidades son en realidad distintas).
Hemos visto que las proyecciones F, que entran en la forma es­
pectral de A en el caso finito-dimensipnal son funciones muy sen­
cillas de A (§ 82). Puesto que las E(M) se obtienen por suma de las
F), son también funciones de A, y es completamente fácil describir
qué funciones. Escribimos g»(£) = 1, si £ está en M y g*(£) = 0 de
otro modo; entonces E (M ) = gM(A ). Este hecho da la pista principal
hacia una posible prueba del teorema espectral general. El procedi­
miento usual consiste en discutir el cálculo funcional para polino­
mios y, por procesos limitadores, extenderlo a una clase de funciones
que incluye todas las funciones gM. Una vez hecho esto, podemos
definir la función-intervalo E escribiendo E(Af) = g*(A); no hay
dificultad particular en establecer que E y A satisfacen a ( 1 ) y (2).
Después de que se ha probado el teorema espectral, es fácil de­
ducir del mismo las versiones generalizadas de nuestros teoremas
concernientes a ralees cuadradas, el cálculo funcional, la descom­
posición polar, y las propiedades de conmutatividad, y, de hecho, con­
testar prácticamente toda pregunta susceptible de hacerse sobre trans­
formaciones normales limitadas.
Las dificultades que quedan son las consideraciones de transfor­
maciones no normales y no limitadas. Con respecto de las transfor­
maciones generales no normales, es completamente fácil describir
el estado de nuestro conocimiento; es no existente. No existe una
generalización aun insatisfactoria para la forma triangular o la forma
canónica de Jordán, y la teoría de los divisores elementales. Muy
diferente es la situación concerniente a las transformaciones nor­
males (y particularmente autoadjuntas), no limitadas. (E l lector
simpatizará con el deseo de tratar esas transformaciones si recuerda
que la primera y más importante operación funcional que la mayor
parte de nosotros aprendemos es la diferenciación). En este parti­
cular, insinuaremos apenas el principal obstáculo que confronta la
teoría. No es muy difícil demostrar que si una transformación lineal
autoadjunta está definida por todos los vectores del espacio de Hilbert,
entonces está limitada. En otras palabras, el primer requisito concer­
niente a transformaciones que nos vemos obligados a renunciar, es
que pueden estar definidas en todas partes. La discusión del dominio
preciso sobre el cual puede definirse una transformación autoadjunta
hasta la cual puede ser agregado este dominio, es la nueva dificultad
principal que se encuentra en el estudio de transformaciones no
limitadas.
LECTURAS QUE SE RECOMIENDAN

La siguiente lista, muy breve, no tiene ta pretensión de ser completa: sola­


mente contiene un par de obras representativas de las diversas direcciones
en que puede intentar marchar el lector.
Para álgebra lineal y multilineal generalizada (pero, generalmente, finito-
dimensional):
1. N. Bourbaki. Algebre, Chap. 11 (Algibre linóniré), Paris, 1947 y Chap. III
(Algébre multilínéaire), Paris, 1948.
2. B. L. VAN deb Waereen. Modem Algebra, Nueva York, 1953.
Para conexiones con el análisis clásico y moderno:
1. S. Banach, Théorie des opérations lindarles, Warszawa, 1932.
2. F. Riesz y B. Sz-Nacy, Functional Analysis, Nueva York, 1955.
Para la geometría del espacio de Hilbert y transformaciones sobre el mismo:
1. P. R. Halmos, Introducción to Hilbert apoce, Nueva York, 1951.
2. M. H. Stone, Linear transformation m Hilbert space, Nueva York, 1932.
Para el contacto con la física clásica y moderna:
1. R. Courant y D, Hilbert, Methods of mathematical physics, Nueva York,
1953.
2. J. von Neumann, Mathematical foundations of quantum mechantes, Prin-
IN D IC E D E SIM B O L O S

a* Q
W. <R
A' «(A)
r(A)
[A; se]
A* Re
P(A)
IIAII
e
sgn
e"
Si
i,
det

Ea
U"
V/3ÍI
U+
ff" ■u*
3C + X [x,V)
<*, y)
Im 3C'
inf Z + 3TI
31t°° (*,»)
M il
3I(A)
Zm
y(A)

n
<P

<p.
(p, 9)
I N D I C E

—D—
Adjunto, 98, 108 Degenerado, 51
Alcance, 110 Descomposición cartesiana, 167
Descomposición polar, 206
Algebraicamente cerrado, 127 Desigualdad de Bessel, 152
Aniquilador, 37 Desigualdad de Schwartz, 153
Autoadjunto, 165 Determinante, 121
Automorfismo, 107 Diagonable, 132
Dimensión, 24
Dimensión ortogonal, 150
Divisor elemental, 140
Bases, 19 Divisor simple elemental, 140
dual, 33
espacio, 31
ortonormal, 157
Buena ordenación, 22
de un campo, 10
Ecuación de Hamilton-Cayley, 140
Equivalente, ortogonal, 193
Campo, 10 unitaria, 192
Equivalente, 108
Ciclo, 58 Escalar, 9
Ciclos disjuntos, 58 Espectro, 127
subespacios, 27 Espacio de coordenadas, 12, 13
Conjunto, 45 conjunto ortonormal, 149
Cogrediente, 104 de Hilbert, 227
Columna, 83 de producto interior, 148
rango de, 112 euclidiano, 149
Combinación lineal, 18 métrico completo, 212, 227
nulo, 110
Complejificación, 55, 184 por cociente, 46
Complemento, 29 sobretendido, 27
Complemento ortogonal, 151 unitario, 149
Conjugación, 177
Contragrediente, 104 vectorial complejo, 13
Contravariante, 104 vectorial finito-dimensional, 19
Convergencia, 211, 219 vectorial racional, 12
Convexo, 197 Espacios vectoriales normados, 155
Covariante, 104
ESPACIOS VECTOSIAI.ES PINITO-DIMENSIONALES

Isomorflsmo, 24

io de la, 219
le la, 189
funcional, 32, 4 Limitada desde abajo, S
de Jordán, 139 Limite inferior, 216
multilineal, 62
positiva definida, 1-
simétrica, 64
bilineal, 51

Menor principal, 203


Módulo, 14
Múltiple Uneal, 26
Multiplicidad, 127
de divisores elementales, 14
Multiplicidad, 126
algebraica, 128

Nilpotente, 133
Norma, 149
de una transfoi
Normal, 193
No degenerado, 5
singular, 122
Nulidad, 112

Operador, 71
Orden de una p
239

Paridad, 61 Series de Neumann, 223


Parte imaginaria de un número com­ Signum, 61
plejo, 154 Simetría hermitlana, 165
Parte real de un espacio vectorial, 13 Similar, 106
de un número complejo, 155 Singular, 122
Subespacio, 26
de una transformación, 167-168 Subgrupo, 62
Permutación, 55 Suma directa, 40
impar, 61 directa externa, 42
interna directa, 42
Polarización, 168 Supremum, 213
minimo, 140
par, 30
Principio minimax, 217 Teorema de Riesz-Fischer, 227
Proceso de ortogonalizaclón de Gram- ergódico, 222
Schmidt, 156 Transformación hermitiana, 165
Producto, de Hademard, 210 homogénea, 71
de Kroneacher, 120 limitada, 212
de permutaciones, 56 lineal, 71. 73
de transformaciones lineales, 74 ortogonal, 173
producto escalar, 147 positivas, 170
interior, 147, 146 simétrica, 165
oblicua, 166
tensorial de espacios, 53 unitaria, 173
de transformaciones, 117 Transformada de Cayley, 177
Proyección, 92 Transposición, 58
perpendicular, 178 Transpuesto, 102
Proyecciones ortogonales, 179 Traza, 129, 133
Punto extremo, 197

Valor propio, 126


Rango, 112 simple, 126
Vector, 11
de la fila, 113 propio, 126
ReducibiUdad, 91 Vectores congruentes. 48
Reflexibilidad, 40 transformaciones de, 164
Relación de equivalencia, 48 ortogonales. 149
ALGEBRA Y TRIGONOMETRIA PLANA
Por A braham S p itz b a rt y Ross H. B a r d e ll
Tela, 468 Págs. Ilustrado

Una modalidad del presente libro es la extensa discusión de las


fórmulas trigonométricas de reducción. Las demostraciones de es­
tas fórmulas no son fácilmente asequibles para el lector interesado,
y esperamos que los estudiantes apreciarán la demostración com­
pleta dada. Puede omitirse el estudio de la demostración sin pertur­
bar lo restante del tratado.


METODOS NUMERICOS EN INGENIERIA
Por M ario G. S a lv a d o ri y M elvin L. Barón
Tela, 314 Págs. Ilustrado

Este curso es el último de una serie de cinco, impartido por el


autor con el fin de ampliar los conocimientos matemáticos, tanto
de los alumnos graduados como de los no graduados y para llenar
el vacio existente entre un conocimiento teórico de las matemáticas
y la resolución de problemas físicos por métodos matemáticos.


CALCULO AVANZADO
Por Lotus Brand
Tela, 700 Págs. Ilustrado

CONTENIDO: 1. El sistema de los números; 2. Secuencias y


series; 3. Funciones de una variable; 4. Funciones de variables múl­
tiples; 5. Vectores; 6. La integral definida; 7. Integrales impropias;
8. Integrales lineales; 9. Integrales múltiples; 10. Convergencia uni­
forme; 11. Funciones de .variable compleja; 12. Series de Fourier.
Apéndices: 1. Puntos de acumulación; 2. Ecuaciones de diferencia;
3. Cálculo de diferencias: 4. Comprobaciones dimensionales. Prueba
general; Respuestas a los problemas.

Potrebbero piacerti anche