Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
F IN IT O -D IM E N S IO N A L E S
por
P aul R. Halmos
Por
PAUL R. HALMOS
Profesor de Matemáticas
Universidad de Michigan
Traducido por:
PROF. GABRIEL AGUIRRE CARRASCO
Catedrático de la Universidad Autónoma de Puebla
P. R. H.
C O N T E N I D O
C ap . PAg-
1. ESPACIOS ...................................................................................... 9
S. TRANSFORMACIONES L IN E A L E S......................................... 71
ESPACIOS
§1. CAMPOS
En cuanto a "positivo'', indicamos con esta palabra, aqui y en todo este libro,
"mayor que o igual a cero". Si ha de excluirse a cero, diremos "estrictamente
positivo".)
(c) ¿Pueden cambiarse las respuestas a estas preguntas volviendo a de
finir la adición o la multiplicación, o ambas?
3. Sea m un entero, m > 2. y sea el conjunto de todos los enteros
sea a + 0 el menor resto positivo obtenido m dividiendo la suma (ordinaria)
de a y 0 por m, y de modo semejante, sea a0 el menor resto positivo obtenido
dividiendo el producto (ordinario) de a y 0 por m. (Ejemplo: al m = 12,
crucial en el segundo.)
S. Sea <X-v/5) el conjunto de todos los números reales de la forma
a + ffy /2, donde « y p son racionales.
(a) ¿Es tJíVJ) un campo?
(b) ¿Y qué si se requiere que o y 0 sean enteros?
y (a,ffl + ( r , i ) - ( o + 7 ,í + J)
(«,»(■?, «-(ory./W),
§ 2. ESPACIOS VECTORIALES
Llegamos ahora al concepto básico de este libro. Para la defi
nición que sigue suponemos que se nos da un campo particular
los escalares que han de usarse habrán de ser elementos de 7.
Definición. Un espacio vectorial es un conjunto t) de ele
mentos que satisfacen los siguientes axiomas.
(A) A cada par, x y y, de vectores en v corresponde un vector
x + y, llamado la suma de x y y, en tal forma que
( 1 ) la adición es conmutativa, x + y = y + x,
(2) la adición es asociativa, x + (y + x ) = ( x +_«/) + z,
( 3 ) Existe e n t ) un vector único 0 (llamado el origen), tal que
x + 0 = x, para cada vector x, y
( 4 ) A cada vector x e n u corresponde un vector único —x, tal
que x + ( —x ) = 0.
(B) A cada par, a y x, donde a es un escalar y x es un vector
en ti, corresponde un vector ax, en V, llamado el producto de a y
x, en tal forma que
(1 ) La multiplicación por escalares es asociativa, a(fix) =
(«P)x. y
( 2) lx = x para todo vector x.
( C ) ( 1 ) La mult plicación por escalares es distributiva con res
p ecto^ la adición de vectores, (o + j8)x = «x + /Jx.
(2 ) La multiplicación por vectores es distributiva con respecto a la
adición escalar (« + p )x = ax + @x.
No se pretende que estos axiomas son lógicamente indepen
dientes; son meramente una conveniente caracterización de los obje
tos que deseamos estudiar. La relación entre un espacio vectorial u
y el campo subyacente 5 es usualmente descrita diciendo que v
es un espacio vectorial sobre S. Si ff es el campo <R de números
reales, ü se llama un espacio vectorial real; de modo semejante,
si 5 es Q o si 5 es e, hablamos de espacios vectoriales racionales
o de espacios vectoriales complejos.
5 3. EJEMPLOS
Antes de discutir las implicaciones de los axiomas, damos algu
nos ejemplos. Nos referiremos a estos ejemplos u n a y otra vez, y
usaremos la notación aquí establecida en todo el resto de nuestro
trabajo.
( 1 ) Sea e ‘( - C) el conjunto de todos los números complejos;
si interpretamos x + y y «x como adición numérica compleja común
y multiplicación, respectivamente, e 1 se convierte en u n espacio
vectorial complejo.
( 2 ) Sea <p el conjunto de todos los polinomios, con coeficientes
complejos, en una variable t. Para convertir a ( en u n espacio
vectorial complejo, interpretamos la adición vectorial y la multi
plicación escalar como la adición ordinaria de dos polinomios y
como la multiplicación de un polinomio por un número complejo,
respectivamente; el origen de f es el polinomio idéntico a cero.
El ejemplo ( 1 ) es demasiado sencillo y el ejemplo ( 2 ) es de-
(como veremos después, es suficientemente general para todos
nuestros propósitos.
(3 ) Sea C", n = 1, 2, • • • , el conjunto de todos los n tupios
de números complejos. Si x = ({„ • ■•, {„) y y = (y. ■• •, v .) son
elementos de e", escribimos, por definición,
* + V “ (ft + Vii ■• 'i {» + n%),
ax - (ofi, •••,<«$.),
0 - (0, •••,0),
-{.)■
Es fácil verificar que todas las partes de nuestros axiomas (A).
(B) y (C ), § 2, se satisfacen, de manera que C" es un espacio
vectorial complejo; será llamado espacio complejo coordenado n-
dimensional.
(4 ) Para cada entero positivo n, sea <?„ el conjunto de todos los
polinomios (con coeficientes complejos, como en el ejemplo (2 ))
de grado g n — 1, juntamente con el polinomio idéntico a cero.
(En la discusión usual de grado, el grado de este polinomio no está
definido, de manera que no podemos decir que tenga un grado
g n - 1.) Con la misma interpretación de las operaciones lineales
(adición y multiplicación escalar) que en (2), í>. es un espacio
vectorial complejo.
( 5 ) Un pariente cercano de e" es el conjunto ai" de todos
los n-tuplos de números reales. Con las mismas definiciones for
males de adición y multiplicación escalar que para C", excepto que
ahora consideramos solamente escalares reales «, el espacio «*
es un espacio vectorial real; será llamado espacio n-dimensional
real coordenado.
( 6) Todos los ejemplos precedentes pueden generalizarse. Así,
por ejemplo, puede describirse una obvia generalización de ( 1) di
ciendo que todo campo puede ser considerado como un espacio
vectorial sobre si mismo. Una generalización común de (3 ) y de
(5 ) comienza con un campo arbitrario ¡F y forma el conjunto 5*
de n-tuples de elementos de 5; las definiciones formales de las
operaciones lineales son las mismas que para el caso J - C.
(7 ) Un campo, por definición, tiene cuando menos dos ele
mentos; un espacio vectorial, en cambio puede tener solamente
uno. Puesto que todo espacio vectorial contiene un origen, hay esen-
clalmente (esto es, por notación), solamente un espacio vectorial
que tenga solamente un vector. Este espacio vectorial sumamente
trivial será denotado por 0.
( 8) Si, en el conjunto <R de todos los números reales, se define
la adición como de costumbre y la multiplicación de un número
real por un número racional se define como de costumbre, entonces
dt se convierte en un espacio vectorial racional.
(9 ) Si, en el conjunto e de todos los números complejos, la
adición se define como de costumbre y la multiplicación de un
número complejo por un número real se define como de costumbre,
entonces C se convierte en un espacio vectorial real. (Compárese este
ejemplo con ( 1 ); son enteramente diferentes.)
§ 4. COMENTARIOS
Proceden algunos comentarios sobre nuestros axiomas y nota
ción. Hay sorprendentes similaridades (e igualmente sorprendentes
diferencias) entre los axiomas de un campo y los axiomas de un
espacio vectorial sobre un campo. En ambos casos, los axiomas
(A) describen la estructura aditiva del sistema, los axiomas (B)
describen su estructura multiplicativa, y los axiomas (C) describen
la conexión entre las dos estructuras. Los familiarizados con la
terminología algebraica habrán reconocido los axiomas (A ) (tanto
en el § 1 como en el § 2) como las condiciones que definen un
grupo abeliano (conmutativo); los axiomas (B ) y (C) (en el § 2),
expresan el hecho de que el grupo admite escalares y operadores.
Mencionamos de paso que si los escalares son elementos de un
anillo (en vez de un campo), el concepto generalizado correspon
diente a un espacio vectorial se llama módulo.
Espacios especiales vectoriales reales (como « ’ y «*) son fa
miliares en geometría. Parece no haber excusa en esta etapa por
nuestra insistencia, sin aparente interés, en campos distintos de di,
y, en particular, en el campo c de números complejos. Esperamos
que el lector esté dispuesto a confiar en que tendremos que hacer
uso posteriormente de profundas propiedades de los números com
plejos. (conjugación, oclusión algebraica) y que los números comple
jos desempeñan un papel importante tanto en las aplicaciones de
los espacios vectoriales a la ffsica moderna (mecánica cuántica),
como a la generalización matemática de nuestros resultados en el
espacio de Hilbert. Su única gran desventaja es la dificultad de
representación gráfica; la representación gráfica ordinaria (diagra
ma de Argand) de e 1 no se distingue de la de «*, y una represen
tación gráfica de e3 parece estar fuera del alcance humano. En
las ocasiones en que tengamos que usar lenguaje gráfico, usaremos
en consecuencia la terminología de <R" en c", y hablar de e2, por
ejemplo, como de un plano.
Finalmente, hacemos un comentario sobre la notación. Obser
vamos que el símbolo 0 ha sido usado con dos significados: una
vez como escalar y una vez como vector. Para hacer peor la situa
ción, posteriormente, cuando introduzcamos las funcionales lineales
y las transformaciones lineales le daremos otros significados más.
Afortunadamente las relaciones entre las varias interpretaciones
de 0 son tales que, después de esta palabra de advertencia, no debe
suscitarse confusión por esta práctica.
EJERCICIOS
« -(< * ,< »
0 —(0, 0)
- * - < - 6, - 6).
§ 6. COMBINACIONES LINEALES
sencillas implicaciones gramaticales de esta terminología. Diremos,
pues, en caso de que x sea una combinación lineal de {xi}, que x
es linealmente dependiente de {x;}, dejaremos al lector la prueba de
que si (*,} es liealmente independiente, entonces una condición su
ficiente y necesaria para que x sea una combinación lineal de (xi)
es que el conjunto agrandado que se obtiene uniendo x a (Xi), sea
lincalmente dependiente. Nótese que, de acuerdo con la definición
de una suma vacía, el origen es una combinación lineal del conjunto
vacio de vectores; es, además, el único vector con esta propiedad.
§ 7. BASES
Definición. Una base (lineal) (o un sistema de coordenadas)
en un espacio vectorial v es un conjunto X de vectores linealmente
independientes tales que cada vector de v es una combinación lineal
de elementos de a:. Un espacio vectorial v es finito-dimensional si
tiene una base finita.
Excepto para la ocasional consideración de ejemplos-restringiré-
mos nuestra atención, en todo este libro, a espacios vectoriales
finito-dimensionales.
Para ejemplos de bases, volvemos de nuevo a los espacios 9 y e \
En <P,el conjunto (*.}, donde x„(t) = P , n = 0, 1, 2 es una
base; cada polinomio es, por definición, una combinación lineal de
un número finito de x„. Además, 9 no tiene base finita, pues dado
cualquier conjunto finito de polinomios podemos hallar un polinomio
de grado más alto que cualquiera de ellos; este último polinomio, ob
viamente, no es una combinación lineal de los anteriores.
Un ejemplo de una base en e" es el conjunto de vectores x¡,
1 = 1, . . . . n, definido por la condición de que la coordenada de
orden j de x, sea 8¡(. (Aquí usamos por primera vez la popular 8
de Kronecker; se define como Si, = 1, si i = j y 8„ = 0, si i=£j).
Afirmamos asi que en e8los vectores x, = ( 1, 0, 0 ), x, = (0, 1, 0) y
x, = (0, 0, 1 ) forman una base, es fácil ver que son linealmente in
dependientes; la fórmula
* - ( { ., fe, + &** + &**
prueba que cada x de e8es una combinación lineal de los mismos.
En un espacio vectorial finito dimensional general v , con base
{x,. . . , x.}, sabemos que toda x puede escribrse en la forma
*-
afirmamos que las ( están determinadas univócamente por x. La prue
ba de esta afirmación es un argumento usado a menudo en la teoría
de la dependencia lineal. Si tuviéramos x = tj,*,-, tendríamos, por
sustracción,
£ ( (fe - *)*. - 0.
Puesto que las x, son linealmente independientes, esto implica que
fe —i)i = 0 para i = 1, . . ., n; en otras palabras, las ( son iguales que
las i¡. (Obsérvese que escribir (x,,........ x.) para una base con n ele
mentos no es lo que apropiadamente debe hacerse en caso de que
n = 0. No obstante, usaremos frecuentemente esta notación. Cada
vez que se hace eso es, en principio, necesario adjuntar una discusión
separada, designada para cubrir el espacio vectorial 0. De hecho, sin
embargo, todo lo relativo a ese espacio es tan trivial que los detalles
no son dignos de asentarse y los omitiremos.)
Teorema. Si v e s un espacio vectorial finito dimensional y si
{!(„ • • •. í-> es un conjunto cualquiera de vectores linealmente inde
pendientes en 1), entonces, a menos de que las y formen ya una base.
podemos encontrar vectores ym„, . . ym„, de manera que la totalidad
de las y. esto es {y ym, y*.,...........y*.,), sea una base. En otras
palabras, todo conjunto linealmente independiente puede ampliarse
de modo que constituya una base.
Prueba. Puesto que v e s finito-dimensional, tiene una base fini
ta. digamos (x x,}. Consideramos el c o njuntos de vectores
EJERCICIOS
«í, + ós, + rt, = o.
«fe + fii, + W, = o.
«fe + Os. + 11, = o.
Los vectores x, y y z son linealmentc dependientes si y sólo si estas ecuaciones
»s escalares (
e & son lincalmente dependientes?
(b) Bajo qué condiciones impuestas a los escalares í.
a generalización de (a) y (b)
§9. ISOMORFISMO
EJERCICIOS
§ 10. SUBESPACIOS
§ U . CALCULO DE SUBESPACIOS
Teorema 1. La intersección de cualquier colección de subes
pacios es un subespacio.
Prueba. Si usamos un índice » para designar aparte los miem
bros de la colección, de manera que los subespacios dados sean
SIL. escribiremos
Puesto que cada su» contiene a 0, también su, y, en consecuencia
311 no está vacío. Si x y y pertenecen a srt (esto es, a todas las 311,).
entonces ax + py pertenece a todas las su,, y, en consecuencia, su
es un subespacio.
Para ver una aplicación de este teorema supóngase que es un
conjunto arbitrario de vectores (no necesariamente un subespacio),
en espacio vectorial u. Ciertamente existen subespacios su que
contienen todos los elementos de s (esto es, tales que s c 3H );
el espacio total v es, por ejemplo, ese subespacio. Sea su la inter
sección de todos los subespacios que contienen S; está claro que
311 mismo es un subespacio que contiene S. Está claro, además,
que su es el más pequeño de estos subespacios, si s también está
contenido en el subespacio si, s c 31, entonces 3TCc 31. El subes
pacio 3H así definido se llama el espacio sobretendido por s o la
sobretensión de s. El siguiente resultado establece la conexión
entre la noción de sobretensión y los conceptos estudiados en los
§§ 5-9.
T eorema 2. Si S es cualquier conjunto de vectores en un
espacio vectorial v y si na es el subespacio sobretendido por $,
entonces 311 es lo mismo que todo el conjunto de combinaciones
lineales de S.
P rueba. Está claro que una combinación lineal de combina
ciones lineales de elementos de S puede de nuevo ser escrito como
una combinación lineal de elementos de S. De aquí que el conjunto
de todas las combinaciones lineales de elementos de s es un sub
espacio que contiene a S; se sigue que este subespacio debe también
contener a SU- Pongamos ahora el argumento a la recíproca; 3lt
contiene a S y es un subespacio; de aquí que 3tt contenga todas
las combinaciones lineales de elementos de S.
Vemos, en consecuencia, que en nuestra terminología podemos
definir una base lineal como un conjunto de vectores linealmente
independientes que sobrepasa todo el espacio.
Nuestro siguiente resultado será una fácil consecuencia del
Teorema 2-, su prueba puede ser dejada con confianza al lector.
T eorema 3. Si x y x son dos subespacios cualesquiera y si
3il es el subespacio sobretendido por s c j / x juntamente, enton
ces SU es igual al conjunto de todos los vectores de la forma
x + y, con x en x y y en X-
Teniendo en cuenta este teorema, usaremos la notación X + x
para el subespacio 3tl sobretendido por X y X . Diremos que un
subespacio X de un espacio vectorial V es un complemento de
un subespacio X si X íl X = e y
(a)»(*)-fi + {*
(b) v(x) - f. - {.*,
(o) «(*) - í. + 1,
(d) V(z) - {. - 2£, + 3f,.
(e) V « - jW t) d t ,
(e) »(*) = f •
§ 16. REFLEXIBHJDAD
§ 17. ANIQUILADORES
Definición . El aniquilador g° de cualquier subconjunto S de
un espacio vectorial 1) (no es necesario que s sea un subespacio) es
el conjunto de todos los vectores y de V tales que |x, y] sea idénti
camente igual a cero para toda x de i.
Así 6° ■* V' y Va - O (C V'). Si V es finitoriimensional y $ contie
ne un vector no cero, de manera que S O, entonces el Teorema 3
del § 15 demuestra ques0 V .
T eorema 1. Si 3TEes un subespacio m-dimensional de un espacio
vectorial V, n-dimensional, entonces 311° es un espacio (n-m '/-dimen
sional de 1)'.
Prueba. Dejamos a cargo del lector verificar queM ^de hecho,
S° para una S arbitraria) es siempre un subespacio; probaremos
solamente el enunciado concerniente a la dimensión de 311°.
Sea SC= {x, x„) una base enl) cuyos primeros m elementos
están en 311 (y forman, en consecuencia, una base para Sil); sea
SC'= {y y ,) ¡a base dual en V'. Denotamos por 91 el subespacio
(en u ') sobretendido por y„„......... y,; claramente 31tiene dimensión
n-m. Probaremos que 311° = 31.
Si x es cualquier vector de3lt,entonces x es una combinación li-
* = E " -i
V “ L ’-iW /-
Puesto que, por hipótesis, y está en 3H°, tenemos, para cada i = 1.........
EJERCICIOS
. . U ) . » - ( 0, 0, 1, 1).
- 1, 1, 1, 0), y = (0. 1, - 1, 1)
• 0, 0, 0), ii = (0, 0, 0, 1).
0, 0, 1), y - ( 0. 1, 1,0)
§ 21. ESPACIOS COCIENTES
y
to(z, o,y¡ + a2y2) = o,to(i, y,) + o2to(x, y2),
idénticamente en los vectores y escalares implicados.
En una situación especial, ya hemos encontrado funcionales
bilineales. Si, a saber, u es el espacio dual de 111, u = ni', | y si
volvemos a escribir w (x, y ) = [x, y\ (véase el § 14), entonces w
es una funcional bilineal de 11 ® “U'. Para un ejemplo, en una
situación más general, sean m y i) espacios vectoriales arbitrarios
(sobre el mismo campo, como siempre), sean u y v elementos
de ni' y V respectivamente, y escribamos w (x, y) = u ( x ) v ( y )
para toda * de *11 y y de V. Se obtiene un ejemplo todavía más ge
neral escogiendo un número finito de elementos de 11', digamos
u,, . . . . ut, escogiendo el mismo número de elementos finitos de
V', digamos v„ . . . , n y escribiendo w (x, y ) = u ,( x ) v ,( y ) + . . . +
u,(x)v*(y). Cuál de las palabras, "funcional" o “forma" se use
depende-un tanto del contexto y otro tanto más en el capricho del
que lo aplique. En este libro usaremos generalmente “funcional"
con "lineal” y “forma” con "bilineal" (y sus generalizaciones dimen
sionales superiores).
Si w, y w , son formas lineales sobre w , y sí a. y «, son escala
res. escribimos w para la función sobre •w deñnida por
»(*, y) - arito,(x, y) + a2w2(x, y).
Es fácil ver que w es una forma bilineal; lo denotamos por medio
o,w, + a,w,. Con esta definición de las operaciones lineales, el con
junto de todas las formas bilineales sobre V? es un espacio vecto
rial. El principal propósito del resto de esta sección es el determinar
(en el caso finito dimensional) cómo la dimensión de este espacio
depende de las dimensiones de 11 y de
T eorema 1. S itie s un espacio vectorial n-dimensional con base
(x„ . . . , xn), si V es un espacio vectorial m-dimensional con
base {y, ym) y si {a,,} es cualquier conjunto de nm escala
res (i = 1, . . . nt), entonces hay una y sólo una
forma bilineal w sobre *lt ©U tal que uifx¡, y¡) = a¡,, para toda
• y )■
Prueba. Si x « Z< y “ Z y íjy/i y w es una forma bilineal
sobre ni ® V tal que m(xi, j, ) = ai(, entonces
«(*. Jí) ” Z ¡ Z i Vi) ” Z t Z i fiWi-
De esta ecuación resulta clara la unicidad de w, la existencia de una
w adecuada se prueba leyendo la misma ecuación de derecha a iz
quierda, esto es, definiendo por medio de ello a w. (Compárese este
resultado con el § 15, Teorema 1).
Teorema 2. Si mes un espacio vectorial n-dimensional con base
(x,.......... x,), y si V es un espacio vectorial m-dimensional con bo-
se {y,, . . ym), entonces hay una base determinada en forma única
(u H} (p = 1 n¡ q = 1 tn ) en el espacio vectorial de todas
los formas bilineales sobre m ®U con la propiedad de que vi„(x,, x¡)
= tipti,. Consecuentemente, la dimensión del espacio de formas bi
lineales sobre m © U es el producto de las dimensiones de 11 y V.
P rueba. Aplicando el Teorema 1, determinamos ie„ (para cada
p y q fijas), mediante la condición dada w„(x¡, y,) = 84i,S„. Las for
mas bilineales así determinadas son linealmente independientes,
puesto que
Z ,Z .
implica que
O - Z p Z , “m8|,8íg - ttij.
Si, además, ui es un elemento arbitrario de v?,y si ui(x¡, y,) = en
tonces w = Z p Z « <W<W En realidad, si x = Zi£¡*¡ y y = Z (W »
EJERCICIOS
§ 24. PRODUCTOS TENSORIALES
EJERCICIOS
1. Si * = (1. 1) y V = (I. i. 1) son vectores de «*y(R*respectivamente,
producto {*i®í,} donde x¡ = (»„, J„) y j , = (J„, S„, a.,).
§ 26. PERMUTACIONES
El principal tema de este libro es generalmente conocido como
álgebra lineal. En las últimas tres secciones, sin embargo, se puso
énfasis en algo llamado álgebra multilineal. Es difícil decir exacta
mente dónde queda la linea divisoria entre los dos temas. Puesto
que, en cualquier caso, ambos son completamente extensos, no seria
práctico tratar de acumular un tratamiento extenso de ambos en el
mismo volumen. Ni es deseable discutir el álgebra lineal en su es
tado absolutamente puro; la adición de aun una pequeña parte de la
teoría multilineal (tal como está implicada en el moderno punto de
vista de productos tensoriales y determinantes) extiende gratamente
el dominio de la teoría multilineal fuera de proporción al esfuerzo in
volucrado. Nos proponemos, en cosecuencia, continuar el estudio del
álgebra multilineal; nuestra intención es la de trazar una linea más o
menos recta entre lo que ya sabemos y los hechos básicos de los de
terminantes. Teniendo eso presente, dedicaremos tres secciones a la
discusión de algunos sencillos hechos sobre combinatoria; la cone
xión entre esos hechos y el álgebra multilineal aparecerá inmediata
mente después de esa discusión.
Por una permutación de los enteros entre 1 y k (inclusive), sig
nificaremos una transformación uno a uno que asigna a cada uno
de esos enteros otro (o posiblemente el mismo). Decir que la trans
formación ir es uno a uno significa, por supuesto, que si » (1 ),
. . . , ir(fe) son los enteros que ir asigna a l , . . . . k, respectivamen
te, entonces ir(i) = * (j) puede acontecer sólo en caso de que i = j.
Puesto que esto implica que ambos conjuntos {1 k) y {» ( 1 ),
. . . , v (k)) consisten en exactamente fc elementos, se sigue que
constan exactamente de los mismos elementos. De esto, a su vez,
inferimos que una permutación ir del conjunto (1 k) traza un
mapa de ese conjunto sobre sí mismo, esto es, que si 1 S ; g k, en
tonces existe cuando menos una i (y, de hecho, exactamente una)
tal que * (i) = j. El número total de enteros que se consideran, a
saber, k, será mantenido fijo en toda la discusión siguiente.
La teoría de las permutaciones, como todo lo demás, es mejor
entendida observando fijamente algunos ejemplos no triviales. Sin
embargo, antes de presentar cualesquiera ejemplos, mencionaremos
primero algunas de las cosas generales que pueden hacerse con per
mutaciones; por este medio los ejemplos ilustrarán no sólo los con
ceptos básicos, sino también sus propiedades básicas.
Si <r y r son permutaciones arbitrarias, una permutación (que
será denotada por <rr) puede definirse escribiendo
W (fl - »(«)
para cada i. Para probar que m es en realidad una permutación,
obsérvese que si (o r)(i) = ( v r)(j), entonces r(i) = r ( j ) (puesto
que a es uno a uno) y, en consecuencia, i = j, (puesto que r es uno a
uno). La permutación vr se llama el producto de las permutaciones
a y r. Advertencia: el orden es importante. En general, a r ^ n r , o,
en otras palabras, la multiplicación de permutaciones no es conmu-
§27. CICLOS
EJERCICIOS
1. ¿Cuántas permutaciones hay en G*?
2. Dense ejemplos de permutaciones pares con orden par, y de permuta-
cada tactor del cual es uno de los clclos-3 (1, 2, 3) (X. 2, 4) (1. 2, k).
EJERCICIOS
TRANSFORMACIONES LINEALES
(1) AO = OA = 0,
(2) 1A - A,
(3) A(B + C) - AB + AC,
(4) (A + B)C - A C + BC,
(6) A(BQ - (AB)C.
§35. POLINOMIOS
§36. INVERSOS
En cada una de las dos secciones precedentes dimos un ejem
plo; estos dos ejemplos ponen de manifiesto las dos desagradables
propiedades que tiene la multiplicación de transformaciones linea
les, a saber, la no conmutativa y la existencia de divisores de cero.
Pasamos ahora a propiedades más agradables que tienen las trans
formaciones lineales.
Puede suceder que la transformación lineal A tenga una o am
bas de las dos siguientes propiedades muy especiales.
(i) Si Xi 96X1, entonces Axx =£ Ax,.
(ii) A cada vector y corresponde (cuando menos) un vector x
tal que Ax = y.
Si cada A tiene estas dos propiedades, diremos que A es inver-
tible. Si A es invertible, definimos una transformación lineal, lla
mada el inverso de A y denotada por A'1, como sigue. Si y„ es
un vector cualquiera, podemos (por (ii)) encontrar una x„ para la
cual Ax„ = J«. Esta x, está, además, determinada en forma única,
puesto que x„ x, implica (por (i)) que y„ = Ax„y¡=Ax,. Defini
mos A 'y„ como Xo- Para probar que A-' es lineal, evaluamos
A-'(a,y, + a,y,). Si Ax, = y, y Ax, = y„ entonces la linearidad de
A nos dice que A(a,x, + a x ,) = a,y, + a,y„ de manera que A-'
(a,y, + «ojo) = «.*. + <«*. = a,A-’J, + a,A-'y,.
Como un ejemplo trivial de transformación invertible, mencio
namos la transformación de identidad 1; claramente 1*’ = 1. La
transformación 0 no es invertible; viola las dos condiciones (i) y
(ü) casi tan fuertemente como pueden ser violadas.
Se sigue inmediatamente de la definición que para cualquier A
invertible tenemos
AA-‘ - A~'A - 1;
demostraremos ahora que estas ecuaciones sirven para caracteri
zar a A-’.
T eorema 1. Si A,B y C son transformaciones lineales tales que
AB = CA = 1,
entonces A es invertible y A ' = B —C.
Prueba. Si Ax, = Ax„ entonces CAx, = CAx„ de manera que
(puesto que CA = 1) x, = x,; en otras palabras, la primera con
dición de la definición de invertibilidad queda satisfecha. La se
gunda condición también se satisface, pues si y es cualquier vector
y x = By, entonces y = ABy - Ax. Multiplicando AB = 1 sobre la
izquierda y CA = 1 sobre la derecha, por A ', vemos que A-' - B
= C.
Para demostrar que ni AB = 1, ni CA = 1, es, por sí mismo,
suficiente para asegurar la invertibilidad de A, llamamos la aten
ción a las transformaciones de diferenciación e integración D y S,
definidas en el § 32, (4 ) y (5). Aunque DS = 1, ni D ni Sson in-
vertibles; D viola (i) y S viola (ii).
En espacios finito-dimensionales la situación es mucho más sen
cilla.
Teorema 2. Una transformación lineal A sobre un espacio
vectorial V es invertible si y sólo si Ax = 0 implica que x = O,
o, alternativamente, si y sólo si cada y en 1) puede ser escrita
en la forma y = Ax.
Prueba. Si A es invertible. ambas condiciones se satisfacen;
esto es trivial. Supóngase ahora que Ax = 0 implica que x = 0.
Entonces, u ^ v , esto es, u - v ^ í 0, implica que A (u —v ) 0,
esto es, que Au ^ Av; esto prueba (i). Para probar (ii), sea {x„
x.) una base de 13; afirmamos que {Ax„ . . . . Ax.) es también
una base. De acuerdo con el § 8, Teorema 2, necesitamos solamen
te probar la dependencia lineal.Pero£, «¡Ax,- = 0 significa (£,- am) = 0,
y, por hipótesis, esto implica que “(*•= °¡ Ia independencia lineal
de x, nos dice ahora que = 0. Se sigue, por supuesto,
que todo vector y puede ser escrito en la forma y =■ a,Ax, = A
( I ><*)•
Supongamos, a continuación, que toda y es una Ax y sea (y„
. . . . yn) cualquier base de V. Correspondiendo a cada y, podemos
encontrar una x, (no necesariamente única) para la cual yt = Ax
afirmamos que {x, x.) es también una base. Para o,r, = o im
plica £,-<*(Az¡ =............. =0,de manera que o, = . . . = o . = 0. Con
secuentemente cada x puede ser escrita en la forma x = £ ; “■*<, y Ax
= 0 implica, como en el argumento que se acaba de dar, que x = 0.
T eorema 3. Si A y B son mvertibles, entonces AB es inver
tible y (AB)-’ = B-'A ’. Si A es invertible y aytO , entonces aA
es invertible y («A)-' = - A-‘. Si A es invertible, entonces A-’ es
invertible y ( A-')-' = A.
Prueba. De acuerdo con el Teorema 1, es suficiente probar
(para el primer enunciado) que el producto de AB con B-'A‘-, en
ambos órdenes, es la identidad; esta verificación la dejamos al lec
tor. Las pruebas de los dos enunciados restantes son idénticas en
principio con esta prueba del primer enunciado; el último enuncia
do, por ejemplo, se sigue del hecho de que las ecuaciones AA-' =
A''A = X son completamente simétricas en A y A-'.
Concluimos nuestra discusión de inversos con el siguiente co
mentario, definir funciones racionales de A, cada vez que sea po
sible, usando A'1. No encontraremos útil hacer esto, excepto en un
caso: si A es invertible, entonces sabemos que A" es también inver-
tible, n = 1, 2, . . . ; escribiremos A - para (A*)-‘, de manera que
A - = (A 1)’ -
EJERCICIOS
§37. MATRICES
los escalares («n, . . . , a(„) una fila es (o*,/, . . . . a»,) una columna
de [AJ.
Esta definición no define el concepto de “matriz'; define “la
matriz asociada en ciertas condiciones con una transformación li
neal". Es útil, a menudo, considerar una matriz como algo existente
por su propio derecho, como una ordenación cuadrada de escalares;
en genera], una matriz en este libro estará ligada a una transforma
ción lineal y a una base.
Comentamos sobre la notación. Es costumbre usar el mismo
símbolo, digamos, A, para la matriz y para la transformación. La
justificación para esto se encuentra en la discusión que sigue (de
propiedades de matrices). No seguimos aqui esta costumbre, por
que una de nuestras principales metas, en conexión con las matri
ces. es poner de relieve que dependen de un sistema de coor
denadas (mientras que no es asi por lo que hace a la noción de
transformación lineal) y estudiar cómo cambia la relación entre
matrices y transformaciones lineales, al pasar de un sistema de
coordenadas a otro.
Llamamos también la atención a una peculiaridad de los Índices
de los elementos a„ de una matriz [A]. Una base es una base y hasta
ahora, aunque generalmente dábamos a sus elementos como Índices
los primeros n enteros positivos, el orden de los elementos en la
misma carecía enteramente de importancia. Es costumbre, sin em
bargo, cuando se habla de matrices, referirse a, digamos, la primera
fila o la primera columna. Este lenguaje se justifica solamente si
pensamos en los elementos de la base fC como ordenados en un
orden definido. Puesto que en la mayoría de nuestras consideracio
nes el orden de las filas y de las columnas de una matriz es tan
irrelevante como el orden de los elementos de una base, no inclui
mos este aspecto de las matrices en nuestra definición. Es impor
tante. sin embargo, advertir que la apariencia de la ordenación
cuadrada asociada con [A] varía con la ordenación de SC. Todo lo
que diremos sobre matrices puede, en consecuencia, ser interpretado
desde dos puntos de vista diferentes; o en estricto «cuerdo con la
letra de nuestra definición o, de otro modo, sgiuiendo una definición
modificada que hace corresponder una matriz (con filas y columnas
ordenadas ) no meramente a una transformación lineal y a una base,
sino también a una ordenación de la base.
Un palabra más a los que conocen. Es una perversidad, no del
autor, sino de la naturaleza, lo que nos hace escribir
Ax
en vez de la ecuación más usual
A * < = L ,W -
La razón es que deseamos que las fórmulas de multiplicación na-
tricial y de aplicación de matrices a vectores numéricos (esto es,
vectores (í„ . . . , f„) en C") aparezcan normales y que en algún
punto del proceso de pasar de vectores a sus coordenadas se invier
tan los índices. Para enunciar explicitamente nuestra regla: escri
base Ax, como una combinación lineal de x,, . . . , x„, y escríbanse
los coeficientes así obtenidos como la columna j-ésima de la matriz
[A]. (El primer índice de a¡/ es siempre el índice de la fila; el se
gundo, el de la columna.
Para un ejemplo, consideremos la transformación de diferen
ciación D sobre el espacio «•„, y la base (x,.........x„) definida por
Xi(t) = r i', i = 1, . . . , n. ¿Cuál es la matriz de D en esta base?
Tenemos
Dxi Ox»_i + 0z„
Día = 1*! + (tea -I----- 1- Ox.-1 + Ox.
Dx3 —0*1 + 2x2 "1----- I* Ot._i + 0x.
(1)
Dx,
de manera que
El desagradable fenómeno de los Índices que se invierten se ve com
parando (1 ) con (2).
o¡i - 0
«•>' “ *0 (“ delta de Kronecker ).
EJERCICIOS
(d) p(l) -
-C ID
10. Pruébese que
Lo O O lJ
respectivamente, (donde i s= y —1), y si C = AB —IBA, entonces C* + C*
si AB = 0, se sigue que BA = 0?
12. ¿Qué sucede a la matriz de una transformación lineal sobre un
espacio finito dimensional cuando los elementos de la base con respecto a la
cual la matriz se computa se permutan entre sí mismo?
«G !)■ ■'CID
«■>(! !)■
« o -
19. (a) Es fácil extender la teoría matricial a las transformaciones linea
les entre diferentes vectores espaciales. Supóngase que *U y V son
espacios vectoriales sobre el mismo campo, sean {x,........x„} y {y,...........'/„}
bases de H y b respectivamente y sea A una transformación linea] de
U a U La matriz de A es. por definición, la ordenación rectangular, m
por n. de escalares, definida por
que se generalicen tantos como sean posibles de los resultados del §38. (Nó
tese que el producto de una matriz m, por n, y una matriz m.í por n2, en ese
orden, se define como n, = m,).
(b) Supóngase que A y
tro bloques rectangulares (
quierdo, inferior derecho) y entonces divídase B de modo semejante, c
ñera que el número de columnas en el extremo superior izquierdo de A
mismo que el número de filas en el extremo superior izquierdo de 8.
una obvia notación taquigráfica, estas divisiones se indican por
§39. INVARIANCIA
«= C J 3 '
donde [A,] la matriz (de m filas) de A, considerada como una trans
formación lineal sobre el espacio 311 con respecto del sistema de
coordenadas (x,......... x_), [A,] y |B„) son algunas ordenaciones de
escalares (en tamaño (n —b ) por (n - m ) y m por (n - m ) res
pectivamente) y 0 denota la ordenación rectangular ((n - m ) por
m ), consiste únicamente en ceros. (Es importante observar el he
cho desagradable de que [B0] no necesita ser cero).
§40. REDUCIBILIDAD
invariantes bajo A.
§41. PROYECCIONES
Especialmente importante para nuestro propósito es otra cone
xión entre sumas directas y transformaciones lineales.
D efinición. Si i) es la suma directa de 3H y 31, de manera
que toda z de U pueda ser descrita, únicamente en la forma z =
x + y, con x en Sil y y en si, la proyección sobre SE a lo largo
de 31 es la transformación E, definida por Ez = x.
Si las sumas direct; ; son importantes, entonces las .proyecciones
lo son también, puesto que, como veremos, son una herramienta
algebraica muy poderosa para el estudio del concepto geométrico de
suma directa. El lector se satisfará sobre la razón para usar la pa
labra “proyección", trazando un par de ejes (múltiples lineales) en
el plano (suma directa). Para hacer que la imagen aparezca sufi
cientemente general, no tiene ejes perpendiculares.
Pasamos por alto un punto cuya prueba es lo bastante fácil para
ser omitida, pero cuya existencia debe reconocerse; debe mostrarse
que E es una transformación lineal. Dejamos esta demostración al
lector, y pasamos a buscar propiedades especiales de las proyec
ciones.
Teorema 1. AUna transformación lineal E es una proyec
ción sobre algún subespacio si y sólo si es idempotente, esto es,
E‘ = E.
Prueba. Si E es la proyección sobre 311 a lo largo de 31, y si
z = x + y, con x en su y en si, entonces la. descomposición de x
es x + 0, de manera que
E h - EEz = Ex = i = Ez.
Inversamente, supóngase que E- = E. Sea 91 el conjunto de to
dos los vectores z de V para los cuales E = 0; sea 9H el conjunto
de todos los vectores z para los cuales Ez = z. Está claro que tanto
9TC como 91 son subespacios. Probaremos que v - 9H© 91. En vista
del teorema del § 18, necesitamos probar que 91t y 9t son disjuntos
y que juntos sobretienden a u
S. z está en 91t, entonces Ez = z, si z está en 9í, entonces Ez =
0; por lo que, si z está tanto en como en 91, entonces z = 0. Para
una z arbitraria tenemos
z — Ez + (1 —E)z.
Si escribimos Ez = x y (1 - E )z = y, entonces Ex = E-'z = Ez = x,
y Et/ = E(1 - E )z = Ez - E!z = 0, de manera que x está en 9Tt y y
está en X Esto prueba que U = 9K ffi 91, y que la proyección so
bre 9K a lo largo de 91 es precisamente E.
Como consecuencia inmediata de la prueba anterior, obtenemos
también el siguiente resultado.
Teorema 2. Si E es la proyección 9R a lo largo de 91, en
tonces 9tl y 9t son, respectivamente, los conjuntos de todas las
soluciones de las ecuaciones Ez = z y Ez = 0.
Por medio de estos dos teoremas podemos eliminar la aparente
asimetría, en la definición de proyecciones, entre los papeles des
empeñados por 9tt y X Si a toda z = x + y hacemos corresponder
no x, sino y, obtenemos también una transformación lineal idem-
potente. Esta transformación (a saber, 1 - E ) es la proyección
de 91 a lo largo de 3Tt. Resumimos los hechos como sigue:
Teorema 3. Una transformación lineal E es una proyec
ción si y sólo si 1 — E es una proyección; si E es la proyección
de mi a lo largo de x entonces 1 —E es la proyección de 91
a lo largo de 911.
EJERCICIOS
§44. ADJUNTOS
ís) A" ~ A.
Esta relación tiene que leerse con un grano de sal. Tal como está. A"
es una transformación, no sobre V sino sobre el espacio dual V"de
V'. Si, no obstante, identificamos V" y T) de acuerdo con el isomor-
fismo natural, entonces A" actúa sobre ti y ( 8 ) tiene sentido. En
esta interpretación la prueba de ( 8 ) es trivial. Puesto que V es re
flexiva, obtenemos cada funcional lineal sobre ti' considerando [x,
y] como una función de y, con x fija en V. Puesto que [x, A'y] define
una función (una funcional lineal) de y, puede ser escrita en la
forma [x*, y]. El vector xf es aquí, por definición, A"x, De aquí te
nemos, para toda y de ti' y para toda x de t),
[Ax, y] - [x, A'y] - [A"x, y];
la igualdad del primero y último términos de esta cadena prueba (8).
Bajo la hipótesis de (8 ) (esto es, finito-dimensionalidad), puede
ser eliminada la asimetría en la interpretación de (7 ); afirmamos
que en este caso la invertibilidad de A’ implica la de A y, en conse
cuencia, la validez de (7). Prueba: apliqúese la antigua interpreta
ción de (7 ) a A' y A" en lugar de A y A'.
Nuestra discusión se resume, en el caso reflexivo finito-dimen-
sional, por la aserción de que el trazo del mapa de A -* A' es uno a
uno, y, de hecho, un antisomorfismo algebraico, desde el conjunto
de todas las transformaciones lineales sobre t) hacia y sobre el con
junto de todas las transformaciones lineales sobre t)'. (Se puso el
prefijo "anti" a causa de la regla de conmutación (6 )).
Z í W t - Z / VAxl = Z í ty Z * «o*í
- Z i ( Z i “ o ’w)*<.
tenemos
(1) fí - Z , “iJ1í-
R espuesta a l a cuestión n.
(2) ¡/ - Ax.
Hablando en términos generales, la transformación lineal inver
tible A (o, más propiamente, la matriz (o ,,)) puede ser considerada
como una transformación de coordenadas (como en 1 )), o puede
ser consideradas (como usualmente la consideramos en ( 2 )) como
una transformación de vectores.
En tratados clásicos sobre espacios vectoriales es costumbre
tratar los vectores como n-tuples numéricos, más bien que como
entidades abstractas. Esto necesita la introducción de cierta molesta
terminología. Damos aquí un breve glosario de algunos de los térmi
nos y notaciones más desconcertantes que se su suscitan en cone
xión con espacios duales y transformaciones de adjuntos.
Si V es un espacio vectorial n-dimensional, un vector x es dado
por sus coordenadas con respecto de algún sistema absoluto de coor
denadas preferido; estas coordenadas forman un conjunto ordenado
de n escalares. Es costumbre escribir este conjunto de escalares en
Elementos del espacio dual V se escriben como filas, x" = ( f ,, ..
i'.). Si consideramos a x como una matriz rectangular n por uno y
a x' como una matriz uno por n, entonces el producto matricial x'x
es una matriz uno por uno, esto es, un escalar. En nuestra notación,
este escalar es [x, x"] = + ... + El artificio de considerar
los vectores como matrices delgadas es efectivo aun cuando consi
deramos las matrices de magnitud normal de las transformaciones
lineales. Así, el producto matricial de (o „) con la columna ({,) es
la columna cuyo i-ésimo elemento es vi = 2 / a<i(i- En vez de preo
cuparse por bases duales y transformaciones de adjuntos, podemos
formar similarmente el producto de la fila ({',) con la matriz (<*,)
en el orden (£,) (otl); el resultado es la fila que al principio deno
tamos por yf = AV. La expresión [Ax, x”] se abrevia ahora como
x’ -A -x ; ambos puntos significan multiplicación matricial ordina
ria. Los vectores x de U se llaman covariantes y los vectores x'
de ti' se llaman contravariantes. Puesto que la noción del producto
xf • x (esto es, [x, x'] )depende, desde este punto de vista, de las
condenadas de x y xf, resulta de importancia hacer la siguiente
pregunta: si cambiamos la base en V, de acuerdo con la transforma
ción lineal inverdble A, ¿qué debemos hacer en X)' para preservar
el producto x '-x ? En nuestra notación: si [x, x»] = [y, y1] donde
y = Ax, entonces, ¿cómo está y' relacionada con x 7 Respuesta:
y' = (A'Y'xf. Para expresar toda esta maraña de ideas, la termi
nología clásica dice que los vectores x varían cogradientemente
mientras que los x' varían contragradientemente.
§47. SIMILARIDAD
(2)
Z * "tíT*/ “ Z * ftWk/-
y
ZrftiVi - E i M * í - - ABx,.
De aqui que C es tal que
CAxj *» ABij,
o, finalmente
(7) C - ABA~l.
No hay dificultad con (7 ) similar a la que nos obligó a hacer una
reserva sobre la interpretación de (6);encontrar la transformación
lineal (no matricial) C, multiplicamos las transformaciones A, B
y A-’, y no es necesario decir nada sobre el sistema de coordenadas.
Compárense, sin embargo, las fórmulas ( 6 ) y ( 7 ) y obsérvese una
vez más la innata perversidad de los símbolos matemáticos. Esto
es solamente otro aspecto de los hechos ya mencionados en los
§§37 y 38.
Dos matrices [B] y (C) se llaman similares si existe una matriz
invertible [A] que satisface a (6 ); dos transformaciones lineales B
y C se llaman similares si existe una transformación invertible A
que satisface a (7 ). En este lenguaje, las respuestas a las cuestiones
III y IV pueden expresarse muy brevemente, en ambos casos la res
puesta es que las matrices o transformaciones dadas deben ser si
milares.
Habiendo obtenido la respuesta a la cuestión IV, podemos ver
ahora que hay demasiados subíndices en su formulación. La validez
de (7 ) es un hecho geométrico completamente independiente de la
Unearidad, finito-dimensionalidad o de cualquiera otra propiedad ac
cidental que puedan poseer A, B y C¡ la respuesta a la cuestión IV
es también la respuesta a una cuestión mucho más general. Esta
cuestión geométrica, una paráfrasis de la formulación analítica de
la cuestión IV, es ésta: Si B transforma a V, y si C transforma a A V
del mismo modo, ¿cuál es la relación entre B y C? La expresión
"del mismo modo” no es tan vaga como parece; si significa que si B
toma x dentro de, digamos, u, entonces C toma Ax dentro de Au.
107
EJERCICIOS
1. Si A es una transformación lineal de un espacio vectorial 11 a un
espacio vectorial V, entonces, correspondiendo a cada y fija de V' existe
un vector, que podría bien ser denotado por A’y. en Ii' de manera que
[Ai, y) - [r, A'yl
(e) ¿Existen transformaciones lineales A j B tales que A j B sean equi
valentes, pero A* y B* no lo sean?
(f) Generalícese el concepto de equivalencia a dos transformaciones de
finidas sobre diferentes vectores espaciales. ¿Cuáles de los resultados prece
dentes permanece válido para el concepto generalizado?
EJERCICIOS
A z ,- 2 W ,
Puesto que x = (¡x¡, entonces A x = £ » se sigue que todo
vector de <R(A) es una combinación lineal de las Ax,, en conse
cuencia, de cualquier subconjunto máximo linealmente independien
te de las A x,. Se sigue que el número máximo de Ax,. linealmente
independientes es precisamente p(A). En términos de las coordena
das («„, . . a.,) de A x, podemos expresar esto diciendo que p(A)
es el número máximo de columnas Unealmente independientes de
la matriz [A], Puesto que (§ 45) las columnas de |A'] (expresada la
matriz en términos de la base dual de se) son las filas de [A],
se sigue del Teorema 1 que p(A) es también el número máximo de
filas linealmente independientes de [A]. De aquí que “el rango
de hilera de [A] = el rango de columna de [A] = el rango de (A]“.
Teorema 2. Si A es una transformación lineal del espacio
vectorial n-dimensional V, y si x es cualquier espacio h-dimen-
sional de v , entonces la dimensión de A X es g k —»(A).
Prueba. Sea x cualquier subespacio para el cual V =■ SC ® OC,
de manera que si fe es la dimensión de x , entonces fe = n - fe. Al
operar con A, obtenemos
AV = A3C + A3C.
(La suma no es necesariamente una suma directa; véase el § 11).
Puesto que Al) = <R(A) tiene dimensión n —»(A), puesto que la
dimensión de A X es claramente g fe = n —fe, y puesto que la di
mensión de la suma es g la suma de las dimensiones, tenemos el
resultado deseado.
T eorema 3. Si A y B son transformaciones lineales sobre
un espacio vectorial finito-dimensional, entonces
(7) p(A + B ) s p(A) + p(B),
(8) p(AB) s mm |p(A), p(B)|,
Ax - E.'-.fcx,,
donde cada (, depende, por supuesto, de x; escribimos £i = y ,(x).
Es fácil ver que y, es una funcional lineal. En términos de estas
y, definimos, para cada t = 1, ...,/> , una transformación lineal A, por
Ai x = y, (x)x,. Se sigue que cada Ai tiene rango uno y A = Z ?-i
A(. [Compárese este resultado con el § 32, Ej. (2)).
Un ligero refinamiento de la prueba que se acaba de dar da el
siguiente resultado.
T eorema 3. Correspondiendo a cualquier transformación
lineal A sobre un espacio vectorial finitcnlimensional t) hay
una transformación lineal P para la cual PA es una proyección.
Prueba. Sean # y DI, respectivamente, el alcance y el espacio
nulo de A y sea {*, xp) una base para «. Sean x.
vectores tales que {x„ . . . . x«) es una base de V. Puesto que está
en 01 para i = 1, . . . . p, podemos encontrar vectores y, tales que
Ay, = x,¡ finalmente, escogemos una base para 31, que podemos de
notar por [yf .„ . . . . y,}. Afirmamos que {y,, . . . . y») es una base
para v . Necesitamos, por supuesto, probar solamente que las y
son linealmente Independientes. Para este propósito suponemos que
Z*-i»iVí ■=0; .Entonces tenemos (recordando que para i = p + 1,
. . . , n el vector y, pertenece a 31)
A (Z í-i “■vi) - = 0,
de donde a, = . . . = « , = 0. Consecuentemente, Z"-»+i «¡V( = 0;
la independencia lineal de yp„, . . . , y. demuestra que las « restan
tes deben también desaparecer.
Una transformación lineal P de esta clase, cuya existencia fue
n. En realidad, si i = 1, .... p,
afirmada, se determina ahora por las condiciones Px, = y,, i = 1,
.... entonces PAy, = Px, = y, y si
i = p + 1, ■. .. n, entonces PAy, = P0 = 0.
La consideración del adjunto de A, juntamente con la reflexivi-
dad de V, demuestra que podemos también encontrar un invertible
Q para el cual AQ es una proyección. E n caso de que A misma sea
invertible, debemos tener P = Q = A 1.
EJERCICIOS
w(!i!)' w(°;i>
M(: i :)■ ™(; I i)-
(2) A ® 0 - 0 ® B - 0,
(3) 1 ® 1 - 1,
(4) (A, + A,) ® B - (A, ® B) + (A, ® B),
(5) A ® (B, + B.) - (A ® B.) + (A ® B,).
(6) aA ® /SB - «S(A ® B),
(7) (A ® B )-' - A“ ‘ ® B -‘,
(8) (AjAj ) ® (Bifij) - (A, ® B,)(A, ® B,).
Las pruebas de estas relaciones, excepto quizás las dos últimas, son
directas.
La fórmula (7 ), como toda fórmula que implica inversos, tiene
que ser lefda con precaución. Tiene el propósito de significar que
si A y B son invertibles, entonces lo son A ® B y la ecuación es
válida, y, reciprocamente, que si A ® B es invertible, también lo son
A y B. Probaremos (7 ) y ( 8 ) en orden inverso.
La fórmula (8 ) se sigue de la caracterización (1 ) de productos
tensoriales y del siguiente cómputo:
(A¡A2 ® B¡B¡)(x ® y) = A¡A¡z ® B¡B¡y
- (Ai ® ® B»y) - (A, ® ® B,)(* ® y).
Como consecuencia inmediata de (8 ) obtenemos
(9) A ® B - (A ® 1)(1 ® B) - (1 ® B)(A ® 1).
Para probar ( 7 ), supóngase que A y B son invertibles, y fórmese
A ® B y A"‘ ® B '. Puesto que, según ( 8 ), el producto de estas dos
transformaciones, en cualquier orden, es 1, se sigue que A ® B es
invertible y (7 ) es válida. Recíprocamente, supóngase que A ® B
es invertible. Recordando que definimos los productos tensoriales
[«iilBl ••• o
•i[B] ••• o
Esta matriz es conocida como el producto de Kronecker de |A] y |B]
en ese orden. La regla para formarlo es fácil de describir en pala
bras: reemplácese cada elemento de la matriz n por n [A] por
la matriz m por ma,,|B]. Si en esta regla intercambiamos los pape
les de A y B (y consecuentemente intercambiamos n y m) obtene
mos la definición de producto de Kronecker de [B] y [A].
EJERCICIOS
con el espacio SV. de polinomio# en do# variable# (véaie"#! | 25. EJ. 2).
Pruébese que ai A y B eon diferenciación sobre <P« y respectivamente.
mmux' Cz 3#dt
2. Con la ordenación lexicográfica de la base de producto (x, Q yp) re
sultó que la matriz de A ® B es el producto de Kronecker de las matrices
de A y B. ¿Hay una ordenación de los vectores de base, tal que la matriz de
A ® •B. referida al sistema de coordenadas asi ordenado, es el producto
¿A ® B) - ¿A)¿B).
§53. DETERMINANTES
EJERCICIOS
§54. VALORES PROPIOS
§55. MULTIPLICIDAD
det a - n r - . v » -
trA =
EJERCICIOS
§56. FORMA TRIANGULAR
EJERCICIOS
< 1)
»> C ¡)
«C °)
»> i , !)■
2. Dos transformaciones lineales conmutativas sobre un espacio vectorial
flnitodimcnsional V sobre un campo algebraicamente cerrado, pueden ser
triangularizadas simultáneamente. En otras palabras, si AB = BA, entonces
existe una base X tal que tanto [A, X] como (B, XI son triangulares. (Su
gestión: para imitar la prueba del §56 es deseable encontrar un subespacio
311 de V invariante tanto bajo A como bajo B. Con esto presente, considérese
cualquier valor propio de Xde A y examínese el conjunto de todas las solu
ciones de Ax = Xx para el papel dedil.]
3. Formúlense y pruébense los análogos de los resultados de §56 para
4. Supóngase que A es una transformación lineal sobre un espacio vec
torial n-dimenslonal. Para cada forma alterna n-lineal w, escríbase Aw para
la función definida por
(l«)(*i, •• *0 - te(4*i, ** ■• *0 _
+ ■(*1,4*1, •••,*J+"-+«(*i,*i, ■••,4*0.
§57. NILPOTENCIA
Como ayuda para obtener un teorema de representación más
informativo que el triangular, procedemos a introducir y a estudiar
una clase muy especial, pero muy útil de transformaciones. Una
transformación lineal A es llamada nilpotente si existe un entero
estrictamente positivo q, tal que A" = 0; el menor entero q es el
índice de nilpotenda.
Teorema 1. Si A es una transformación lineal nilpotente
de índice q sobre un espacio vectorial fmito-dimensional V, y
si x0 es un vector para el cual A«-‘x» ^ 0, entonces los vectores
Xo,.Axo As-'Xc son linealmente independientes. Si x es el
espacio sobretendido por estos vectores, entonces existe un subes
pacio X tal que v = SC© X y tal que el par (3C, X)reduce a A.
A'z„ - 2 - A'+‘y.
Se sigue de la definición de q que
A’t-'io “ A, - '- 1A,*o - A,-í-1A#+1y - A’y - 0;
puesto que esto contradice la selección de x0, debemos tener a, = 0
para cada ;.
Está claro que 3C es invariante bajo A; para construir 3C proce
demos por inducción sobre el índice q de nilpotencia. Si q = 1. el
resultado es trivial; suponemos ahora el teorema para q - 1. El al
cance s de A es un subespacio que es invariante bajo A; restrin
gida a ir la transformación lineal A es nilpotente de índice q — 1.
Escribimos Ko - 3C fl « y y» = A*,; entonces 3Co es sobretendido
por los vectores linealmente independientes y«, Ay„ A,-'ya. La
hipótesis de inducción puede aplicarse y podemos concluir que ir
es la suma directa de SCg y algún otro subespacio invariante Xo.
Escribimos x¡ para el conjunto de todos los vectores x, tales
que Ax está en ¡Ko; está claro que 3Ct es un subespacio. Es grande
la tentación de hacer X = 3Ci e intentar probar que X tiene las
propiedades deseadas. Infortunadamente, no es necesario que esto
sea verdadero; x y 3Ci no necesitan ser disjuntos. (Es verdad, pero
no usaremos ese hecho, que la intersección de se y 3C, está conte
nida en el espacio nulo.de A.) Que, a pesar-de esto, x , sea útil es
motivado por el hecho de que 3C+ Xi —V. Para probar esto, ob
sérvese que Ax está en fft para toda x y, consecuentemente, Ax =
y + z con y en Xo y z en Xo. El elemento general de Xo es una
combinación lineal de Ax,, . . . , A'-'x,; de aquí tenemos
EJERCICIOS
bidimenzlonzl?
2. (a) Pruébese que una transformación lineal n11potente sobre un espa
cio vectorial finitodimensional tiene traza cero.
EJERCICIOS '
distancia de 0 a * = || * || =- ’
distancia de x a y = || x — y ||
coseno del ángulo entre x y y ■
y, en «>, escribimos
§62. ORTOGONALIDAD
La más importante relación entre los vectores de un espacio de
producto interior es la ortogonalidad. Por definición, los vectores x
y y se llaman ortogonales si (x, y ) —0. Observamos que esta reía-
ción es simétrica; puesto que (x, y ) = (y, x ), se sigue que (x, y) y
(y, x ) desaparecen juntamente. Si recordamos la motivación para
la introducción de (x, y ) la terminología se explica por sí misma, dos
vectores son ortogonales (o perpendiculares) si el ángulo que hacen
entre sí es de 90°, esto es, si el coseno de este ángulo es 0. Dos sub-
espacios se llaman ortogonales si cada vector de uno es ortogonal a
cada vector del otro.
Un conjunto a: de vectores es ortonormal si siempre que x y y
estén en ¡r se sigue que (x, y) = 0, o (x, y ) = 1, según que x
y o x = y. (Si a: es finito, digamos, a: = {x,....... x„}, tenemos
(x¡, X;) = Ji;). Llamamos completo a un conjunto ortonormal si no
está contenido en un conjunto ortonormal mayor.
Para dar nuestra última definición en este respecto, observamos
primero que un conjunto ortonormal es linealmente independiente.
En realidad, si {x,........x*) es un cualquier subconjunto finito de
un conjunto ortonormal a:, entonces Xa a¡z¡ = 0 implica que
EJERCICIOS
donde los valores de los escalares <>„ . . . . a, están todavía por deter
minarse. Puesto que
fe Vi) - fer+l - £ < « ¡SK»«i) = fer+1, Vi) - “i
para j = 1,__, r, se sigue que si escogemos a¡ = (xr.„ y ,), entonces
(z, y ,) = 0 para j = 1 r. Puesto que, además z es una combi
nación lineal de x„, y y, y„ es también una combinación lineal
de x,., y x „ . . ., x,. Finalmente, z es diferente de cero, puesto que
x „ . . . , x „ x„ , son linealmente independientes y el coeficiente de
x,.i en la expresión de z no es cero. Escribimos yr„ = z /|| z ||; clara
mente {y„ . . . , y„ y,.,) es de nuevo un conjunto ortogonal con todas
las propiedades deseadas y el paso de inducción queda terminado.
Haremos uso del hecho de que no solamente es cada y, una combina
ción lineal de las x, con Índices entre 1 y j, sino, viceversa, cada x,
es una combinación lineal de las y, con índices entre 1 y j. El método
para convertir una base lineal en un conjunto ortonormal completo
que acabamos de describir, es conocido, como el proceso de ortogo-
nalización de Gram-Schmidt.
Encontraremos conveniente y natural, en espacios de productos
interiores, trabajar exclusivamente con bases que son también con
juntos ortonormales completos. Llamaremos a esa base una base
ortonormal o un sistema ortonormal de coordenadas; en el futuro,
cada vez que discutamos las bases que no son necesariamente orto-
normales, pondremos este hecho de manifiesto, llamándolas bases
lineales.
§66. TEOKEMA DE LAS PROYECCIONES
Hay ahora sólo una duda posible más que el lector podría (o, en
todo caso, debería) tener. Muchos de nuestros resultados preceden
tes fueron consecuencia de relaciones d e reflexividad como A** =
A; ¿permanecen éstas válidas después de la revolución de corchetes a
paréntesis? Más al grano es el siguiente modo de presentar la cues
tión. Todo lo que decimos de un espacio unitario TJ debe ser también
verdad de un espacio unitario v *; en particular está también en
una relación isomórfica conjugada natural con su espacio dual
V •*. Si ahora a cada vector de v hacemos corresponder un
vector de **, aplicando primero el isomorfismo conjugado gene
ral de V a V ’ y a continuación procediendo en la misma forma
de í ' a 1) entonces este mapa es un rival para el titulo de
mapa natural u a i) •*, título ya concedido en el Cap. 1 a una
correspondencia aparentemente diferente. ¿Cuál es la relación entre
las dos correspondencias naturales? Nuestros enunciados sobre
las coincidencias, excepto en cuanto a modificaciones triviales, de las
teorías de los paréntesis y los corchetes, se justifican realmente por
el hecho, que probaremos ahora, de que dos mapas son iguales. (No
debe sorprender puesto que a = ■>. que después de dos aplicaciones
desaparezca la molesta conjugación). La prueba es más corta que
la introducción a la misma.
Sea y„ cualquier elemento de V ; al mismo corresponde la funcio
nal lineal y0" de V ", definida por ya’ ( x ) = (x, y0) y a y0’ , a su vez
corresponde la funcional lineal y„"" de V**, definida por y0" ( y ’ )
- (»*■ !/o* )• Ambas correspondencias se dan por el mapa introduci
do en este capítulo. Anteriormente (véase §16), el correspondiente
y0" en 1) " de en 1) fue definido como y„**(y*) = y*(y«)
para toda y* e n l ) ‘ ¡ debemos demostrar que y„**, como lo hemos
definido aquí, satisface esta identidad. Sea y" cualquier funcional
lineal sobre t) (esto es, cualquier elemento de V * ); tenemos
Vo"(y') - <y’, vo*) - (yo, y) - v*(yo).
(la igualdad de en medio viene de la definición de producto interior
en v •) . Esto resuelve todos nuestros problemas.
EJERCICIOS
§70. TRANSFORMACIONES AUTO-ADJUNTAS
¿ ( H i la ) - £ . W ,
11 “
(1)
entonces tenemos B- = — 5 — = B y C- = — 5— = - C y,
EJERCICIOS
Dé un ejemplo de dos transformaciones auto-adjuntas cuyo producto no
2. Considérese el espacio (P-. con el producto interior dado por (x, y) =
p x(tM Í) dt.
(a) ¿Es auto-adjunto el operador de multiplicación T (definido por (Tx)
(O = tx(t)?
(b) ¿Es auto-adjunto el operador de diferenciación D?
3. (a) Pruébese que la ecuación (x, y) - £*_„* (j¡) V (~) define un pro
ducto interior en el espacio (P„.
(b) ¿Es el operador de multiplicación T [definido por (Tx)(f) = íx(t)l
(c) ¿Es auto-adjunto el operador de diferenciación D?
I que3l(A) C 31(0) en
n simétrico oblicua
§71. POLARIZACION
EJERCICIOS
a un producto interior?
TSüH las siguientes matrices son positiv
™C ',)■
<»(-! ;)• w( í í í
>l °;>
<•
(i: i)
§73. ISOMETRIAS
EJERCICIOS
y
Teorema 2. Si una transformación lineal E es tai que E
= E* || Ex || s¡ || * || para toda x, entonces E = E*.
Prueba. Vamos a demostrar que el alcance <R y el espacio nu
lo 31 de E son ortogonales. Si x está en SI1, entonces y = Ex —x
está en 31, puesto que Ey —E’x - Ex = Ex —Ex = 0. De aquí que
Ex = x + y con (x, y ) = 0, de manera
II* B* a De* IIa - ll * II*+ II» IIa s II* I*,
y, en consecuencia, y = 0. Consecuentemente, Ex = x, de manera
que x está en <R; esto prueba que 31x c fft. Recíprocamente, si z
está en <R, de manera que Ez = z, escribimos z = x + y con x en3¡x
y y en 3t. Entonces z - Ez =Ex + Ey = Ex = x. (La razón para esta
igualdad es que x está en SI1 y, en consecuencia, en ít.) De aquí
que z esté en 3lx, de manera que 31 c 311, y, en consecuencia® =3tx.
Necesitaremos también el hecho de que el teorema del § 42 sigue
siendo verdadero si a la palabra "proyección” se le agrega la califi
cación de "perpendicular”. Esta es una consecuencia inmediata de la
caracterización precedente de proyecciones perpendiculares y del
hecho de que las sumas y diferencias de transformaciones auto-adjun
tas son auto-adjuntas si y sólo si conmutan. Por nuestros actuales
métodos geométricos es también completamente fácil generalizar la
parte del teorema que trata de sumas desde dos sumandos hasta un
número finito cualquiera. La generalización es enunciada muy con
venientemente en términos del concepto de ortogonalidad para pro
yecciones; diremos que dos proyecciones (perpendiculares) E y F
son ortogonales si EF = 0. (La consideración de los adjuntos demues
tra que esto es equivalente a FE = 0). El siguiente teorema demues
tra que el lenguaje geométrico está justificado.
Teorema 3. Dos proyecciones perpendiculares E = P » y
F = P31 son ortogonales si y sólo si los subespacios 311 y 31 (es
to es, los alcances o árbitos de E y F) son ortogonales.
P rueba. Si EF = 0, y si x y y están en los alcances (ámbitos)
de E y F respectivamente, entonces
(*, V) - (Ez, Fy) - (z, E-Fy) - (z, EFy) - 0.
Si, recíprocamente, su y si son ortogonales (de manera que
31 c 3HX), entonces el hecho de que Ex = 0 para x en 3tlx implica
que EFx = O para toda x (puesto que Fx está en 31 y, consecuente
mente. en 3Ra ).
EJERCICIOS
que U sea una isometria lnvolutoria es que E sea una proyección perpendicular,
Ay = /3* + ay,
entonces el subespacio de 7) sobretendido por x y y es invariante
bajo A. (Puesto que toda transformación lineal sobre un espacio
vectorial complejo tiene un vector propio, concluimos que toda trans
formación lineal sobre un espacio vectorial real deja invariante un
subespacio de dimensión igual a l o 2 ). Si, en particular, A- resulta
tener un valor real propio (esto es, si 0 = 0, entonces A tiene el
mismo valor propio (puesto que Ax - ax, Ay = ay, y no desaparecen
Los siguientes resultados apoyan más que cualquier otra cosa has
ta ahora, la analogía entre los números y transformaciones; asegu
ran que las propiedades que hacen que definamos las clases espe
ciales de transformaciones que hemos estado considerando están
reflejadas por su espectro.
Teorema 1. Si A es una transformación autoadjunta de un
espacio de producto interior, entonces el valor propio de A es real,
si A es positivo, o estrictamente positivo, entonces todo valor
propio de A es positivo, o estrictamente positivo, respectivamente.
Prueba. Podemos pasar por alto el hecho de que la primera aser
ción es trivial en el caso real; la misma prueba sirva para establecer
ambas aserciones tanto en el caso real como en el complejo. En rea
lidad, si Ax = \x , con x qA0, entonces
(Ax, x) X(x, x)
11*11* " 11*11* “ '
se sigue que si (Ax, x ) es real, (véase el § 71, Teorema 4), entonces
lo es y si (Ax, x ) es positivo (o estrictamente positivo), entonces lo
T eorema 2. Toda raíz de la ecuación característica de una
transformación auto-adjunta sobre un espacio finito-dimensional
de producto interior, es real.
EJERCICIOS
1. Dése un ejemplo de una transformación lineal con dos vectores propios
no ortogonales, pertenecientes a valores propios distintos.
§79. TEOREMA ESPECTRAL
A * - A x - x Z i* i
Ax -= A Z í x¡ - Z y “y**
p*w - I L - t _ a’a :
EJERCICIOS
i. Supóngase que A es una transformación lineal sobre un espacio comple-
M(i: : ) ’ (!! 1
CilD-
§80. TRANSFORMACIONES NORMALES
EJERCICIOS
Se sigue que los cuatro vectores x,, x„ yry y, son ortogonales dos a
dos (por pares).
La transformación unitaria II* podría también tener valores rea
les propios. Sin embargo, puesto que sabemos que los únicos valores
reales propios posibles de V • tienen valor absoluto uno, se sigue que
los únicos valores reales propios posibles de U• son 1 y —1. Si U '(x
+ iy) = ± ( x + iy), entonces Ux = ± x y Uy = ♦ y, de manera
que los vectores propios de U- con valores reales propios se obtienen
colocando juntos los vectores propios de V de una manera obvia
Estamos ahora listos para dar el paso final. Dada U escogemos
una base ortonormal, digamos Xi, en el múltiple lineal de soluciones
de Ux = x (en V), y, de modo semejante, escogemos una base
otomormal, digamos X_,,en el múltiple lineal de soluciones de Ux =
—x (en V). (Los conjuntos Xi y X_i pueden estar vacíos). A con
tinuación, para cada par conjugado de valores propios complejos
Ay A de U* escogemos una base ortonormal ¡ z „ . . . , z,} en el múltiple
lineal de soluciones de U'z = Az (en V+). Si = x¡ + iy¡ (con x, y
y¡ en V), sea Xx el conjunto {V 2xi, V2 y , , . . y/2 x„ V 2 y,) de
vectores en u Los resultados que hemos obtenido implican que si
formamos la unión de todos los conjuntos X1, X_i, y Xx, para todos
los valores propios A de U \ obtenemos una base ortonormal de V.
En caso de que X] tenga tres elementos, X_, tiene cuatro elementos
y hay dos pares conjugados {A,, A>) y (A,, X,}, entonces la matriz de
U con respecto de la base así construida se ve así:
B, a,
A to " 1,
V a - Z í ^ i B/.
§84. CONMUTATTVIDAD
El teorema espectral para operadores autoadjuntas y normales y el
cálculo funcional pueden también usarse para resolver ciertos pro
blemas concernientes a la conmutatividad. Es éste un tema profun
do y extenso; más que ilustrar ciertos métodos que para obtener
resultados, discutimos dos teoremas del mismo.
Teorema 1. Dos transformaciones autoadjuntas A y B so
bre un espacio finito-dimensional de producto interior son con
mutativas si y sólo si existe una transformación autoadjunta C
y existen dos funciones real-valuadas f y g de una variable real,
de manera que A = f(C ) y B = g(C). Si existe una C tal, en
tonces podemos hasta escoger C en la forma C - h(A, B), donde
k es una adecuada función real-valuada de dos variables reales.
Prueba. La suficiencia de la condición es clara; probamos so
lamente la necesidad.
Sean A = £ , o A y B = B,F, las formas espectrales de A y
B; puesto que A y B conmutan, se sigue del § 79, Teorema 3. que
E, y E, conmutan. Sea h cualquier función de dos variables reales
tales que los números h(a,, p,) = y„ son todos distintos, y escribamos
C - HA, B) - fc)Wí-
(Está claro que h puede hasta ser escogido como polinomio, y lo mis
mo es cierto de las funciones f y g que vamos a describir). Sean f
y g tales que f(yu) = a, y g(y„) = p, para toda i y ;. Se sigue que
f(C ) = A y g(C) = B, y todo está probado.
Teorema 2. Si A es una transformación normal sobre un
espacio finitodimensional unitario y si B es una transformación
arbitraria, que conmuta con A, entonces B conmuta con A*.
Prueba. Sea A - a,E, la forma espectral de A; entonces
A* - SiE^Sea f una función tal (polinomio) de una variable com
pleja que f(«i) = «i, para toda i. Puesto que A* = f(A ), se sigue la
conclusión.
EJERCICIOS
se sigue que
210 ESPACIOS VECTORIALES PINITO-DIMENSIONALES
EJERCICIOS
ANALISIS
5 87. NORMA
por || A 11.
Claramente si A es ligada, entonces || Ax || g || A || - 1| x || para
toda x. Como ejemplos podemos considerar los casos en que A es una
proyección perpendicular (no cero) o una isometría; el Teorema 1
del § 75 y el teorema del § 73, respectivamente, implican que en
ambos casos || A || = 1. Consideraciones de los vectores definidos por
x ,( t) = t" en 9 muestra que la transformación de diferenciación no
está ligada.
A causa de que en lo que sigue tendremos ocasión de considerar
bastantes ligaduras superiores e inferiores similares a || A ||, intro
duciremos una notación conveniente. Si P es cualquier propiedad po
sible de números reales t, denotaremos el conjunto de todos los núme
ros reales t que poseen la propiedad P cor el símbolo {t: P}, y
denotaremos la máxima ligadura inferior y la mínima ligadura
superior con inf (por infimum) y sup (por supremum), respectiva
mente. En esta notación tenemos, por ejemplo,
|| A || - inf {K:M * II á J fM lfo r.il* ).
La noción de ligadura esta intimamente relacionada con la noción
de continuidad. Si A está limitada y si e es cualquier número positivo,
escribiendo 8 = podemos aseguramos de que || * - y || < 8
implica que
|| A* - Ay || - || A(* - y) || S || A ||-1| * - » || <
en otras palabras, la ligadura significa continuidad (uniforme). (En
esta prueba supusimos tácitamente que 11A 11 0; el otro caso es
trivial). En vista de este hecho, el siguiente resultado es bienvenido.
T eorema. Toda transformación lineal sobre un espacio fi-
nito-dimensional de producto interior es ligada.
Prueba. Supóngase que A es una transformación lineal en D;
sea {x„ . . . x ,) una base ortonormal en 1) y escribamos
Kc = máx {|| Ax, | | II A x, II)-
Puesto que un vector arbitrario x puede ser escrito en la forma
* = 2 .- (*, *¡)*(, obtenemos, aplicando la desigualdad de Schwarz y
recordando que || x¡ || = 1 ,
IM *II-IM (E < (*,*)*) II
- nEt <*,xi)AX¡ II S E í I(*, X<)I•IIAx< II
s E í II * II • II II • II a * II á jc. E< II * I
- jv x o ii * n-
En otras palabras, K = NK0 es una ligadura de A, y la prueba es
completa.
No es un accidente que la dimensión N de V entre en nuestra
evaluación; ya hemos visto que el teorema no es verdadero en espa
cios infinito-dimensionales.
EJERCICIOS
1, (a) Pruébese que el producto interior es una función continua (y en
consecuencia lo es también la norma); esto es, si xH * y yn-» y, entonces
»„>-* <*. »>•
§ 88. EXPRESIONES PARA LA NORMA
EJERCICIOS
I . S I B o invertible. entonce. ||AB|| g || A |J/II B'1 II P " “ »da A.
2. ¿E. verdad para cada transformación lineal A que || A*A || = AA* ||?
^ (a) Si A e. hermitiana y .1 « g 0. entonce, una condición neccaria
(b) Si A es hermitiana, .1 a g A g /?, y ai p es un
p(t) g 0, cada vea que « g t g 0, entonce. p(A) g 0.
(c) Si A es hermitiana, el a g A g 0, y si p es un
p(t) 0, cada vez que a g t g 0, entonce. p(A ) es invertible.
* - { ( A . , x ) : |x ||- l |.
Esta claro que + C *. Si para toda x 0, escribimos y = x /|| x||,
entonces II y || = 1 y (Ax, x ) / || x ||’ = (Ay, y), de manera que todo
número de ó ocurre también en + y, consecuentemente ó = ♦. Es
te m inf # - inf ♦,
0 - sup » - sup Ir,
EJERCICIOS
§91. CONVERGENCIA DE TRANSFORMADORES LINEALES
| | A | | s | | A - A . | | + ||A „||
implican que
EJERCICIOS
1. Una secuencia (A.) de transformaciones lineales converge a una trans
formación lineal A si, y sólo para todo sistema de coordenadas, converge
diente entrada en la matriz de A.
2. Para cada transformación lineal A existe una secuencia (A,) de trans
formaciones lineales invertibles, tal que A ,-, A.
3. Si E y F son proyecciones perpendiculares, entonces (EFE*) converge,
a medida que n-* oo. a la proyección cuyo alcance es la intersección de los
alcances de E y F.
unitario, entonces una condición necesaria y suficiente para que A" -> 0 es
valor absoluto.
0 10 ••• 0
0 0 1 ••• 0
0 00 1
1 1 1 1
el rango. *** Pro’’ecc n c T ° rang e emdon
6. Pruébese que det y tr son continuos.
¿ ( m + IP V D
Esto implica que Vjc converge hacia cero cuando x está en 31.
Por otra parte, si x está en 31t, esto es, Ux = x, entonces V»x = x,
de manera en este caso V .r ciertamente converge hacia x.
Completaremos la prueba demostrando que 3tA = 311. (Esto im
plicará que todo vector es una suma de dos vectores, para los cuales
(V .) converge, de manera que (V.) converge en todas partes). Lo
que hemos ya probado sobre el límite de_£V„) en 311 y en 31 demues
tra que (V^c) converge siempre hacia la proyección de x en 311.).
Para demostrar que 3tJ-=DK, observamos que * está en el comple
mento ortogonal de 31 si y sólo si (x, y - Uy) = 0 para toda y. Esto,
a su vez, implica que
0 - (x, y - Uy) - (x, y) - (x, Uy) - (x, y) - (U'x, y)
- (x - U'x, y),
esto es, que x - U 'x = x — U 'x es ortogonal a cada vector y, de
manera que x — U 'x = 0, x = U'-x, o U x = x. La lectura del último
cálculo de derecha a izquierda, demuestra que esta condición necesa
ria es también suficiente; necesitamos solamente recordar la defini
ción de 3IZ para ver que 5TC—se-1.
Esta prueba tan ingeniosa, que es válida sólo con muy ligeras
modificaciones en la mayor parte de los casos infinito-dimenciona-
les, es debida a F. Riesz.
s-
Puesto que tenemos
l |S p - s j s ^ M il-,
E : - . ¿ ( A + B)' - S i - o ¿ A “ -
+ E : .o ^ ii a y- ii b f
- ( e = - ¿ m p ) ( s íb Íi. i> )
EJERCICIOS
1. Dése una prueba alternativa del teorema ergódlco. basada sobre el teo
rema espectral para transformaciones unitarias.
2. Pruébese que si || 1 —A || < 1, entonces A es invertible, considerando
APENDICE
ESPACIO DE HILBERT
a* Q
W. <R
A' «(A)
r(A)
[A; se]
A* Re
P(A)
IIAII
e
sgn
e"
Si
i,
det
Ea
U"
V/3ÍI
U+
ff" ■u*
3C + X [x,V)
<*, y)
Im 3C'
inf Z + 3TI
31t°° (*,»)
M il
3I(A)
Zm
y(A)
n
<P
<p.
(p, 9)
I N D I C E
—D—
Adjunto, 98, 108 Degenerado, 51
Alcance, 110 Descomposición cartesiana, 167
Descomposición polar, 206
Algebraicamente cerrado, 127 Desigualdad de Bessel, 152
Aniquilador, 37 Desigualdad de Schwartz, 153
Autoadjunto, 165 Determinante, 121
Automorfismo, 107 Diagonable, 132
Dimensión, 24
Dimensión ortogonal, 150
Divisor elemental, 140
Bases, 19 Divisor simple elemental, 140
dual, 33
espacio, 31
ortonormal, 157
Buena ordenación, 22
de un campo, 10
Ecuación de Hamilton-Cayley, 140
Equivalente, ortogonal, 193
Campo, 10 unitaria, 192
Equivalente, 108
Ciclo, 58 Escalar, 9
Ciclos disjuntos, 58 Espectro, 127
subespacios, 27 Espacio de coordenadas, 12, 13
Conjunto, 45 conjunto ortonormal, 149
Cogrediente, 104 de Hilbert, 227
Columna, 83 de producto interior, 148
rango de, 112 euclidiano, 149
Combinación lineal, 18 métrico completo, 212, 227
nulo, 110
Complejificación, 55, 184 por cociente, 46
Complemento, 29 sobretendido, 27
Complemento ortogonal, 151 unitario, 149
Conjugación, 177
Contragrediente, 104 vectorial complejo, 13
Contravariante, 104 vectorial finito-dimensional, 19
Convergencia, 211, 219 vectorial racional, 12
Convexo, 197 Espacios vectoriales normados, 155
Covariante, 104
ESPACIOS VECTOSIAI.ES PINITO-DIMENSIONALES
Isomorflsmo, 24
io de la, 219
le la, 189
funcional, 32, 4 Limitada desde abajo, S
de Jordán, 139 Limite inferior, 216
multilineal, 62
positiva definida, 1-
simétrica, 64
bilineal, 51
Nilpotente, 133
Norma, 149
de una transfoi
Normal, 193
No degenerado, 5
singular, 122
Nulidad, 112
Operador, 71
Orden de una p
239
□
METODOS NUMERICOS EN INGENIERIA
Por M ario G. S a lv a d o ri y M elvin L. Barón
Tela, 314 Págs. Ilustrado
□
CALCULO AVANZADO
Por Lotus Brand
Tela, 700 Págs. Ilustrado