Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Matricial
Demetrio Stojanoff
December 3, 2010
Índice
2 Funcionales y Operadores 46
2.1 Hahn Banach: El dual es grande. . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2 Recordando Baires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3 Teorema de la imagen abierta. . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4 Teorema del gráfico cerrado. . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.5 Principio de acotación uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.6 Dualidad y adjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.7 Proyectores y subespacios complementados . . . . . . . . . . . . . . . . . . . 68
2.8 Ejercicios del Cap. 2 - Funcionales y Operadores . . . . . . . . . . . . . . . . 75
3 Espacios de Hilbert 83
3.1 Preliminares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2 Ortogonalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.3 P
Teorema de representación de Riesz. . . . . . . . . . . . . . . . . . . . . . . 89
3.4 i∈I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.5 Bases ortonormales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.6 Stone-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.7 Series de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.8 Ejercicios del Cap. 3 - Espacio de Hibert . . . . . . . . . . . . . . . . . . . . 104
1
4 Operadores en espacios de Hilbert 108
4.1 El adjunto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.2 Clases de operadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.3 Positivos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.4 Descomposición polar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.5 Subespacios invariantes y matrices . . . . . . . . . . . . . . . . . . . . . . . . 127
4.6 Operadores de rango finito. . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.7 Ejercicios del Cap 4: Operadores en EH’s . . . . . . . . . . . . . . . . . . . . 135
6 Espectro 166
6.1 Álgebras de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
6.2 Ejemplos y ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
6.2.1 El espectro depende del álgebra . . . . . . . . . . . . . . . . . . . . . 175
6.2.2 Gelfand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
6.3 Espectro de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
6.4 Espectro de autoadjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
6.5 Cálculo funcional continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
6.6 Propiedades de la raı́z cuadrada positiva . . . . . . . . . . . . . . . . . . . . 193
6.7 Ejercicios del Cap. 6 - Espectro . . . . . . . . . . . . . . . . . . . . . . . . . 197
2
II Teorı́a Matricial de Operadores 244
8 Ángulos entre subespacios. 245
8.1 Preliminares y Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
8.2 Ángulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
8.3 Seudoinversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
8.4 Módulo mı́nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
3
III Marcos 337
14 Frames 338
14.1 Nociones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
14.2 Perturbaciones de frames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
14.3 Proyecciones y frames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
14.3.1 Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . 343
14.3.2 Proyecciones Oblicuas . . . . . . . . . . . . . . . . . . . . . . . . . . 344
14.4 Frames de Riesz y de Riesz condicionados . . . . . . . . . . . . . . . . . . . 347
14.4.1 Frames de Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
14.4.2 Un contraejemplo: . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
14.4.3 Ángulos entre columnas . . . . . . . . . . . . . . . . . . . . . . . . . 352
14.5 Yo me borro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
14.5.1 Excesos y Borrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
14.5.2 Frames que contienen bases Riesz . . . . . . . . . . . . . . . . . . . . 361
14.6 Truncaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
14.7 Marcos de Gabor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
14.7.1 Motivaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
14.7.2 Algunos resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
4
A.8 Sucesiones en espacios N1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
A.9 Conexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
A.10 Productos y cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
A.10.1 Topologı́a inicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
A.10.2 Topologı́a producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
A.10.3 Topologı́a final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430
A.10.4 Cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
A.11 Espacios métricos completos . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
A.12 Compactos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
A.13 Compactos en EM’s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
A.14 Compactificación de Alexandrov: Un punto . . . . . . . . . . . . . . . . . . . 440
A.15 Espacios localmente compactos . . . . . . . . . . . . . . . . . . . . . . . . . 442
A.16 Stone Čech . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
A.17 Métricas uniformes en C(X, Y ), con Y un EM . . . . . . . . . . . . . . . . . 446
A.18 Teoremas de Baire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448
5
Parte I
6
Capı́tulo 1
Espacios normados
E × E 3 (x, y) 7→ x + y ∈ E y C × E 3 (λ , x) 7→ λ x ∈ E (1.1)
sean continuas. Observar que cada Tx es un hómeo, con inversa T−x . Esto dice que, fijado
un x ∈ E, podemos calcular siempre los entornos de x como
def
Oτ (x) = x + Oτ (0) = x + U = Tx (U ) : U ∈ Oτ (0) .
O sea que para dar una topologı́a de EVT, basta con conocer una base (o sub-base) de
entornos del cero de E.
7
1. Una norma, si cumple que
2. En tal caso, el par (E, k · k) pasa a llamarse una espacio normado (shortly: EN).
5. Diremos que la función k · k de arriba es una seminorma, si cumple (a) y (b) pero no
necesariamente (c). 4
kλ x − µ yk ≤ kλ x − µ xk + kµ x − µ yk = |λ − µ| kxk + |µ| kx − yk ,
8
como subespacio denso. Esto se puede hacer a mano, pero será más fácil un poco más
adelante (ver Obs. 2.1.14). Además tiene sentido definir funciones continuas en un EN. La
cosa se pone interesante cuando uno se cuestiona la continuidad de las funciones K-lineales.
Ahora daremos las notaciones sobre este tema:
Notaciones 1.1.3. Sean E y F dos K-EV’s.
def
1. Denotaremos por E 0 = {ϕ : E → K : ϕ es lineal } al espacio dual algebráico de E.
def
2. Llamaremos Hom (E, F ) = {T : E → F : T es K-lineal } al espacio de transforma-
ciones lineales (se abrevia TL) entre E y F .
4. Si ahora pensamos que (E, k·k ) es un EN, no siempre vale que toda ϕ ∈ E 0 es continua
respecto de k · k. Lo mismo si F es también normado y T ∈ Hom (E, F ).
6. Si E era un C-EV, denotaremos por ER0 y ER∗ a sus duales pensándolo como R-EV (o
sea las funcionales ϕ : E → R que son R-lineales). 4
1.1.4. El hecho de pedirle a una TL que sea continua suena raro. De hecho en Kn son mucho
más que continuas, son las cosas por las que uno quiere aproximar otras funciones para que
sean “suaves”. Sin embargo, al subir a dimensión infinita la “mayorı́a” de las funcionales no
son continuas. Antes de seguir con la teorı́a mostremos un ejemplo para convencer al lector
incrédulo. Llamemos SF al subespacio de KN (todas las sucesiones en K) generado por la
“base canónica” infinita E = {en : n ∈ N}. Obviamente cada en es la sucesión que tiene
todos ceros salvo un uno en el lugar n-ésimo. El espacio SF consta de las “sucesiones finitas”,
en el sentido de que a partir de un momento todas sus entradas se anulan. Pongamos en
SF la norma supremo kxk∞ = sup |xn | , para x = (xn )n∈ N ∈ SF . Definamos ahora una
n∈N
funcional no continua: Sea ϕ ∈ SF0 dada por la fórmula
X
ϕ(x) = n2 · xn para cada x = (xn )n∈ N ∈ SF .
n∈N
Cada tal suma es en realidad finita, por lo que está bien definida. La linealidad es clara.
Ahora bien, si tomamos la sucesión ( enn ) de puntos de SF , vemos que k enn k∞ = n1 −−−→ 0, por
n→∞
9
en k · k∞
lo que −−−→
n n→∞
0SF en el espacio normado SF . Sin embargo, ϕ( enn ) = n para todo n ∈ N,
que no converge a ϕ(0SF ) = 0 . Luego esta ϕ es una funcional lineal y no es continua ni en el
cero de SF . Veamos, ahora sı́, una caracterización de la continuidad de las funcionales. 4
ϕ ∈ E ∗ ⇐⇒ kϕk = kϕkE ∗
def
= sup |ϕ(x)| < ∞ . (1.5)
x∈ BE
Además, ϕ 7→ kϕk es una norma en E ∗ , con la que resulta ser un espacio normado.
Demostración. Supongamos que kϕk = +∞. Luego para todo n ∈ N debe existir un
xn ∈ BE tal que |ϕ(xn )| ≥ n2 . Si ahora consideramos la sucesión yn = xnn , tendremos que
kxn k |ϕ(xn )|
kyn k = −−−→ 0 pero |ϕ(yn )| = ≥n para todo n ∈ N .
n n→∞ n
O sea que una tal ϕ no podrı́a ser continua ni en cero (recordar que ϕ(0) = 0). Esto prueba
la flecha =⇒ de la Ec. (1.5). Para ver la recı́proca observemos que si kϕk < ∞, entonces
|ϕ(x)|
= |ϕ(y)| ≤ sup |ϕ(z)| = kϕk =⇒ |ϕ(x)| ≤ kϕk kxk .
kxk z∈BE
De (1.7) deducimos que |ϕ(x) − ϕ(y)| = |ϕ(x − y)| ≤ kϕk kx − yk para todo par x, y ∈ E.
Esto muestra que una tal ϕ es re-continua.
Sea ahora M0 el mı́nimo de la Ec. (1.6) (en principio digamos que es el ı́nfimo). Por la (1.7),
es claro que M0 ≤ kϕk. La otra desigualdad surge de la definición de kϕk. En particular
hay mı́nimo y vale la Ec. (1.6). Finalmente, el hecho de que ϕ 7→ kϕk define una norma en
E ∗ es de verificación inmediata, y se deja como ejercicio.
10
2. T ∈ C(E, F ) ⇐⇒ kT k < ∞.
En tal caso a T se lo llama un operador acotado. Denotaremos por
L(E, F ) = Hom (E, F ) ∩ C(E, F )
al espacio (normado vı́a T 7→ kT k) de tales operadores.
Demostración. La prueba coincide mutatis mutandis con la de la Prop. 1.1.5. Basta cambiar
ϕ por T y | · | por k · kF cuando haga falta.
Como vimos, a las funcionales ϕ ∈ E ∗ y a los operadores T ∈ L(E, F ) (para E y F dos EN’s)
se los suele adjetivar como “acotados” en lugar de continuos. Esto no es del todo cierto. Lo
que pasa es que se asume que la acotación se refiere a sus restricciones a la bola BE .
Observación 1.1.7. Sean E y F dos K-EV’s y T ∈ Hom(E, F ). Entonces se tiene que
Esto se debe a la igualdad T (x) − T (y) = T (x − y) y a que T (0) = 0. Recordar que por la
métrica que usamos, una sucesión xn −−−→ x ⇐⇒ x − xn −−−→ 0.
n→∞ n→∞
0
En particular se tiene que las ϕ ∈ E cumplen que
k·k
ϕ ∈ E ∗ ⇐⇒ ϕ(xn ) −−−→ 0 para toda sucesión xn −−−→ 0 . 4
n→∞ n→∞
• En tal caso, para calcular exactamente kϕk uno candidatea un M como arriba que
intuya que es el óptimo en el sentido de la Ec. (1.6). Luego para verificar que efectiva-
mente lo es, y por ello valdrı́a que kϕk = M , basta encontrar una sucesión
Usando las fórmulas (1.5) y (1.6), si el candidato M cumple ambas cosas (es una cota
por arriba y se lo aproxima desde la bola) ya sabremos que kϕk = M .
El mismo proceso sirve para calcular la kT k de un T ∈ L(E, F ) como en la Prop. 1.1.6.
Veamos un ejemplo: El normado será el espacio SF de sucesiones finitas definido en 1.1.4.
Consideremos la funcional ϕ ∈ SF0 dada por la fórmula
X xn
ϕ(x) = 2
para cada x = (xn )n∈ N ∈ SF .
n∈N
n
11
1
P
Nuestro candidato para kϕk es el número M = n2
< ∞. En efecto observar que
n∈N
X x
n
X |xn | X 1
|ϕ(x)| = ≤ ≤ kxk = M kxk∞
2 2 ∞ 2
n n n
n∈N n∈N n∈N
para todo x = (xn )n∈ N ∈ SF . Ası́ que ya sabemos que ϕ ∈ SF∗ con kϕk ≤ M . El
siguiente paso es aproximar desde la bola: Para cada entero k ∈ N definamos el vector
Pk
yk = en = (1, . . . , 1, 0, 0, . . . ) ∈ SF (la cantidad de unos es k). Notemos que kyk k∞ = 1
n=1
para todo k ∈ N, por lo que la sucesión de vectores (yk )k∈N vive en la bola BSF . Además
k
X 1 X 1
ϕ(yk ) = −−−→ =M .
n=1
n2 k→∞
n∈N
n 2
Luego kϕk = M y a otra cosa. Como habrán notado, la mecánica en cuestión, más que
calcular la kϕk, sirve para probar que una cadidato M que uno saca de la galera cumple que
kϕk = M . El criterio de elección de tales candidatos depende del contexto y de la intuición
del que lo busque. No se puede dar recetas para todo en la vida.
Para ejercitar la intuición y la metodologı́a propuesta dejamos otro ejemplo para el lector:
Se trata de calcular la norma del operador T : SF → SF dado por
1
T x = (1 − ) xn para cada x = (xn )n∈ N ∈ SF . 4
n n∈N
Observación 1.1.9. Sean E, F y G tres EN’s y sean T ∈ L(E, F ) y A ∈ L(F, G). Como
componer continuas da continua (y lo mismo con las K-lineales), nos queda que la com-
posición AT = A ◦ T ∈ L(E, G). Pero mejor aún, por la definición de normas de operadores
dada en (1.8), que utiliza supremos, tenemos la siguiente desigualdad:
En particular, si llamamos L(E) = L(E, E), este espacio normado es también una K-álgebra,
y la norma es “matricial”, en el sentido de que si
Si pedimos que E sea Banach, entonces L(E) es lo que se llama un álgebra de Banach,
porque como se verá en el Teo. 1.1.10 que viene a continuación, el espacio L(E) sera también
un EB, que es además K-álgebra, con una norma matricial. 4
Teorema 1.1.10. Sean E y F dos EN’s. Pensemos a L(E, F ) como un EN con la norma
de la Ec. (1.8). Entonces vale que
12
2. En particular E ∗ = L(E, K) es un Banach para cualquier espacio normado E.
Demostración. Asumamos que F es un EB. Si me dan una sucesión (Tn )n∈ N de Cauchy en
L(E, F ), para cada x ∈ E tenemos que
Es fácil ver que T es K-lineal (lı́mites de sumas y todo eso). Y tenemos convergencia
“puntual”. Para concluir que L(E, F ) es Banach nos faltarı́a ver que
ε
Veamos primero lo segundo: Dado un ε > 0, hay un n0 ∈ N tal que kTn − Tm k < 2
siempre
que n, m ≥ n0 . Si fijamos un n ≥ n0 y tomamos cualquier x ∈ E, se tiene que
? ε
k(T − Tn ) xk = kT x − Tn xk = lı́m kTm x − Tn xk ≤ sup kTm x − Tn xk ≤ kxk .
m→∞ m≥n0 2
?
En efecto, la igualdad = surge de que tanto sumar un vector fijo como tomar norma son
funciones continuas en F (Prop. 1.1.2). Como la desigualdad de arriba vale con el mismo
n para todos los x ∈ E , podemos tomar supremo sobre BE , con lo que
ε
kT − Tn k = sup k(T − Tn ) xk ≤ sup kxk < ε , para todo n ≥ n0 .
x∈BE x∈BE 2
En resumen, ya sabemos que kTn − T kL(E,F ) −−−→ 0. En particular, existe un Tm tal que
n→∞
Unas cuantas directas muestran que kTn − Tm k = kϕk kyn − ym kF para todo par n, m ∈ N.
Usando que L(E, F ) es Banach, debe existir un T ∈ L(E, F ) tal que kTn − T k −−−→ 0.
n→∞
Ahora basta elegir un x0 ∈ E tal que ϕ(x0 ) = 1 y poner y = T x0 .
13
Observación 1.1.11. En la prueba anterior hay un exceso de hipótesis. Para el item 3
basta pedir que E 6= {0}. Si bien nadie probó todavı́a que que todo EN no trivial tiene
funcionales continuas no nulas, más adelante veremos que eso es cierto. Nos adelantamos un
poco para ir motivando el teorema de Hahn-Banach. 4
Antes de terminar esta sección básica y pasar a los ejemplos, mostraremos un criterio para
testear completitud de un EN que se usará varias veces en lo que sigue.
Proposición 1.1.12. Sea E un EN. Las suguientes condiciones son equivalentes:
1. El esapcio (E, k · k) es un Banach (i.e., es completo).
2. Toda serie absolutamente convergente es convergente (todo en E). Más precisamente,
dada una sucesión (xn )n∈ N en E, se tiene que
X X
kxn k < ∞ =⇒ xn es convergente (con la norma) a un punto x ∈ E .
n∈N n∈N
P
En tal caso, vale que kxk ≤ kxn k.
n∈N
∞
P ∞
P
por la hipótesis de que kxn k < ∞. Ası́ que existe lim yn = x = xn . Además,
n=1 n→∞ n=1
Xn
n
X ∞
X
kxk = lı́m kyn k = lı́m
xk
≤ lı́m kxk k = kxk k ,
n→∞ n→∞ n→∞
k=1 k=1 k=1
donde se usó que la función y 7→ kyk es continua, Creamos ahora en la condición dos, y
tomemos una sucesión de Cauchy (yn )n∈ N en E. Para cada k ∈ N elijamos un
mk ∈ N tal que kyr − ys k < 2−k para los r, s ≥ mk .
Luego definamos inductivamente n1 = m1 y nk = max{mk , nk−1 + 1} para k > 1 (esto
para que los nk sean crecientes). Nos queda una subsucesión (xk )k∈ N = (ynk )k∈ N tal que
kxk+1 − xk k < 2−k para todo k ∈ N. Tomemos finalmente la telescópica
z1 = x1 y zk+1 = xk+1 − xk para k∈N.
Por lo anterior, la sucesión (zk )k∈ N es absolutamente convergente y por ello convergente.
Pk
Pero cada zr = xk = ynk . Ası́ que la subsucesión (ynk )k∈ N es convergente a un y ∈ E, y
r=1
arrastra con ella a toda la (yn )n∈ N porque esta era de Cauchy.
14
1.2 Ejemplos más famosos.
La gracia de los EVT’s y los EN’s, y por ende del análisis funcional en general, es que la teorı́a
se hizo como forma de abstraer propiedades ya conocidas de muchos ejemplos matemáticos
muy importantes, que se estudiaban separadamente. Esto simplificó los conceptos involu-
crados, y permitió desarrollar una teorı́a nueva (con aplicaciones directas a esos ejemplos
y muchı́simos nuevos que fueron apareciendo). Y lo bueno es que esa teorı́a explotó, obte-
niendo gran cantidad de resultados cualitativamente importantes y generando un mundo
nuevo dentro del análisis.
A continuación enumeraremos los ejemplos más conocidos. En general, las pruebas de que
las normas descritas cumplen la desigualdad triangular requieren de cuentas no demasiado
fáciles, dentro del contexto de cada ejemplo. Dejaremos sistemáticamente esas pruebas como
ejercicios para el lector.
Ejemplo 1.2.1. Es sencillo ver que toda norma k·k sobre R es de la forma kxk = a · |x|
(x ∈ R), donde a = k1k > 0. En efecto, la propiedad (b) de la definición de norma nos dice
que kxk = |x| k1k para cualquier x ∈ R.
También está claro que toda función de la forma R 3 x 7→ a|x|, con a > 0, es una norma
sobre R. Es conocido el resultado Q = R que nos dice que este espacio es separable.
Ejemplo 1.2.3. Más generalmente, en Kn podemos definir varias normas: Dado un vector
x = (x1 , . . . , xn ) ∈ Kn , consideremos
n
p1
|xk |p
P
2. kxkp = para los exponentes 1 ≤ p < ∞.
k=1
Las mismas consideraciones que en los ejemplos anteriores nos dicen que estos espacios son
separables.
def
f ∈ `∞ (X, E) si kf k∞ = sup kf (x) kE < ∞ .
x∈X
15
2. Veamos que si E era un EB, entonces `∞ (X, E) es completo, y queda un EB.
En efecto, sea (fn )n∈N una sucesión de Cauchy en `∞ (X, E). Dado un x ∈ X, sabemos
que kfk (x) − fm (x)kE ≤ kfk − fm k∞ para todo k, m ∈ N. Luego cada sucesión
(fn (x) )n∈N es de Cauchy en E. Como E es completo, podemos definir la función
ε
Dado ε > 0, sea n1 ∈ N tal que kfk − fm k∞ < 2
para todo k, m ≥ n1 . Si k ≥ n1 ,
ε
kfk (x) − f (x)kE = lı́m kfk (x) − fm (x)kE ≤ sup kfk (x) − fm (x)kE ≤ < ε , (1.11)
m→∞ m≥n1 2
para todos los x ∈ X a la vez. La igualdad = se deduce de que fm (x) −−−→ f (x),
m→∞
usando la norma es continua. La Ec. (1.11) muestra que kfn − f k∞ −−−→ 0. Tomando
n→∞
un n tal que kfn − f k∞ < 1, la Ec. (A.24) nos asegura que f ∈ `∞ (X, E) .
En la Prop. A.17.4 se prueba que Cb (X, E) es cerrado en `∞ (X, E). Observar que eso
es más que suficiente para asegurar que también Cb (X, E) es un EB.
Ejemplo 1.2.5. Consideremos ahora los epacios de sucesiones escalares dentro de KN . Us-
aremos la notación x = (xn )n∈ N para dichas sucesiones.
16
En ellos se considera la norma
! p1
X
kxkp = |xn |p .
n∈N
que puede interprestarse como la “unión” de todos los Kn , n ∈ N. Este K-EV tiene
dimensión algebráica numerable, porque tiene a la bases canónica {en : n ∈ N}, donde
cada en es la función caracterı́stica del conjunto {n}.
Observar que SF ⊆ `p para todo p ∈ [1, ∞). Más aún, nuestro SF es claramente denso
en cada `p con su norma (truncando colas de series). Considerando el subconjunto
Q(N) = SF ∩ QN uno muestra que todos los `p son separables.
El párrafo anterior conlleva a una conclusión sorprendente: no todo subespacio de un
normado E tiene porque ser cerrado como subconjunto de X. Esto contradice la intu-
ición erreénica, y hace falta que nos vayamos acostumbrando a descartar esa intuición
e ir generando una banájica. Ası́ que para abreviar, en lo que sigue escribiremos
es también un Banach con dicha norma supremo. Hemos visto que este Banach no es
separable. Contiene a SF , pero ahora no queda denso.
17
5. Ahora podemos generalizar los ejemplos anteriores: Fijemos E un EN, y p ∈ [1, ∞).
Dentro del producto E N , consideremos el subespacio
( )
X
`p (N, E) = `p (E) = (xn )n∈ N ∈ E N : kxn kp < ∞ .
n∈N
Obtenemos un normado con la norma p resultante. Esto se puede extender más aún,
definiendo `p (I, E), donde I es cualrquier conjunto. Hace falta repasar un poco de
sumas “desordenadas”, o sea series no numerables de términos positivos.
Q
6. Incluso más, podemos considerar el producto P = En , donde cada (En , k · kn ) es
n∈N
p p
P
un EN, y tomar el subespacio ` (T ) = (xn )n∈ N ∈ P : kxn kn < ∞ , dándole una
n∈N
estructura de espacio normado mediante la súper-norma p. 4
Ejemplo 1.2.7. Sea X un conjunto y sobre él consideremos el espacio de medida (X, Σ, µ),
donde Σ es una σ-álgebra de conjuntos de X y µ : Σ → R+ ∪{+∞} es σ-aditiva. Llamaremos
Med(X, Σ) al conjunto de funciones f : X → K que son Σ-medibles.
La demostración de que se trata realmente de una seminorma (lo que garantiza que Lp
es un K-EV) es la famosa desigualdad de Minkowski.
18
3. Es fácil ver que el conjunto N = N (X, Σ, µ) = f ∈ Med(X, Σ) : µ |f | 6= 0 = 0 es
un subespacio de Med(X, Σ). Una cuenta directa muestra que
4. Cabe recordar que si µ (X) < ∞, entonces L∞ ⊆ Lp para todo 1 ≤ p < ∞, y además
Para probar la Ec. (1.13), tomumos un A < 1 y llamamos E = {x ∈ X : |f (x)| > A}.
Por la definición del supremo esencial vemos que µ (E) > 0. Además
Z p1 Z p1 Z p1
1 1 1
p p p
A · µ (E) = (A ) ·
p p χE = A ≤ |f | ≤ kf kp ≤ µ(X) p ,
X E E
Por lo tanto también vale que L∞ ⊆ Lp (se dividı́a por lo mismo). Ojo que la inclusion
es de conjuntos. Porque L∞ es un EB con su norma, aunque L∞ 6v Lp porque como
subespacio de los Lp es fácil ver que es denso en cada uno de ellos con su k · kp . 4
def
BV[a, b] = {ϕ : [a, b] → R : V (ϕ) = sup V (ϕ, Π) < ∞}
Π
19
cosiste de las llamadas funciones de variación acotada (VA) sobre [a, b].
Se ve fácilmente que la flecha ϕ 7→ V (ϕ) es una seminorma. El número V (ϕ) se llama la
variación de ϕ. Los ejemplos más fáciles de funciones de VA son las monótonas. En ese
caso, para cualquier partición Π vale que
Por otro lado, no es dificil ver que V (ϕ) = 0 si y sólo si ϕ es constante. En efecto, la igualdad
V (ϕ) = 0 =⇒ V (ϕ, Π) = 0 para toda partición Π. Si existieran dos puntos u, v ∈ [a, b], con
u > v, tales que ϕ (a) 6= ϕ(b) podrı́amos tomar la partición ad hoc Π∗ = {a, , v, u, b}. Pero
ella cumplirı́a que V (ϕ, Π∗ ) ≥ |ϕ(u) − ϕ(v)| > 0. No puede ser.
Ahora sı́ podemos dar una norma para el espacio BV[a, b], poniendo
Es una seminorma por ser la suma de dos de ellas. Pero ahora tenemos que kϕkBV = 0 =⇒
ϕ ≡ 0, porque la ϕ debe ser constante y ϕ(a) = 0. Un argumento similar al del Ejem. 1.2.4
(espacios `∞ (X , E) ) nos dice que BV[a, b] es no separable. 4
Ejemplo 1.2.9. Sea α ∈ R∗+ . Las funciones lipschitzianas de orden α son las funciones
ϕ : [a, b] → K que satisfacen que su norma
El hecho de que k kLα sea una norma sale igual que en el ejemplo anterior. Es facil ver que
toda tal ϕ ∈ C[a, b]. Más aún, si fijamos un par t 6= s en (a, b), tenemos que
Por eso se las llama lipschitzianas. De hecho, es fácil ver que una ϕ cumple la desigualdad
de la derecha de (1.15) para alguna constante Sϕ < ∞ ⇐⇒ kϕkLα < ∞. Estas funciones
son interesantes sobre todo cuando 0 < α ≤ 1. Porque sinó pasa lo siguiente:
Si α > 1, las únicas funciones lipschitzianas de orden α son las constantes. En efecto, si
kϕkLα < ∞ con α > 1, entonces ϕ tiene que ser derivable en el abierto (a, b), y además se
debe cumplir que ϕ0 ≡ 0. Es porque dado un x0 ∈ (a, b), el cociente incremental cumple que
Luego, por algún Teorema de Análisis I ya tenemos que ϕ debe ser constante. 4
20
Ejemplo 1.2.10. Sea (X, τ ) un ET compacto Hausdorff. Llamemos B(X) ⊆ P(X) la σ-
álgebra de los Borelianos de X (la σ-álgebra generada por τ ). Una medida boreliana compleja
es una µ : B(X) → C que es σ-aditiva y sólo toma valores finitos.
La variación total de una tal µ es la medida positiva |µ| definida por
nπ
X
|µ|(A) = sup |µ(Ek )| para cada A ∈ B(X) , (1.16)
π∈PD(A) k=1
d
S
donde PD(A) es el conjunto de particiones finitas π = {E1 , . . . , Enπ } de A (i.e., Ek = A).
Una de las utilidades de |µ| es que se la necesita para la desigualdad
Z Z
f d µ ≤ |f | d |µ| , (1.17)
X X
que vale para cualquier f ∈ C(X) (y para toda f que sea µ-integrable). Otra es que sirve
para definir la regularidad: una medida µ es regular si |µ| cumple que
El que |µ| sea finita para toda µ ∈ Mr (X) y la triangular |µ + ν|(X) ≤ |µ|(X) + |ν|(X) son
resultados tı́picos de teorı́a de la medida, que asumiremos (ver 1.9.25). Observar que
Usando esto se puede mostrar que ( Mr (X), k · k ) es un Banach, cuenta que dejamos como
ejercicio. Las pruebas de las afirmaciones de este ejemplo están detalladamente propuestas
como una serie de ejercicios en la sección final: desde el 1.9.12 hasta la Obs. 1.9.25. 4
21
Una cuenta que usaremos seguido dice que
z |z|2
sgn z · z = ·z = = |z| para todo z ∈ C \ {0} . (1.19)
|z| |z|
La igualdad de los bordes obviamente sigue valiendo para z = 0.
En los siguientes ejemplos usaremos sistematicamente la receta propuesta en la Obs. 1.1.8
para calcular normas de funcionales.
1.3.1. Queremos identificar los duales de c0 y de `1 .
Empecemos representando a `1 dentro de c∗0 . Dada y = (yn )n∈ N ∈ `1 definamos la funcional
X
ϕy : c0 → K dada por ϕy (x) = xn yn , para cada x = (xn )n∈ N ∈ c0 .
n∈N
La parte derecha dice que la serie es absolutamente convergente y por ello converge, ası́
que ϕy (x) está bien definida. Mirándola de nuevo, ahora para todo x ∈ c0 , nos dice que
kϕy k ≤ kyk1 para cualquier y ∈ `1 . Entonces ya tenemos una representación R ∈ L(`1 , c∗0 )
dada por R(y) = ϕy . Veamos que es isométrica: Fijado el y ∈ `1 y un N ∈ N, tomemos
N
X
xN = sgn yk ek = (sgn y1 , . . . , sgn yN , 0 , 0 , . . . ) ∈ SF ⊆ c0 . (1.21)
k=1
N
P N
P
Observar que, usando la Ec. (1.19), tenemos que ϕy (xN ) = sgn yk yk = |yk | . Por otra
k=1 k=1
parte kxN k∞ ≤ 1 para cualquier N ∈ N, porque | sgn z| ≤ 1 para cualquier z ∈ C. Juntando
todo y agrandadno indefinidamente el N ∈ N, llegamos a que
N
X
kϕy k = sup |ϕ(x)| ≥ sup |ϕ(xN )| = sup |yk | = kyk1 .
kxk∞ ≤1 N ∈N N ∈N
k=1
Esto muestra que la representación R es isométrica. Falta ver que llena al dual c∗0 . Para
probarlo, fijemos ϕ ∈ c∗0 y definamos yn = ϕ(en ) ∈ K para cada n ∈ N. Esto nos da la
candidata y = (yn )n∈ N . Es fácil ver que en los x ∈ SF se cumple que
X X
ϕ(x) = ϕ xn e n = xn yn = ϕy (x) ,
n∈ J n∈ J
22
Ahora viene el dual de `1 . La idea es exactamente la misma, aunque ahora nos dará que
(`1 )∗ ∼
= `∞ . En efecto, dada z = (zn )n∈ N ∈ `∞ , volvemos a definir
X
ϕz : `1 → K dada por ϕz (y) = yn zn , para cada y = (yn )n∈ N ∈ `1 . (1.23)
n∈N
La Ec. (1.20) sigue valendo en éste contexto (cambiando x por z) lo que dice que la serie
camina, ϕz ∈ (`1 )∗ y kϕz k ≤ kzk∞ (porque ahora la variable es el y ∈ `1 ). La representación
es isométrica usando los vectores yN = sgn zN · eN ∈ SF ⊆ `1 . En efecto, todos tienen
kyN k1 = | sgn zN | ≤ 1 y cumplen que ϕz (yN ) = |zN |, por lo que kzk∞ ≤ kϕz k.
Para ver que esto llena el dual de `1 se argumenta igual que en el caso de c0 . El dato clave
es que SF sigue siendo denso en `1 .
Mucho más difı́cil es describir (`∞ )∗ , porque `∞ no tiene un denso en el que se puedan hacer
cuentas lineales tranquilizadoras. Pero al menos se puede ver que (`∞ )∗ es “grande”, porque
sı́ se puede meter a `1 adentro de (`∞ )∗ con el mismo curro de siempre (de hecho con la
misma acción y desigualdades que describimos antes sobre c0 ). El tema es que no lo llena
ni ahı́. Observar que, dada ϕ ∈ (`∞ )∗ , se puede seguir poniendo xn = ϕ(en ) y armar un x
de `1 . Pero no se sabe si la ϕx actúa como ϕ en todo `∞ porque SF no es más denso. 4
Ejercicio 1.3.2. En forma similar a lo anterior, probar que si
1 < p, q < ∞ y 1
p
+ 1
q
=1 =⇒ (`p )∗ ∼
= `q . (1.24)
La acción es como arriba, haciendo series de productos y usando Hölder en vez de (1.20). 4
1.3.3. Fijemos ahora un compacto Hausdorff (X, τ ) y pensemos en el dual del espacio
C(X) = C(X, C), que vimos que es un Banach con la k · k∞ . Consideremos el espacio
normado Mr (X) de medidas borelianas complejas regulares, del Ejem. 1.2.10. Recordemos
que si µ ∈ Mr (X) se define la medida positiva finita |µ| ∈ Mr (X), llamada variación total
de µ, y que kµk = |µ|(X). El teorema de representación de Riesz asegura que
Mr (X) ∼
= C(X)∗ .
Veamos la parte fácil de eso: Dada µ ∈ Mr (X), definamos ϕµ ∈ C(X)0 por la fórmula
Z
ϕµ (f ) = f d µ , para cada f ∈ C(X) .
X
La definición es buena porque las continuas son integrables para toda µ ∈ Mr (X). Además
Z Z
|ϕµ (f )| = f d µ ≤ |f | d |µ| ≤ kf k∞ |µ|(X) = kµk kf k∞
X X
para toda f ∈ C(X), por la Ec. (1.17). Luego ϕµ ∈ C(X)∗ y kϕµ k ≤ kµk. Usando que µ es
regular se puede mostrar que en realidad vale que kϕµ k = kµk. La cuenta es fácil usando
funciones simples sobre particiones π = {E1 , . . . , En } de X con los coeficientes sgn µ(Ek ).
23
Eso sale como en los ejemplos anteriores, porque sus integrales aproximan el valor |µ|(X)
dado en la Ec. (1.16). La regularidad sirve para aproximar esas simples por continuas (salvo
conjuntos |µ|-pequeños), usando Tietze y la definición (1.18) de regularidad. Los detalles
quedan para el lector regular (ver los ejercicios 1.9.12 - 1.9.26).
Lo que es mucho más complicado es ver que toda ϕ ∈ C(X)∗ se representa como una ϕµ
para µ ∈ Mr (X). Es una demostración tan trabajosa como la construcción de la medida
de Lebesgue.
R1 Para convencerse basta un ejemplo: Si en C([0, 1]) tomamos la funcional
f 7→ 0 f (t) dt , pero hecha con la integral de Riemann, entonces la µ que la representa no
es otra que la mismı́sima medida de Lebesgue en los borelianos del [0, 1]. 4
Si S ⊆ E es un subespacio, entonces S v E.
O sea que la clausura de un subespacio sigue siendo subespacio. Ya que van a hacer la
cuenta, observen que vale en el contexto general de EVT’s. Solo hace falta tomar redes en
vez de sucesiones para la prueba general. Y recordar la Ec. (1.1). 4
24
porque x + S = z + S. En forma aún más fácil uno puede mostrar que
λ x+S = λ (x+S) =⇒ d (λ x , S) = |λ|·d (x , S) para todo x∈E, λ ∈ K . (1.26)
Ahora bien, en los espacios Euclı́deos (más adelante en los Hilbert) se tiene que siempre
existe un z0 ∈ x + S que es ortogonal a S, y por lo tanto cumple (Pitágoras mediante) que
?
kz0 k = d (z0 , 0) = d (x, S) = mı́n kzk . (1.27)
z∈ x+S
Naturalmente cabe preguntarse si algo semejante (que el ı́nfimo que define la distancia a un
S v E sea siempre un mı́nimo) pasará en cualquier espacio normado E.
A priori podrı́a pensarse que alcanzarı́a con que E sea un Banach (aproximar y tomar lı́mite).
Sin embargo, en general es falso, aún para Banach’s, porque hace falta que la bola BE tenga
un tipo especial de convexidad para que los aproximantes sean necesariamente de Cauchy.
Veremos primero un contraejemplo y luego una forma muy util de reiterpretar la Ec. (1.27),
pero sólo con ı́nfimos, que vale en general. 4
Ejemplo 1.4.3. El espacio base será C[0, 1], que es Banach. Consideremos el subespacio
X = {f ∈ C[0, 1] : f (0) = 0} v C[0, 1] . Luego X es un Banach .
Por otro lado, consideremos la funcional ϕ : X → C dada por
R1
ϕ(f ) = 0 f (t) dt para cada f ∈ X .
R1
Es claro que ϕ es lineal. La desigualdad 0 f (t) dt ≤ kf k∞ y la Prop. 1.1.5, nos dicen que
ϕ ∈ X ∗ con kϕk ≤ 1. Llamemos M = ker ϕ v X . Es claro que M = 6 X , o sea que M es un
subespacio de X que es cerrado y propio.
Ahora supongamos que existe un f0 ∈ X tal que kf0 k∞ = 1 = d (f0 , M) como uno buscaba
en la Ec. (1.27). Ya veremos adónde nos lleva. Para cada f ∈ X \ M definamos
R1
ϕ(f0 ) f0 (t)dt
cf = = R01 que produce un g = f0 − cf · f ∈ ker ϕ = M .
ϕ(f ) f (t)dt
0
25
En cualquier caso subsiste una idea de ”cuasiortogonalidad” inducida por el famoso Lema
de F. Riesz que damos ahora. Una manera de visualizar su enunciado es imaginarse al
subespacio S como un plano, que uno translada con muchos vectores unitarios, y luego
busca maximizar la distancia vs. S entre todos los planos paralelos que quedan.
Lema 1.4.4. Sea E un EN. Dado un S v E tal que S = 6 E se tiene que, para cada ε > 0
existe algún vector unitario xε ∈ E (o sea que kxε k = 1) tal que d (xε , S) ≥ 1 − ε.
Demostración. Vamos a suponer que ε < 1 y que S = 6 {0} (sino todo es una boludez). Como
0 ∈ S, tenemos que 0 ≤ d (x , S) ≤ kxk para todo x ∈ E. Como S es cerrado y propio,
existe por lo menos un z ∈ E tal que d (z , S) = ı́nf kyk = 1. Luego
y∈ z+S
Ejemplo 1.4.5. Volviendo al ejemplo anterior al Lema (y usando las notaciones del mismo),
se puede construir explı́citamente una sucesión de vectores unitarios {fn }n∈N en X tales que
1
d (fn , M) −−−→ 1. Es la de antes: fn (t) = t n . Los detalles quedan a cargo del lector. 4
n→∞
1.5 Isomorfismos.
Hay dos tipos de isomorfismos en la categorı́a de EN’s, los isométricos y los comunes. En el
caso isométrico se habla de “igualdad” entre los espacios, como el los ejemplos de duales que
vimos hace poco. En los demás casos se habla de isomorfos y no es para tanto. Pero vale la
penar fijar bien qué cosas se preservan por cada tipo de isomorfismo.
26
A los operadores lineales biyectivos pero no bicontinuos se los mencionará como isomorfismos
K-lineales. La palabra iso (sola) se reserva para los del item 2. 4
Los isomorfismos entre EN’s son hómeos entre sus topologı́as resultantes. Pero preservan
propiedades métricas mejores que los hómeos a secas, porque al ser lineales son más que sólo
bicontinuos. Veamos:
Proposición 1.5.2. Sean E y F dos EN’s tales que E ' F . Sea T ∈ L(E, F ) el mentado
isomorfismo. Entonces:
1. Sean M = kT k y m = kT −1 k−1 . Entonces tenemos que
m · BF ⊆ T (BE ) ⊆ M · BF . (1.32)
4. E es Banach ⇐⇒ F es Banach.
La otra inclusión de (1.32) sale por la definición de kT k. Usando (1.31) y que T es lineal,
sale el item 3. Los otros dos son consecuencias directas de 3, porque al ser continuas, tanto
T como T −1 preservan convergencias y compacidad. Para probar 5 hay que usar (1.32) y
que x 7→ λ x (con λ 6= 0) es hómeo tanto en E como en F .
Ejercicio 1.5.3. Sean E y F dos EN’s y tomemos T ∈ Hom(E, F ). Probar que tanto la
Ec. (1.31) como la Ec. (1.32) (para dos constantes m y M dadas) implican que T ∈ L(E, F )
y que es un iso bicontinuo. Incluso sale que kT k ≤ M y que kT −1 k ≤ m−1 . 4
1.5.4. Sea E un K-EV, y sean N1 y N2 dos normas en E. En tal caso se dice que N1 y N2
son normas equivalentes si existen m, M > 0 tales que
Esto equivale a que (E, N1 ) ' (E, N2 ) como espacios normados, por ejemplo con el isomor-
fismo IE1,2 = IE : (E, N1 ) → (E, N2 ). En efecto, basta tomar M = kIE1,2 k. La acotación por
27
abajo equivale a que IE2,1 = (IE1,2 )−1 sea acotada. La recı́proca sale tomando cualquier otro
isomorfismo T , y se deja como ejercicio.
Ejemplos de normas equivalentes son todas las k · kp con 1 ≤ p ≤ ∞, siempre que uno las
use solo en Kn , con el n fijo . De hecho vale que, si 1 < p < ∞, entonces
P
kxk∞ ≤ kxkp ≤ kxk1 = |xk | ≤ n · kxk∞ para todo x ∈ E .
k∈In
La aparición de ese n hace ya sospechar que la cosa se arruina al agrandar las dimensiones.
En efecto, si ahora uno labura con el espacio SF del Ejem. 1.2.5 (las sucesiones “finitas”), ahi
tienen sentido todas las k · kp , pero nunca son equivalentes entre sı́. Eso se puede probar a
mano, o usando que si lo fueran, los respectivos `p en los que SF es denso (o c0 para p = ∞),
tendrı́an que ser iguales como conjuntos (Prop. 1.5.2). Es fácil ver que eso no pasa.
En la mayorı́a de los ejemplos infinitodimensionales, es raro que aparezcan dos normas
equivalentes (salvo buscarlas ad hoc, por ejemplo tomando 2 · k · k). En cambio, como
veremos en la siguiente sección, en los finitodimensionales todas las normas que uno pueda
inventar para un espacio fijo son equivalentes. 4
Veamos que la Ψ es continua (de ida). En efecto, para todo α ∈ Kn vale que
n
X n
X
kΨ(α)k ≤ |αk | kxk k ≤ máx kxk k · |αk | ≤ n · máx kxk k kαk2 ,
k∈In k∈In
k=1 k=1
por lo que Ψ ∈ L(Kn , E). Nos falta mostrar que Φ = Ψ−1 ∈ L(E , Kn ). Lo enunciamos ası́:
Todo K-iso Φ ∈ Hom(E , Kn ) debe ser continuo.
Supongamos que no lo es, i.e. kΦk = ∞. Entonces existe una sucesión (xn )n∈ N en BE \ {0}
cuyas imágenes yn = Φ(xn ) cumplen que an = kyn k −−−→ +∞. Luego la sucesión de los
n→∞
zn = a−1
n xn −−−→ 0 mientras que del otro lado kΦ(zn )k = a−1
n kyn k = 1 para todo n ∈ N.
n→∞
28
Sin embargo la cáscara S n−1 = {w ∈ Kn : kwk = 1} es compacta en el espacio Euclı́deo
Kn . Luego existe una subsucesión (ynk )k∈ N de (yn )n∈ N tal que esta otra sucesión
Φ(znk ) = a−1
nk ynk −−−→ w para cierto w ∈ S n−1 .
k→∞
Como ya vimos en la primera parte que Ψ = Φ−1 ∈ L(Kn , E) (tiene que ser continuo), sale
que znk = Ψ Φ(znk ) −−−→ Ψ(w). Pero arriba vimos que znk −−−→ 0. Encima Ψ es un
k→∞ k→∞
K-iso, por lo que tiene que valer que w ∈ S n−1 =⇒ w 6= 0 =⇒ Ψ(w) 6= 0. Todo este
desastre provino de suponer que Φ no era continuo. Ası́ que sı́ lo es y a otra cosa.
Corolario 1.6.2. Sea E un EN de dim E = n < ∞. Entonces:
1. Si F es otro EN con dim F = n, entonces E ' F vı́a cualquier iso lineal.
2. Dos normas N1 y N2 en E son equivalentes. O sea que existen m, M > 0 tales que
m N1 (x) ≤ N2 (x) ≤ M N1 (x) para todo x∈E . (1.34)
29
Corolario 1.6.5. Sean E y F dos EN’s y asumamos que dim E < ∞. Entonces todo
operador A ∈ Hom (E , F ) es continuo (i.e., acotado). No se presume que A sea mono.
P
Demostración. Fijemos una base {x1 , . . . , xn } de E como K-EV. Si y = yk xk ∈ E,
k∈In
P
P
P
kA yk =
y k A xk
≤ |yk |
A xk
≤ máx kA xk k |yk | .
k∈In k∈In k∈In k∈In
def P P
|ky |k = |yk | para cada y= yk xk ∈ E .
k∈In k∈In
Por el Cor. 1.6.2 existe M > 0 tal que |ky |k ≤ M kyk para todo y ∈ E. Luego
1.7 Cocientes.
Sea E un EN. Dado un S v E, consideramos la relación de equivalencia usual
Pero ahora queremos definir en E/S una norma adecuada: La mejor candidata será tomar
la k x k como la distancia de x a S. Observar que, como S v E, para cada x ∈ E vale que
d (x , S) = 0 ⇐⇒ x ∈ S ⇐⇒ x = 0. Además, calcular la d (x , S) = ı́nf kzk no es
z∈ x+S
otra cosa que minimizar las normas entre todos los integrantes de la clase de x (que es la
variedad afı́n paralela a S “puesta” arriba de x). Ası́ que eso usaremos:
define una norma en E/S que lo hace EN. Además valen estas propiedades:
30
Demostración. Por lo que decı́amos arriba, la única clase con norma cero es la trivial. Ya
vimos en la Ec. (1.26) que d (λ x , S) = |λ| d (x , S) para cualesquiera λ ∈ K y x ∈ E. Para
ver la desigualdad triangular fijemos x, y ∈ E y w ∈ S. Luego
En general no es cierto en los espacios normados que una suma de subespacios cerrados
tenga que seguir siendo cerrada. Contraejemplos de esto se mostrarán a su debido tiempo
(Ejer. 2.7.4). Hay en el medio una sutil noción de ángulo entre subespacios, que veremos
más adelante, y éste ángulo decide cuando sı́ y cuando no. Pero ahora veremos que si uno
de los subespacios es de dimesión finita, entonces la cosa seguro que anda bien:
Corolario 1.7.2. Sea E un EN. Si tenemos dos subespacios S, F v E y además asumimos
que dim F < ∞, entonces se tiene que S + F = {x + y : x ∈ S e y ∈ F} v E.
Demostración. Consideremos el cociente ΠS : E → E/S. El curro es notar primero que
F + S = Π−1
S ΠS (F) , lo cual es una cuenta algebráica estandard.
Ahora bien, el Cor. 1.6.3 nos asegura que ΠS (F) v E/S, porque es un subespacio de di-
mensión no menos finita que la de F. Pero como ΠS es continua, trae para atrás cerrados
en cerrados.
Ejercicio 1.7.3. Sea E un EN. Dado un S v E, probar que
1. La ΠS ∈ L(E, E/S) es abierta, por lo que la topologı́a de abajo es la cociente.
2. Si tanto S como E/S son Banach’s con sus normas, entonces anche E es Banach. 4
Sin necesidad de usar que la proyección al cociente es abierta, veremos que los cocientes
tienen su versión “acotada” de la propiedad universal:
31
Proposición 1.7.4. Sean E y F dos EN’s y sea S v E. Consideremos el normado E/S
con la norma cociente, y la proyección ΠS ∈ L(E , E/S). Luego:
1. Un operador lineal A : E/S → F es acotado ⇐⇒ A ◦ ΠS ∈ L(E , F ).
2. Además vale que kAk = kA ◦ ΠS k.
def
Demostración. Para probar 1, lo no trivial es ver que A es continuo siempre que B = A◦ΠS
lo sea. Para mostralo tomemos un ρ = ΠS x ∈ E/S con x ∈ E. Para todo z ∈ S vale que
kA ρk = kA ( ΠS x )k =
A ( ΠS (x − z) )
≤ kBkL(E , F ) kx − zk .
Usando que kρk = inf kx − zk, deducimos que kA ρk ≤ kBk kρk para todo ρ ∈ E/S . Con
z∈S
eso hemos probado que A ∈ L(E/S , F ) con kAk ≤ kBk. La otra desigualdad se deduce de
1.7.1
que kBk = kA ◦ ΠS k ≤ kAk kΠS k y de que kΠS k = 1.
Corolario 1.7.5. Sean E y F dos EN’s y sea S v E. Luego:
1. Dado un T ∈ L(E , F ) tal que S ⊆ ker T , el “bajado algebráico”
T ∈ Hom (E/S , F )
e definido por la ecuación T ◦ ΠS = T ,
e (1.37)
Hiperplanos
Es claro que el núcleo de un operador acotado es cerrado. Pero la recı́proca de eso es falsa en
general. Basta tomar la identidad de un E pensado con dos normas no equivalentes (núcleo
ni tiene). Sin embargo, la cosa es más agradable para las funcionales: Ser el ker de una
funcional puede caracterizarse ası́: Dado un subespacio H ⊆ E (propio),
existe ϕ ∈ E 0 tal que H = ker ϕ ⇐⇒ existe un x ∈ E tal que E = H ⊕ span {x} , (1.38)
y a tales H se los llama hiperplanos. En efecto, como ϕ 6= 0, tomando cualquier x ∈
/ ker ϕ
ϕ(y)
la prueba de ⇒ en (1.38) es fácil, ya que y − ϕ(x) · x ∈ ker ϕ para todo y ∈ E.
La recı́proca sale cocientando por H, porque E/H 'K span {x} 'K K. En otras palabras,
tenemos que los hiperplanos son aquellos subespacios H ⊆ E tales que E/H 'K K.
Una cosa interesante de los hiperplanos es que tienen que ser cerrados o densos. Esto es ası́
porque H ⊆ H ⊆ E y no queda mucho lugar (recordar que H v E).
Ahora veremos que cuando el codominio de una TL es finitodimensional (y esto incluye a
las funcionales), entonces la cerrazón del ker sı́ alcanza para asegurar continuidad:
32
Proposición 1.7.6. Sean E y F dos EN’s y asumamos que dim F < ∞. Sea T : E → F
una transformación K-lineal no nula. Entonces se tiene que
Si asumimos que ker T v E, entonces la Prop. 1.7.1 dice que E/ ker T es un EN con la norma
cociente. Entonces, por el Cor. 1.6.5, sabemos que T̃ ∈ L(E/ ker T , F ). Finalmente, como
también Πker T es continua, queda que T = T̃ ◦ Πker T ∈ L(E, F ).
La recı́proca sale porque ker T = T −1 ({0}) y los métricos son T1 .
|ϕ(
e x )| = kϕ
ek k x k para toda clase x ∈ E/S con x∈E .
(1.35) |ϕ(
e x )| (1.37) |ϕ(x)|
d (x , ker ϕ ) = k x k = = .
kϕek kϕ k
33
1.8.1 (El shift). Trabajemos en un espacio E de sucesiones, por ejemplo c0 o `p (N) para
cualquier p ∈ [1 , ∞]. Definamos al operador S ∈ L(E), que llameremos el shift, como
Observar que S es mono, más aún es isométrico (normas con series o supremos ni ven al
nuevo cero, y las demás entradas son las mismas de antes aunque en otros lugares). Pero
ovbiamente S no es epi. De hecho R(S) = {(yn )n∈ N ∈ E : y1 = 0} v E.
Esto sólo ya contradice el Teor. de la dimensión de las matrices, que dice que si son endos
y monos deben ser epis. Pero es aún peor, porque S es inversible a izquierda pero no a
derecha. En principio es claro que no puede haber un A ∈ L(E) tal que SA = IE porque S
no era epi. Pero si definimos T ∈ L(E) como el shift para el otro lado:
nos queda que T tacha el y1 y corre el resto de y al principio. Es claro que kT k = 1 y que
este T sı́ es epi, pero ahora no es mono. Además se ve inmediatamente que T S = IE .
Otra cosa que pasa con S es que no tiene autovalores (aún si ponemos K = C). En efecto,
λ = 0 no sirve porque S era mono. Y si tomamos λ 6= 0 y existiera un x ∈ E tal que
S x = λ x, entonces tendrı́amos que S n x = λn x para todo n ∈ N. Pero si miramos bien,
vemos que S n x tiene n ceros al principio. Paso a paso, uno muestra que todas las entradas
de x son nulas y x = 0, lo que no nos sirve como autovector.
Pero la cosa es aún más rara con T , porque tiene “demasiados” autovalores. Fijensén que
si tomamos λ tal que |λ| < 1 y hacemos el vector xλ = (λn )n∈N , entonces xλ ∈ E porque
tanto el supremo como las series a la p convergen bien para las geométricas. Ahora,
T xλ = (λ2 , λ3 , . . . , λn , . . . ) = λ xλ .
Es claro que multiplicarlas por una acotada no saca a las h de su Lp . De hecho vale que
R 1/p R 1/p
kMf hkp = X |f |p · |h|p d µ ≤ kf k∞ X
|h|p d µ = kf k∞ khkp .
34
Esto muestra que efectivamente Mf ∈ L(Lp ) con kMf k ≤ kf k∞ . Pero vale que
Una cuenta directa muestra que khε kp = 1, por lo que hε ∈ BLp . Pero si calculamos
1/p
−1
R p
kMf hε kp = kf · hε kp = µ(Aε ) Aε
|f | d µ
1/p
µ(Aε )−1
R
≥ Aε
(kf k∞ − ε)p d µ = kf k∞ − ε .
Esto nos dice que kMf k ≥ kf k∞ − ε para cualquier tal ε, o sea que kMf k ≥ kf k∞ .
El espacio L∞ , además de ser Banach, es una K-álgebra, usando el producto punto a punto
de las funciones. Observar que kf · gk∞ ≤ kf k∞ kgk∞ para cualquier par f, g ∈ L∞ . Una
cosa ası́ se llama álgebra de Banach y se estudiará sistemáticamente más adelante (en el
Cap. 6). Otra álgebra ası́ es L(E) para cualquier espacio E de Banach. El producto ahı́ es
la composición de los operadores.
M
La idea de este ejemplo es que da una representación isométrica L∞ ,→ L(Lp ) por operadores
de multiplicación que, en el caso discreto (o sea `p ), se verán como operadores “diagonales”.
Notar que M ∈ L L∞ , L(Lp ) . Al decir esto, implı́citamente aseguramos que M es K-
lineal. Esto es bien fácil de probar, y también es fácil que Mf ·g = Mf ◦ Mg para f, g ∈ L∞
cualesquiera. Ası́ que M es un morfismo isométrico de álgebras.
Caso discreto: Si X = N, Σ = P(N) y µ es “contar”, uno tiene que Lp = `p . Allı́ esta
representación M se ve ası́: Dada la sucesión x = (xn )n∈ N ∈ `∞ , tenemos que
por lo que podemos pensar que Mx es una matriz infinita diagonal actuando en las columnas
infinitas de `p , porque lo que hace es multiplicar cada coordenada por un número distinto.
Sigue valiendo que kMx k = kxk∞ y que Mx My = Mx y para todo par x , y ∈ `∞ , donde el
producto en `∞ está dado por x y = (xn yn )n∈N ∈ `∞ .
Autovalores: Observar que Mx en = xn en para todo n ∈ N. Por ello todas las entradas xn
de x pasan a ser autovalores para Mx , con autovector en (los canónicos).
Sin embargo, en el caso X = [0, 1] con la medida usual, podemos tomar el operador Mt que
multiplica las h por la función f (t) = t, para t ∈ [0, 1]. Y lo que pasa es que el tal Mt
no tiene nigún autovalor. En efecto, si Mt h = λ h, entonces (t − λ)h(t) = 0 (ctp). Esto
obligarı́a a que la h sea nula (ctp), y no nos servirı́a como autovector.
35
Inversibles: Dejamos como ejercicio caracterizar las f ∈ L∞ (o las x ∈ `∞ ) tales que Mf es
un iso en el sentido de la Ec. (1.30), o sea que Mf sea “inversible” en L(Lp ). Observar que
si existiera la inversa de un Mf , no le quedarı́a otra que ser M1/f . El tema es ver cuándo
eso existe y es acotado. Sugerimos hacerlo primero en el caso discreto, usando la Ec. (1.31).
Después eso se generaliza al caso continuo con los supremos esenciales (onda los Aε ).
Veamos un ejemplo raro: Sea x = ( n1 )n∈N ∈ `∞ , que produce el operador Mx ∈ L(`p ). Por
un lado Mx no tiene al cero como autovalor, porque es mono. Sin embargo Mx no es epi (y
por ende no es iso), por ejemplo porque el mismı́simo x ∈ `p (si p > 1) pero x ∈ / R(Mx ) (si
p 6= ∞). Observar que su supuesta inversa serı́a “multiplicar por n en la n-ésima entrada”,
lo que seguro no camina (no es acotado y ni siquiera “cae” siempre en `p ). 4
1.8.3 (Núcleos). Laburemos ahora en L2 = L2 (X, Σ, µ). Pensemos en el espacio X × X
con la medida producto µ × µ. Si me dan una función k ∈ L2 (X × X), que llamaremos un
núcleo, observar que es una función de dos variables k(x, y) para x, y ∈ X (más bien es una
clase). Definamos el operador Tk ∈ L(L2 ) por la fórmula
Z
(Tk f )(x) = k(x, y) f (y) dµ(y) para cada f ∈ L2 y cada x ∈ X . (1.44)
X
x k
Observar que, como k ∈ L2 (X × X), las funciones X 3 y 7−→ k(x, y) viven en L2 (X) para
casi todo x ∈ Y (por Fubini-Tonnelli). Por Hölder, eso muestra que los valores
|(Tk f )(x)| ≤ kkx k2 kf k2 < ∞ para casi todo x∈X .
Como siempre, la linealidad de Tk sale sin problemas. Ahora calculemos
Z Z
2 2
2
kTk f k2 = |(Tk f )(x)| dµ(x) ≤ kf k2 kkx k22 dµ(x)
X X
Z Z
= kf k22 |k(x, y)|2 dµ(y) dµ(x) = kkk22 kf k22 .
X X
que es la multiplicación matricial sin vueltas. Si bajamos más aún al caso finito, donde es un
producto común de una matriz por un vector, veremos que la cota kTk k ≤ kkk2 es demasiado
grande. De hecho kkk2 es la norma Frobenius de la matriz k, que suele ser mucho mayor
que la norma “espectral”, que es su norma como operador sobre Kn con la norma Euclı́dea.
Esto nos hace pensar, con razón, que puede haber núcleos k mucho más “grandes” que los
de cuadrado integrable, que produzcan vı́a (1.44) un operador Tk ∈ L(L2 ). Continuará. 4
36
1.9 Ejercicios del Cap. 1 - Espacios Normados
Ejercicios aparecidos en el texto
1.9.1. Completar los detalles de la prueba de la Prop. 1.1.2: Sea (E, k · k) un EN. Luego:
1.9.2. Completar los detalles de la prueba de la Prop. 1.1.6: Sean E y F dos EN’s. Dado T ∈ Hom (E, F ),
def
kT k = kT kL(E,F ) = sup kT xkF : x ∈ E y kxkE ≤ 1 .
2. T ∈ C(E, F ) ⇐⇒ kT k < ∞.
1
1.9.3. Calcular la norma del operador de multiplicación T ∈ L(SF ) dado por T x = (1 − n ) xn
n∈N
para cada x = (xn )n∈ N ∈ SF . Probar que se puede extender a L(`p ) manteniendo su norma, para todo
exponente p ∈ [1 , ∞].
1.9.4. Hacer los detalles de las cuentas de todos los ejemplos de las Secciones 1.2 y 1.3. Parte de este laburo
(medidas, espacios Lp ) se propone con bastante detalle en subsecciones posteriores de esta sección.
1. La d (x, S) = 0 ⇐⇒ x ∈ S.
1.9.6. Sean E y F dos EN’s y tomemos T ∈ Hom(E, F ). Las siguientes condiciones son equivalentes:
En tal caso se tiene que kT k ≤ M y que kT −1 k ≤ m−1 . Comparar con el Ejer. 1.5.3.
37
1.9.7. Probar que si 1 ≤ p ≤ q ≤ ∞, entonces `p (N) ⊆ `q (N). Ya que estamos, mostrar que si p < q,
entonces la inculsión es estricta. Sugerios mostrar que para toda x ∈ CN vale que kxkq ≤ kxkp . 4
1.9.9. Completar los detalles de la prueba del Cor. 1.7.2: Sea E un EN. Si tenemos dos subespacios S, F v E
y además asumimos que dim F < ∞, entonces se tiene que S + F = {x + y : x ∈ S e y ∈ F} v E.
2. Si tanto S como E/S son Banach’s con sus normas, entonces anche E es Banach. 4
1. Una µ : Σ → C es una medida compleja si es una función σ-aditiva que nunca toma el valor ∞. En
tal caso el triplette (X , Σ , µ) es un espacio de medida compleja.
1. El conjunto M (X) es un C-EV. Es decir que las CL’s de medidas complejas se quedan en M (X).
La que deja de ser medida es la flecha Σ 3 ∆ 7→ |µ(∆)|, pero esto se arregla con algo de laburo:
para cada ∆ ∈ Σ. Probar que |µ| ∈ M (X), por lo que es una medida positiva y finita.
38
2. Si λ ∈ M (X) es positiva y |µ(A)| ≤ λ(A) para todo A ∈ Σ, entonces |µ| ≤ λ.
3. Más aún, |µ| = min{λ ∈ M (X) : λ es positiva y |µ(A)| ≤ λ(A) para todo A ∈ Σ}.
Definición 1.9.16. Sean µ1 y µ2 ∈ M (X). Decimos que µ1 y µ2 son mutuamente singulares (µ1 ⊥ µ2 ) si
existe Π = {E1 , E2 } ∈ PD(Σ) tal que µi está concentrada en Ei para i = 1, 2.
3. Si µ1 ⊥ λ y µ2 ⊥ λ, entonces (µ1 + µ2 )⊥ λ.
Definición 1.9.18. Sean µ1 y µ2 ∈ M (X). Decimos que µ1 es absolutamente continua respecto de µ2 (se
denota por µ1 µ2 ) si |µ2 |(A) = 0 =⇒ |µ1 |(A) = 0 para todo A ∈ Σ.
1. Si µ1 λ, entonces |µ1 | λ.
2. Si µ1 λ y µ2 ⊥ λ, entonces µ1 ⊥ µ2 .
3. Si µ1 λ y µ2 λ, entonces (µ1 + µ2 ) λ.
4. Si µ1 λ y µ1 ⊥ λ, entonces µ1 = 0.
1.9.20. Sea λ ∈ M (X) signada. Demostrar que existen dos (únicas) medidas λ+ y λ− ∈ M (X) positivas
tales que λ = λ+ − λ− y además λ+ ⊥ λ− .
λµ ⇐⇒ λ+ µ y λ− µ.
def
1.9.22. Probar que la flecha M (X) 3 µ 7−→ kµk = |µ|(X) define una norma en M (X).
39
1.9.24. Supongamos que (X , τ ) es un espacio topológico Hausdorff. Sea Σ una σ-álgebra que contenga a τ
(y por ello a los Borelianos de X). Una medida µ ∈ M (X) es regular si cumple que
|µ|(∆) = ı́nf |µ|(U ) : U es abierto y ∆ ⊆ U = sup |µ|(F ) : F es cerrado y F ⊆ ∆ , (1.46)
para todo ∆ ∈ Σ. Probar que
1. Una µ es regular ⇐⇒ dados ∆ ∈ Σ y ε > 0, existen un abierto U y un cerrado F tales que
F ⊆∆⊆U y |µ|(U \ F ) < ε .
es lineal y continua, por lo que ϕµ está en C(X)∗ . Más aún, se tiene que
kϕµ k = sup |ϕµ (f )| = |µ|(X) = kµk . (1.48)
kf k∞ =1
Observar que una desigualdad sale usando (1.47). Para probar la otra es donde se usa que la µ es
regular, como se decribe en el Ejem. 1.3.3.
Observación 1.9.26. El Teorema de Riesz dice que esta flecha Mr (X) 3 µ 7→ ϕµ ∈ C(X)∗ produce que
C(X)∗ ∼ = Mr (X). El Ej. anterior es la parte fácil de su prueba, pero ya dice mucho porque asegura que una
µ ∈ Mr (X) está caracterizada por cómo actua en las continuas. Sin embargo, mucho más difı́cil (y más útil)
es ver que dicha flecha es epi. La idea no es tan rara: dada ϕ ∈ C(X)∗ una funcional positiva (esto significa
que ϕ cumpla que ϕ(f ) ≥ 0 siempre que f ≥ 0), se define la candidata a medida positiva
µϕ : Σ → R ∪ {∞} dada por µϕ (∆) = sup ϕ(g) : g ∈ C(X) y 0 ≤ g ≤ ℵ∆ .
Largas páginas de laburo permiten ver que esta idea alcanza para mostrar que la flecha era epi. 4
1.9.27. Sea X un espacio Hausdorff y Cb (X) el espacio de todas las funciones continuas acotadas definidas
en X que toman valores complejos. En Cb (X), definimos la norma
kf k∞ = max |f (x)|.
x∈X
40
Los espacios Lp .
A partir de ahora decimos que (X , Σ , µ) es us espacio de medida si µ es positiva y no necesariamente finita.
Para evitar dividir por la relación “difieren en un conjunto de medida nula”, definamos
1. Med(X) = Med(X , Σ) = {f : X → C : f es Σ-medible }, que es un C-EV.
2. N (X) = N (X , Σ , µ) = f ∈ Med(X) : µ |f | =
6 0 = 0 , que es un subespacio.
R 1/p
con la norma kf kp = X
|f |p dµ . Probar que (Lp , k · kp ) es un espacio de Banach.
Es claro que la k · k∞ baja bien definida a L(X). Luego definimos el espacio normado
2. Si f ∈ Lp ∩ L∞ entonces kf k∞ = lim kf kp .
p→∞
Mostrar que esta representación es un isomorfismo isométrico sobre que permite identificar (Lp )∗ con Lq .
La prueba de que es “sobre” requiere del Teorema de Radon-Nikodym. Si no lo conocen lo suficiente pueden
ir a la página http://es.wikipedia.org/wiki/Teorema de Radon-Nikodym. Lo anterior se extiende al caso en
que (X , Σ , µ) es σ-finito (i.e. X es unión numerable de cachos de medida finita), que es hasta donde llega
el TRN. Con eso R y los Rn safan.
41
1.9.33. Sea (X , Σ , µ) un espacio de medida. Consideremos el espacio S0 (X) de todas las “funciones”
f ∈ L(X) que son simples (i.e. CL de caracterı́sticas) tales que µ{x ∈ X : f (x) 6= 0} < ∞. Probar que
S0 (X) es denso en Lp para todo p ∈ [1 , ∞).
1.9.34. Supongamos que en el ejercicio anterior X es un espacio topológico LKH y que Σ es la σ-álgebra de
Borel. Probar que el subespacio Cc (X) de las funciones continuas definidas en X con soporte compacto es
denso en Lp para todo p ∈ [1 , ∞).
1.9.35. Supongamos ahora que X ⊆ Rn es un abierto y que Σ consta de los Borelianos de X. Probar que
el subespacio Cc∞ (X) de las funciones definidas en X con infinitas derivadas continuas y soporte compacto
es denso en Lp para todo p ∈ [1 , ∞).
1.9.37 (Espacios de Sobolev). Para 1 ≤ p ≤ ∞ definamos el espacio de Sobolev W n,p como el espacio
de todas las funciones f ∈ Lp (Ω) tales que para cada k ∈ In la derivada Dk f existe en el sentido débil y
pertenece a Lp (Ω). En dicho espacio se define la siguiente norma:
n
1/p
p
P
kDk f kp si 1 ≤ p < ∞
k=0
kf kW n,p =
n
P
kDk f k∞ si p=∞ .
k=0
4. Probar que S no tiene autovalores, mientras que los de T son todo el D = {λ ∈ C : |λ| < 1}.
1. Dada una ϕ ∈ C[0, 1], consideremos el operador Mϕ : C[0, 1] → C[0, 1] definido por
42
2. Dada ϕ ∈ L∞ [0, 1], definimos Mϕ : L2 [0, 1] → L2 [0, 1] igual que el (1.49). Probar:
1.9.40. Sea a = (an )n∈ N ∈ CN una sucesión de números complejos. Fijado p ∈ [1 , ∞), definimos el
operador Ma : `p → `p por Ma x = (an xn )n∈N , para cada x = (xn )n∈ N ∈ `p . Probar que
1.9.41. Si k ∈ L2 ([0, 1] × [0, 1]), sea Tk : L2 ([0, 1]) → L2 ([0, 1]) dado por
Z 1
(Tk f )(s) = k(s, t) f (t) dt para cada f ∈ L2 [0, 1] .
0
Funcionales Lineales.
1.9.42. Sean E un EN y ϕ : E → C una funcional lineal tal que ϕ 6= 0. Probar que ϕ(E) = C. 4
2. ϕ ∈ ER∗ ⇐⇒ para cada c ∈ R, los conjuntos {x : ϕ(x) < c} y {x : ϕ(x) > c} son abiertos.
3. Si A ⊆ E tiene interior no vacı́o y existe a ∈ R tal que ϕ(A) ⊆ {x : ϕ(x) ≤ a}, entonces ϕ ∈ ER∗ . 4
1.9.44. Probar que las siguientes funcionales son lineales, continuas y hallar sus normas.
1. ϕ ∈ c0 dada por ϕ(x) = lim xn para cada x = (xn )n∈ N ∈ c el espacio definido en (1.12).
n→∞
R1
2. ϕ ∈ L2 [−1, 1]0 dada por ϕ(f ) = −1
t f (t) dt para cada f ∈ L2 [−1, 1].
43
3. ϕ ∈ (`∞ )0 dada por ϕ(x) = x1 + x2 para cada x = (xn )n∈ N ∈ `∞ .
∞
xk
6. ϕ ∈ c00 dada por ϕ(x) =
P
2k
para cada x = (xk )k∈ N ∈ c0 . 4
k=1
1.9.45. Sean E un espacio de Banach, ϕ ∈ E ∗ and y ∈ E tal que ϕ(y) 6= 0. Probar que:
|a|
3. Dado a ∈ C, sea H = ϕ−1 (a) = {x ∈ E : ϕ(x) = a}. Entonces d (0 , H) = kϕk . 4
Potpurrı́.
1.9.47. Sea (E, k · k) un EN. Son equivalentes:
1. E es un espacio de Banach.
2. La bola BE es completa.
def
A(S , T ) = ı́nf { ks − tk : s ∈ S , t ∈ T y ksk = ktk = 1} .
44
1.9.52. Sea E un EB. Dado A ∈ L(E) tal que kAk < 1. Demostrar que 1 − A es inversible con
∞
X 1
(1 − A)−1 = An y k(1 − A)−1 k ≤ . 4
n=0
1 − kAk
1.9.53. Sea E un EB. Denotemos Gl (E) = {T ∈ L(E) : T es inversible }. Probar que Gl (E) es un abierto
de L(E). Sug: Probar que si T ∈ Gl (E) entonces B(T , kT −1 k−1 ) ⊆ Gl (E). 4
k·k
1.9.54. Sea E un EB. Dada una sucesión (An )n∈N en Gl (E), mostrar que si An −−−−→ A pero A ∈
/ Gl (E),
n→∞
entoces debe pasar que kA−1
n k−
−−−→ ∞. 4
n→∞
45
Capı́tulo 2
Funcionales y Operadores
46
para algún α = Φ(x) ∈ R a elegir. Pero se busca un α tal que
ϕ(y) + t α ≤ q y + t x , para todo par y ∈ S , t ∈ R .
Si t = 0 sabemos que vale. Si t > 0, esto significa que para cualquier y ∈ S valga
−ϕ(y) + q y + t x y y
α≤ = −ϕ +q +x .
t t t
y
Reemplazando t
por y (todo sigue en S), esto a su vez equivale a que
α ≤ −ϕ(y) + q y + x para todo y ∈ S . (2.1)
Juntando (2.1) y (2.2), para que un α ası́ pueda existir, habrı́a que ver que
ϕ(z) − q z − x ≤ −ϕ(y) + q y + x para todo par z, y ∈ S . (2.3)
Y eso alcanzarı́a porque, poniendo a α en el medio, las cuentas anteriores salen bien “hacia
arriba”. Afortunadamente podemos hacer lo siguiente: Dados z , y ∈ S se tiene que
ϕ(z) + ϕ(y) ≤ q(y + z) = q (y + x) + (z − x) ≤ q y + x + q z − x =⇒ (2.3) . 4
Caso general: Ahora viene Zorn. Notemos GS (E) al conjunto de subespacios de E que
contienen a S. Tomemos el conjunto de las extensiones de ϕ acotadas por q,
n o
0
C = (M, ρ) : M ∈ GS (E) , ρ ∈ M , ρ ≤ q y ρ S = ϕ
ordenado por (M, ρ) ≤ (T , σ) si M ⊆ T y σ M = ρ. Miren que C 6= ∅ porque (S, ϕ) ∈ C.
Dada una cadena (Mi , ρi )i∈I en C, la podemos acotar por el par (M, ρ), donde
[
M= Mi y ρ(x) = ρi (x) para los x ∈ Mi .
i∈I
El orden total de la cadena hace que M ∈ GS (E) (se suma en el i más grande), que ρ esté
bien definida, que sea menor que q y lineal en todo M. Claramente (M , ρ) ∈ C. Por
definición sale que (Mi , ρi ) ≤ (M , ρ) para todo i ∈ I. Listo el pollo.
Por Zorn hay un par (M0 , Φ) ∈ C que es maximal. Y por el paso inductivo del Caso 1,
este M0 tiene que ser todo E.
47
Observación 2.1.3. Como muchas de las cuentas que siguen se hacen con funcioneales
R-lineales, sus extensiones al caso complejo se harán tomando partes reales de funcionales
complejas. Para que esto camine bien, hacen falta unas cuentitas: Sea E un C-EV.
obtenemos que Im ϕ(x) = − Re ϕ (ix). Mirando ahora (2.4) vemos que ϕ = (Re ϕ)C .
|φC (x)| = e−iθ φC (x) = φC (y) = Re φC (y) = φ(y) ≤ p(y) = p(e−iθ x) = p(x) .
48
Demostración. El caso K = R sale a partir del Teo. 2.1.2, usando que las seminormas son
sublineales, y que p(−x) = p(x) para todo x ∈ E, por lo que Φ ≤ p =⇒ |Φ| ≤ p.
El caso K = C se deduce del anterior usando la Obs. 2.1.3: Empiezo con una C-lineal ϕ ∈ S 0 ,
y llamo φ = Re ϕ ∈ SR0 , que también está acotada por p. Extiendo φ a una R-lineal Ψ ∈ ER0
por el caso anterior, y tomo ahora Φ = ΨC . Luego Φ sigue acotada por p, y veo que tanto
ϕ como ΦS tienen la misma parte real φ, por lo que deben coincidir.
Teorema 2.1.5 (H-B y el dual). Sea E un EN. Sean S ⊆ E un subespacio y ϕ ∈ S ∗ .
Entonces existe una funcional Φ ∈ E ∗ que cumple lo siguiente:
1. Φ extiende a ϕ, o sea que Φ(y) = ϕ(y), para todo y ∈ S.
2. kΦkE ∗ = kϕkS ∗ .
Demostración. El hecho de que ϕ ∈ S ∗ significa que
3. Esto dice que se puede calcular kxk en forma dual usando a E ∗ . Es decir que
para cualquier x ∈ E vale que kxk = máx |ϕ(x)| : ϕ ∈ BE ∗ . (2.7)
Demostración. La prueba es directa a partir del Teo. 2.1.5. Veamos 2: La clave es definir
una buena ϕ0 en el dual del subespacio S = span {x} = K x. Buena significa que
ϕ0 (x) = kxk por lo que |ϕ0 (λ x)| = |λ| kxk = kλ xk para todo λ ∈ K .
Observar que kϕ0 kS ∗ = 1, ya que |ϕ0 (z)| = kzk para todo z ∈ S. Si ϕ ∈ E ∗ extiende a ϕ0
y cumple que | ϕ(y)| ≤ kyk para todo y ∈ E, es claro que kϕk = 1 como aspirábamos. A
partir de 2, la Ec. (2.7) se deduce sin dificultad.
Ejercicio 2.1.7. Sea E un EN. Dado un subespacio S v E y un x ∈ / S, probar que existe
∗
una ϕ ∈ E tal que S ⊆ ker ϕ , kϕk = 1 pero |ϕ(x)| = d ( x , S ) .
Se sugiere probarlo primero a mano en S ⊕ span {x} y extender por Hanh-Banach. Recién
después hacerlo usando la Ec. (2.6) en E/S . 4
49
Ejercicio 2.1.8. Sea E un EN. Dado un subespacio S ⊆ E, probar que
\
S = { ker ϕ : ϕ ∈ E ∗ y S ⊆ ker ϕ } .
1. Dado un x ∈ E y una ϕ ∈ E ∗ como en la Ec. (2.6), mostrar que ahı́ sı́ vale que
(1.39)
d (x , ker ϕ) = kxk. Comparar con la Ec. (1.27) y el Ejem. 1.4.3.
Proposición 2.1.11. Sea E un EN. Dado un S v E tal que n = dim S < ∞, existe un
“proyector” acotado P ∈ L(E) tal que P ◦ P = P y R(P ) = S.
50
Proof. Por el Cor. 1.6.5, tenemos que S ∗ = S 0 . Sea B = {x1 , . . . , xn } una base de S. Luego
existe una base dual B 0 = {ϕ1 , . . . , ϕn } ⊆ S ∗ , es decir que ϕm (xn ) = δmn . Estendamos
estas funcionales a todo E ∗ preservando sus normas (se puede por H-B) y manteniendo sus
nombres. Ahora podemos definir el proyector
X
P ∈ L(E) dado por P x = ϕk (x) xk para cada x ∈ E .
k∈In
P
Es fácil testear que kP k ≤ k∈In kϕk k < ∞, que P y = y para los y ∈ S (acá se usa que la
base B 0 es dual de B) y que R(P ) = S. De ahı́ sale de inmediato que P ◦ P = P .
Corolario 2.1.12. Sean E y F dos EN’s. Dado un S v E tal que n = dim S < ∞, vale
que todo operador acotado T0 ∈ L(S , F ) se puede extender a un T ∈ L(E , F ).
Se cumple que T |S = T0 y que kT k ≤ K kT0 k, donde la constante K ≥ 1 depende de E y de
S, pero es la misma para todos los operadores T0 ∈ L(S , F ) (y todos los espacios F ).
Proof. Sea P ∈ L(E) el proyector sobre S de la Prop. 2.1.11, y sea K = kP k. Como
def
R(P ) = S tiene sentido definir la composición T = T0 ◦ P ∈ L(E , F ). Eso es todo.
3. La Ec. (1.7) nos dice que J reduce normas (en particualar que las funcionales Jx son
continuas en E ∗ ). Pero el Cor. 2.1.6 asegura que J es isométrica:
(1.6) (2.8) (2.7)
kJx kE ∗∗ = sup |Jx (ϕ)| = sup |ϕ(x)| = kxkE .
ϕ∈BE ∗ ϕ∈BE ∗
5. Ojo que existen espacios F que son isométricamente isomorfos a su F ∗∗ , pero que no
son reflexivos (o sea que LA inmersión JF : F ,→ F ∗∗ no era sobre). 4
51
Ya conocemos casos de espacios reflexivos (como los `p y los Lp si 1 < p < ∞) y no reflexivos
como c0 , porque c∗∗ ∼ 1 ∗∼ ∞ ∼ ∞
0 = (` ) = ` . En este caso una sabe gratis que no vale que c0 = `
porque uno es separable y el otro no.
Pero mejor aún, mirando los isomorfismmos en cuestión, es fácil ver que la Jc0 : c0 ,→ `∞ no
es otra cosa que la inclusión (ver el Ejem. 2.6.4 para más detalles). Es porque `∞ actúa en
`1 igual a como c0 es “actuado” por `1 . Y esa inclusión no es sobre.
Observación 2.1.14. Sea E un EN. Habı́amos mencionado que a E se lo puede completar
a un Banach que lo tenga como subespacio denso. Eso se hace con las sucesiones de Cauchy
como a cualquier otro EM, aunque acá además hay que definir las operaciones y toda esa
vaina. Pero en los normados ahora hay un camino que es casi gratis.
El tema es identificar E con su imagen JE (E) ⊆ E ∗∗ . Esto vale porque JE es un iso
isométrico. Pero E ∗∗ es el dual de E ∗ y, como todo dual de un normado, es automáticamente
un Banach (por el Teo. 1.1.10). Luego el completado natural para E es
EC = JE (E) v E ∗∗ ,
def
Si bien las Eqs. (2.9) y (2.10) sólo tienen sentido en EN’s, se usarán los mismos nombres B a
(abierta) y B (cerrada) para bolas en un EM cualquiera X. 4
Lema 2.2.2 (Encaje). Sea (X, d) un EM completo. Sea {Fn }n∈N una familia de subconjuntos
cerrados y no vacı́os de X tales que
52
(a) Para todo n ∈ N, se tiene que Fn+1 ⊆ Fn 6= ∅ .
def
(b) La sucesión diam (Fn ) = sup{d(x, y) : x, y ∈ Fn } −−−→ 0.
n→∞
T
Luego se debe cumplir que Fn 6= ∅.
n∈N
X \ A = (X \ A)◦ y X \ A◦ = X \ A . (2.11)
Teorema 2.2.4 (Baire). Sea X es un espacio métrico completo. Entonces para toda
familia numerable {Fn }n∈N de cerrados de X se tiene que
[ ◦
Fn◦ = ∅ para todo n ∈ N =⇒ Fn = ∅ . (2.12)
n∈N
por lo que B3 =⇒ B2 y (2.12). Sea x ∈ X y ε > 0. Tomemos la bola cerrada B0 = B(x, ε).
Como U1 es denso, tenemos que U1 ∩ B a (x, ε) 6= ∅ y es abierto. Luego existe una bola
cerrada B1 = B(x1 , ε1 ) ⊆ U1 ∩ B a (x, ε), donde podemos asumir que ε1 ≤ ε2 .
Ahora cortamos B1◦ ⊆ B a (x1 , ε1 ) con U2 . Por la densidad de U2 podemos armar una bola
cerrada B2 , de radio no mayor a ε4 , tal que B2 ⊆ B1◦ ∩ U2 ⊆ U1 ∩ U2 . Recursivamente,
obtenemos una sucesión (Bn )n∈N de bolas cerradas tales que, para todo n ∈ N,
\ 2ε ε
Bn ⊆ Uk , Bn+1 ⊆ Bn◦ y diam (Bn ) ≤ n = n−1 .
k∈ In
2 2
53
T
El Lema 2.2.2 nos dice ahora que existe un y ∈ Bn . Y la primera condición de arriba
n∈N
Un , además de estar en B1 ⊆ B a (x, ε), que era un entorno genérico de x.
T
nos da que y ∈
n∈N T
Ası́ llegamos a que el puntito x está en la clausura de Un , cualquiera sea el x ∈ X.
n∈N
entonces para cualquier r0 < r se cumple que BFa (0, r0 ) ⊆ T BEa , ahora sin clausurar.
Demostración.
Escribamos r0 = λ · r con λ ∈ (0, 1) y ε = 1 − λ ∈ (0, 1). Denotemos por
V = T BE . Dado y ∈ BFa (0, r), por hipótesis existe un y1 ∈ V tal que
a
54
Por la Ec. (2.9) y la hómeo-ness de x 7→ ε · x, vemos que
Luego existe un y2 ∈ ε·V tal que ky−y1 −y2 k < ε2 ·r. Siguiendo inductivamente, construimos
una sucesión (yn )n∈ N en F que verifica las siguientes condiciones:
n
yn ∈ εn−1 · V and
y − P yk
< εn · r para todo n∈N.
k=1
Para cada n ∈ N, podemos ir eligiendo un xn ∈ E tal Pque T (xn ) = yn y kxn k < εn−1 . Como
E es Banach, la Prop. 1.1.12 nos dice que existe x = xn ∈ E. Además
n∈N
X X X
Tx = T xn = yn = y and kxk < εn−1 = (1 − ε)−1 = λ−1 .
n∈N n∈N n∈N
Luego z = λx ∈ BEa y T (z) = λy, un elemento genérico de λ · BFa (0, r) = BFa (0, r0 ).
Teorema 2.3.3 (Imagen abierta, o TIA). Sean E y F dos espacios de Banach. Si
T ∈ L(E, F ) es sobre =⇒ T es abierto ,
o sea que T (U ) es abierto en F para todo U que sea abierto en E.
Demostración. Veamos al principio que alcanza con probar que
Ası́ que probemos (2.13). En principio, tomemos las Bn = BEa (0, n), para todo n ∈ N. Como
S S S
E= Bn y T es sobre , entonces F = T (Bn ) = T (Bn ) .
n∈N n∈N n∈N
Sale fácil que T está BD y es lineal-continua. El hecho de que sea sobre cuesta algo más:
Sea y ∈ BE . Tomemos un zn1 ∈ D tal que 0 < ky − zn1 k < 12 . Definamos las constantes
an1 = 1 y an2 = ky − zn1 k < 12 . Luego tomemos otro zn2 ∈ D \ {zn1 } tal que
y−z
1
n1 −1
0<
− zn2
= ky − zn1 k
y − an1 zn1 − an2 zn2
< .
ky − zn1 k 2
56
def
Observar que an3 = ky − an1 zn1 − an2 zn2 k < 12 ky − zn1 k = 21 an2 < 14 . Siguiendo ası́
encontramos un a = (am )m∈ N ∈ `1 y unos {znk : k ∈ N} ⊆ D tales que, para cada k ∈ N,
y − Pk an zn
1 k
X 1
j=1 j j
0<
− znk+1
< con ank+1 = ky − anj znj k < ,
Pk
ky − j=1 anj znj k 2 j=1
2k
mientras que los am = 0 para m ∈ / {nk : k ∈ N}. Por la construcción deducimos de inmediato
que T a = y, por lo que T es epi. El iso T̃ se construye pasando al cociente al epi T recién
construido y aplicando el Cor. 2.3.6.
57
sı́ es cierta, siempre que uno suponga que tanto E como F son Banach’s. Y la propaganda
de antes no es sólo verso. En repetidas ocasiones a lo largo del texto veremos que la mejora
de hipótesis que se mencionaba arriba es la clave para poder probar la acotación de muchos
operadores altamente interesantes.
Antes del enunciado, un contraejemplo si no son Banach’s los espacios: Es el mismo ejemplo
de la Obs. 2.3.1, pero para el lado opuesto. El operador es ISF : (SF , k · k∞ ) → (SF , k · k1 ),
que ya vimos que no es continuo. Sin embargo, el gráfico es la diagonal
Gr (T ) v E × F =⇒ T ∈ L(E, F ) .
Notar que la continuidad de P se deduce de que kxkE ≤ k(x, y)kE×F , por la definición dada
en (2.14). Que P es biyectivo es una paponia (es porque T es una función!).
La gracia es que E × F es Banach porque tanto E como F lo son (Ejercicio: Verificarlo).
Luego Gr (T ), al ser un subespacio cerrado, también es Banach. Ası́ que podemos aplicar el
Teor. de la función inversa 2.3.4 a este P , y deducir que P −1 ∈ L(E, Gr (T ) ).
Ahora bien, si miramos atentamente veremos que P −1 x = (x, T x) para todo x ∈ E. Luego
58
(Ti )i∈I en L(E, F ) y buscar condiciones para que M = sup kTi k < ∞ .
i∈ I
Es claro que esto es necesario, porque porque todos los Mx ≤ M kxk. Como antes, miremos
al espacio SF con la k · k∞ para ver que (2.15) no es suficiente en general. Para hacer el
contraejemplo pongamos que F = K, los ı́ndices son I = N y tomemos las funcionales
n
X
ϕn ∈ SF∗ dadas por ϕn (x) = xk , para x = (xk )k∈ N ∈ SF .
k=1
N
P
Si un x ∈ SF termina en el xN , se ve que |ϕn (x)| ≤ |xk | para todo n ∈ N. Por lo tanto
k=1
la condición (2.15) se cumple para las ϕn . Pero kϕn k = k nk=1 ek k1 = n para todo n ∈ N.
P
En vista del PAU que se viene, conviene observar que en realidad SF∗ ∼ = `1 ∼
= c∗0 , porque SF
es denso en c0 . Y lo anterior no caminaba para aquellas ϕn ∈ `1 porque el “test” de (2.15) lo
hacı́amos sólo para puntos x de SF y no en todo c0 que es Banach. Observar que allı́ (2.15)
falla porque hay elementos de z ∈ c0 que no están en `1 , y para algunos de ellos Mz = ∞.
Bueno, ahora sı́. Lo que falla en general veremos que no falla cuando E y F son espacios de
Banach. Les presentamos al famoso PAU:
Teorema 2.5.1 (PAU). Sean E y F dos EB’s. Entonces toda familia (Ti )i∈I de operadores
en L(E, F ) que sea “puntualmente acotada”, es también acotada en norma. Es decir que
Mx = sup kTi xkF < ∞ para todo x∈E =⇒ M = sup kTi kL(E,F ) < ∞ ,
i∈ I i∈ I
59
El cambio de orden de los supremos es legal, como podrá demostrar fácilmente el lector
desconfiado. Para probar que A es acotado, usaremos nuevamente el TGC (dominio y
codominio son Banach’s, asi que vale). Tomemos entonces una sucesión
k · kE k · k∞ k · kF
Esto dice que xn −−−→ x y que A xn −−−→ (yi )i∈ I , por lo que Ti xn −−−→ yi para cada uno
n→∞ n→∞ n→∞
de los i ∈ I. Pero como los Ti ∈ L(E, F ), deducimos inmediatamente que cada yi = Ti x.
Luego (yi )i∈ I = A x, lo que nos asegura que el lı́mite (x, (yi )i∈ I ) ∈ Gr (A), que era cerrado.
Luego A ∈ L(E, `∞ (I, F ) ) por el TGC.
Corolario 2.5.2. Sea E un EB y sea B ⊆ E un subconjunto cualquiera. Luego
B es k · k-acotado ⇐⇒ B es w-acotado ,
donde w-acotado significa que para toda ϕ ∈ E ∗ el conjunto ϕ(B) es acotado en C.
Demostración. La ida es obvia (porque las ϕ ∈ E ∗ son acotadas, justamente). Para la
vuelta, pongamos a B en E ∗∗ vı́a la JE : E → E ∗∗ definida en 2.1.13. Total, como JE es
isométrica alcanza ver que B es acotado allá. Pero ahora los elementos de B pasaron a ser
funcionales sobre E ∗ , y la hipótesis de w-acotación ahora significa que B es puntualmente
acotado. En efecto, tenemos el conjunto Bb = JE (B) = {b x : x ∈ B}, y fijada ϕ ∈ E ∗ ,
Mϕ = sup |b
x(ϕ)| = sup |ϕ(x)| = sup {|y| : y ∈ ϕ(B)} < ∞ por la w-acotación de B .
x∈ B x∈ B
Todo termina felizmente usando el PAU 2.5.1 (tanto E como C son Banach’s).
Observación 2.5.3. Una consecuencia del Cor. 2.5.2 es que una sucesión (xn )n∈ N en un
Banch E que es débilmente convergente a un x ∈ E (i.e., ϕ(xn ) −−−→ ϕ(x) para toda
n→∞
ϕ ∈ E ∗ ) tiene que ser acotada en norma. El siguiente teorema avanza en esa dirección: 4
Corolario 2.5.4 (Teor. de Banach-Steinhaus). Sean E y F dos Banach’s y sea (Tn )n∈N una
sucesión de operadores en L(E, F ). Si se asume que
para todo x ∈ E existe un yx ∈ F tal que Tn x −−−→ yx ,
n→∞
60
Demostración. Observar que, fijado un x ∈ E, la sucesión (Tn x)n∈N es convergente (esa es
la hipótesis). Luego tiene que ser acotada (por eso N y no I). Pero esa es exactamente la
condición que pide el PAU 2.5.1 (junto con que E y F sean Banach’s).
Luego ya tenemos que M < ∞ por el PAU. El hecho de que el lı́mite puntual T sea K-lineal
es inmediato tomando lı́mites y usando que los Tn lo son. Finalmente,
Sin embargo saber que las sucesiones que tienen lı́mites puntuales tienen que ser acotadas,
y que el operador al que convergen sea siempre continuo ya es bastante. Veremos muchas
aplicaciones de esto en la parte de convergencias débiles. Mostremos anticipadamente un
ejemplo interesante. Fijemos E = c0 y F = K. Tomemos la sucesión de las ϕn que aparecen
como la imagen de en ∈ `1 en c∗0 . O sea que
Como estamos justamente en c0 , vemos que ϕn (x) = xn −−−→ 0 para cualquier elemento
n→∞
x = (xk )k∈ N ∈ c0 . Luego el lı́mite puntual de las ϕn es la funcional nula. Bueno, acotada
es. Pero a la cota k0k ≤ sup kϕn k = 1 le sobra bastante.
n∈N
Además, como kϕn − 0k = kϕn k = ken k1 = 1 para todo n ∈ N, deducimos que en este
k·k
ejemplo NO se cumple que ϕn −−−→ 0, como mencionábamos arriba que podı́a ocurrir.
n→∞
Un ejemplo que es casi el mismo pero en otro contexto es cambiar las ϕn por los operadores
Pn ∈ L(c0 ) dados por Pn x = ϕn (x) · en , para x ∈ c0 . Un Pn de estos, lo que hace es tachar
todas las coordenadas del x dejándole śolo la n-ésima en el lugar n en que estaba.
Observar que para cada x ∈ c0 tenemos que kPn xk = |ϕn (x)| ken k = |ϕn (x)| −−−→ 0. Ası́
n→∞
que acá los Pn convergen puntualmente al operador nulo 0 ∈ L(c0 ). En este caso tampoco
le convergen en norma, porque kPn k = kϕn k = 1 para todo n ∈ N.
Este contexto es interesante porque los Pn son lo que se llama un sistema de proyectores
para c0 . Esto significa lo siguiente: Los Pn cumplen que
61
• Aproximan puntualmente a la identidad (suman uno). Esto se escribe ası́:
n
puntual
X
Qn = Pk −−−−→ Ic0 ,
n→∞
k=1
La idea es que cualquier cordenada fija de un espacio produce una funcional en el otro. Las
ϕ ∈ E ∗ actúan en E por su naturaleza intrı́nseca, pero los x ∈ E también actúan en E ∗ , y
eso es lo que produce las funcionales JE (x) ∈ E ∗∗ . Generalicemos más:
2.6.1. Sean E y F dos EN’s. Diremos que ellos están en dualidad si existe una funcional
bilineal h· , ·i : E × F → K tal que
ρx
1. Para cada x ∈ E fijo, la flecha F 3 y 7−→ hx , yi está en F ∗ .
62
existe un x ∈ E tal que hx , y1 i =
6 hx , y2 i , o sea que hx , y1 − y2 i =
6 0.
T
Esto equivale a pedir que ker ρx = {0}.
x∈E
ρ0y
3. Para cada y ∈ F fijo, la flecha E 3 x 7−→ hx , yi está en E ∗ .
Observar que la dualidad natural entre E y E ∗ dada en la Ec. (2.16) cumple 4 por Hahn
Banach, y se “extiende” a la natural entre E ∗∗ y E ∗ , siempre que incorporemos a E dentro
de E ∗∗ con la JE . Un hecho que conviene explicitar es que las condiciones 1 y 3 aseguran
que la dualidad es continua “en cada cordenada”. Por ejemplo dice que
k·k
xn −−−→ x en E =⇒ hxn , yi −−−→ hx , yi para todo y ∈ F .
n→∞ n→∞
4. Si el T de arriba era isométrico, también lo será T ∗ . Esto sale porque componer con
una isometrı́a sobre preserva la norma de las funcionales. El hecho clave es que un iso
T es isometrı́a ⇐⇒ T (BE ) = BF . Luego se calcula normas por definición.
63
6. La igualdad kyk = sup |φ(y)| para todo y ∈ F , vista en (2.7), muestra que
φ∈BF ∗
(2.7)
= sup sup |φ(T x)| = sup kT xkF = kT kL(E,F ) ,
x∈BE φ∈BF ∗ x∈BE
Ejemplo 2.6.4. En lo que sigue usaremos una convención notacional: Para evitar el doble
paréntesis, cuando un operador va hacia un dual (o cualquier espacio de funciones), la
variable irá abajito, onda Tx y en lugar de T (x)(y), donde Tx es el valor (en el dual de los
y’es) que toma el operador T en el punto x, antes de aplicárselo a y.
Sea T ∈ L(`1 , c∗0 ) el iso (isométrico) visto en 1.3.1, que implementa la dualidad
X
c0 × `1 3 (x , y) 7−→ hx , yi = Ty x = xn y n .
n∈N
Jc0 /
c0 cO ∗∗
0
En particular, eso implica que Jc0 es sobre ⇐⇒ Ic0 es sobre (los otros dos son iso-isos). Y
sabemos que Ic0 no lo es, ası́ que c0 minga reflex. Pobemoslá. Si x ∈ c0 e y ∈ `1 , entonces
X
(T ∗ ◦ Jc0 )x y = TJ∗x y = (Jx ◦ T ) y = Jx (Ty ) = Ty x = xn yn = Sx y = (S ◦ Ic0 )x y .
n∈N
64
Como valen igual para todo y ∈ `1 , vemos que (T ∗ ◦ Jc0 )x = (S ◦ Ic0 )x en (`1 )∗ para todo
x ∈ c0 . Ahı́ sı́ llegamos a que S ◦ Ic0 = T ∗ ◦ Jc0 en L(c0 , (`1 )∗ ).
Un festival semejante de dualidades, isometrı́as y diagramas justifica que si 1 < p, q < ∞
Tq
cumplen que 1
p
+ 1
q
= 1, entonces el iso isométrico `q ∼
= (`p )∗ de (1.24) produce que
J`p
(Tq∗ )−1
`p Fb F / (`pO )∗∗
Tp FF
`p ∼ ∼ FF
= (`q )∗ = (`p )∗∗ y da un diagrama F
Tp FF"
Tq∗
(`q )∗
cuya conmutatividad se prueba exactamente igual que la del de arriba. Esto muestra que la
inmersión J`p : `p ,→ (`p )∗∗ es un iso isométrico. Concretamente, J`p = (Tq∗ )−1 ◦ Tp que por
ello es sobre, lo que prueba que `p (y ya que estamos también `q ) sı́ es reflex. 4
Definición 2.6.5. Sea E un EN. Dados sendos subespacios S ⊆ E y T ⊆ E ∗ , definamos
S ⊥ = {ϕ ∈ E ∗ : ϕ ≡ 0} = {ϕ ∈ E ∗ : S ⊆ ker ϕ} v E ∗ .
S
65
Proposición 2.6.7. Sea E un EN. Dados sendos subespacios S ⊆ E y T ⊆ E ∗ , se tiene que
⊥
⊥
S⊥ = S T ⊆ ⊥T
y , (2.18)
donde la ⊆ de la derecha puede ser estricta. Sin embargo, siempre vale que
JE (⊥ T ) = T ⊥ ∩ JE (E) ( en E ∗∗ ) y ⊥ JE (S) = S ⊥ ( en E ∗ ) .
(2.19)
⊥
En particular, si E era reflex, ahı́ sı́ vale que T = ⊥ T .
Demostración. El hecho de que tanto anuladores como preanuladores sean cerrados se deduce
directamente de sus definiciones. Por otra parte, también es evidente que al ir y volver uno
incluye por lo menos al subespacio original. Por ello que las clausuras están dentro de los
doble anuladores es claro. Luego alcanza probar que
⊥
\
S⊥ = ker ϕ : ϕ ∈ S ⊥ ⊆ S .
Esto se deduce del Teor. de Hahn Banach 2.1.5, y ya fue planteado en el Ejer. 2.1.8. La idea
∗
es tomar un x ∈/ S y definir una ϕ0 ∈ S ⊕ span {x} tal que S ⊆ ker ϕ0 pero ϕ0 (x) 6= 0.
Si tomamos el espacio E = `1 y el subespacio T = c0 v `∞ ∼ = (`1 )∗ , es fácil ver que ⊥ c0 = {0}
(basta actuar con los en ∈ c0 para tachar todo). Luego ( c0 )⊥ es todo `∞ .
⊥
E
T / F (2.21)
∗∗
T ◦ JE = JF ◦ T vı́a el diagrama JE JF
E ∗∗ / F ∗∗
T ∗∗
66
Observación 2.6.9. Tratemos de traducir la Prop. anterior. El diagrama (2.21) dice que,
si tanto E como F son reflex, entonces T “ = ” T ∗∗ cuando identificamos los espacios con
sus dobleduales. Más precisamente, T ∗∗ = JF T JE−1 . En general, si ahora identificamos
los
∗∗
espacios con sus imágenes en los dobleduales, nos quedarı́a que T “ = ” T .
E
Recordar que Π∗S (φ) = φ ◦ ΠS para cada φ ∈ (E/S)∗ . El curro es “bajar” al cociente
las ϕ ∈ S ⊥ , vı́a el Cor. 1.7.5, que también da el isometrismo. 4
Es claro que ser AI implica ser mono. Pero si E es un Banach se puede decir más: Si T es
AI, entonces debe pasar que R(T ) v F (se suele decir “T es un rango cerrado”). En efecto,
Luego (xn )n∈ N es Cauchy y hay un x ∈ E tal que xn −−−→ x. Ası́ que T x = y ∈ R(T ).
n→∞
Luego se cumple la Ec. (2.24) con el número ε = kT −1 k−1 > 0, por lo que T es AI. 4
67
Proposición 2.6.12. Sean E y F dos Banach’s y sea T ∈ L(E, F ). Luego
T es inversible ⇐⇒ T∗ es inversible .
Usando esto sale que T es acotado inferiormente. En efecto, dado x ∈ E, tenemos que
Luego la Ec. (2.25) nos dice que T es mono y R(T ) v F . Pero al mismo tiempo, a partir de
la Ec. (2.22) llegammos que R(T ) = ⊥ (ker T ∗ ) = ⊥ {0F ∗ } = F (porque T ∗ es mono). Ası́
que R(T ) es cerrado y denso, por lo que T es también epi.
68
Diremos que un operador P ∈ L(E) es un proyector si es un idempotente: P ◦ P = P . Y
• Por lo tanto nuestro P no era otro que P = PS/T , donde S = R(P ) y T = ker P .
Las pruebas son todas directas. Veamos un poco la de la suma directa: Dado x ∈ E, es
obvio que el elemento y = P x ∈ S. Pero también tenemos que
z = x − y = x − P x = (IE − P ) x = Q x ∈ T .
x∈T x∈S
Como x = y + z ya sale que S + T = E. Que S ∩ T = {0} es facilongo (0 = P x = x).
Ası́ que hemos visto que todos los P ∈ P(E) son del tipo PS/T , el de la Ec. (2.26) para la
descomposición S ⊕ T = R(P ) ⊕ ker P = E. Ahora viene la novedad, que dice que toda tal
descomposición produce un proyector acotado. 4
Proposición 2.7.2. Sea E un Banach y sean S, T v E tales que E = S ⊕ T . Luego el
proyector PS/T de la Ec. (2.26) es acotado, o sea que PS/T ∈ P(E).
Demostración. Por el TGC 2.4.1 (y el hecho
de que E es Banach), para ver que PS/T ∈ L(E)
bastarı́a probar que el gráfico Gr PS/T v E × E. Sea entonces una sucesión
Como S v E, tenemos al menos que x ∈ S. Pero además tenemos que todas las diferencias
yn = zn − xn ∈ T , por lo que y = z − x = lim yn ∈ T (también T v E).
n→∞
69
def
donde se usa la notación S1 = {x ∈ S : kxk = 1}.
def
Sug. 1 : Utilizar en el espacio producto S × T la norma dada por k(x , y)k1 = kxk + kyk,
para cada par (x , y) ∈ S × T , con la que nos queda un EB.
Sug. 2 : Por el Cor. 1.7.5 se tiene que kPS/T k = kPeS/T k, donde PeS/T ∈ L(E/T , E) es el
bajado al cociente que cumple PS/T = PeS/T ◦ ΠT . Dado un x ∈ S1 nos queda que
Despues se toma ı́nfimo sobre tales x ∈ S1 . Usar también que ΠT (S) da todo E/T . 4
Ejercicio 2.7.4. Sea E = `p (N), con p ∈ (1, ∞). Tomemos el operador Mx ∈ L(E)
producido como en la Ec. (1.43) por x = ( n1 )n∈N ∈ `∞ (N). Consideremos los subespacios
S = E × {0} v E × E y T = Gr(Mx ) = ( y , Mx y ) : y ∈ E v E × E ,
donde en E × E se usa la norma definida en (2.14). El hecho de que ker Mx = {0} dice que
S ∩ T = {0}. Sin embargo, proponemos probar que
d (S1 , T ) = 0 =⇒ S ⊕ T 6v E × E ,
(2.28)
porque sinó sumarı́an un Banach mientras que kPS/T k = ∞. Ya que están, prueben que
S ⊕ T = E × R(Mx ) que es denso en E × E. 4
Definición 2.7.5. Sea E un EB. Diremos que un subespacio cerrado
S v E es complementado (COM) en E si existe un T v E tal que S ⊕ T = E .
Remarquemos que complementos algebráicos siempre hay (completando bases). Lo clave acá
es que exista un complemento T para S que sea también cerrado. 4
Proposición 2.7.6. Sea E un EB y sea S v E. Las suguientes condiciones son equivalentes:
1. Nuestro S es COM en E.
70
Demostración. Es claro que 2 ⇐⇒ 3 poniendo Q = I − P o viceversa. Si existe el proyector
P sobre S, basta tomar T = ker P , que es cerrado y es un buen complemento de S.
En cambio si tenemos el T v E tal que S ⊕ T = E, podemos aplicar la Prop. 2.7.2 que nos
asegura que el proyector P = PS/T es acotado y tiene rango S.
Veamos ahora que 3 ⇐⇒ 4. Si existe la sección U ∈ L(E/S , E) de (2.29), basta definir el
proyector Q = U ◦ ΠS ∈ P(E) . Como U es mono sale que ker Q = ker ΠS = S.
Si existe el Q ∈ P(E) con ker Q = S del item 3, el Cor. 1.7.5 nos decı́a que existe un
U = Q̃ ∈ L(E/S , E) tal que U ◦ ΠS = Q. Observar que esta U es continua y cumple que
No daremos los detalles del cómo hacerlo, porque es una lástima quemarlo. Sin embargo
diremos que sale de dos maneras tradicionales (al lector entusiasta le sugerimos no leer lo
que sigue, hasta que le salga): Una es tomando bandas oblicuas (que sean bastante anchitas)
en el reticulado N × N, con el “angulo” moviéndose en (0 , π/2). La otra es tomar sucesiones
adecuadas de números racionales.
Luego la familia {Ai }i∈I cumple las siguientes propiedades:
• Para cada i ∈ I sean xi = 1Ai ∈ `∞ and yi = Π(xi ) ∈ `∞ /c0 . Vale que kyi kX = 1.
71
• Más aún, si fijamos unP
F ∈ PF (I) y tenemos
P números αi ∈ C tales que |αi | = 1 para
todo i ∈ F, entonces k αi yi kX = kΠ( αi xi )kX = 1.
i∈ F i∈ F
|F|
Ası́ vemos que k
≤ kϕk, por lo que el cardinal |Fk | no se puede pasar de k kϕk < ∞.
Volvamos ahora a nuestro problema de que c0 no puede ser COM en `∞ : Asumiremos que
existe una sección lineal y continua U ∈ L(X , `∞ ) para Π como en (2.29), y llegaremos a
una contradicción. Aplicando la Prop. 2.7.6, eso nos dirı́a que c0 no era COM en `∞ .
Consideremos las funcionales ϕn ∈ X ∗ dadas por ϕn = kn ◦ U , donde las kn ∈ (`∞ )∗ son
tomar la entrada n-ésima de un x ∈ `∞ , para cada n ∈ N. Observar que si un elemento
z = (zn )n∈ N ∈ `∞ cumple que zn = kn (z) = 0 para todo n ∈ N, entonces z = 0.
S
Finalmente notemos que I0 = n∈N Iϕn es numerable. Luego, como I era no numerable,
existe algún i ∈ I \ I0 y para él tenemos que el vector z = U (yi ) ∈ `∞ debe cumplir que
i∈I
/ 0
kn (z) = kn U (yi ) = ϕn (yi ) = 0 para todo n∈N =⇒ z = U (yi ) = 0 .
Pero eso contradice el hecho de que kyi kX = 1 junto con que U debe ser mono (porque era la
sección de Π, o sea que Π ◦ U = IX ). Observar que la linealidad-continuidad de la supuesta
U se usó para que las ϕn ∈ X ∗ . Llegamos a una contradicción lo suficientemente flagrante
como para concluir que no hay tal U y por ello c0 no era COM en `∞ . 4
El ejemplo que viene se basa en un resultado sobre `1 = `1 (N) que es interesante en sı́ mismo.
Lo pondremos como un ejercicio para el lector. Para abreviar damos una definición:
Definición 2.7.9. Sea E un EB. Diremos que E tiene la porpiedad L si dada cualquier
sucesión (xk )k∈ N en E, se tiene que
k · kE
xk −−−→ 0 ⇐⇒ ϕ(xk ) −−−→ 0 para toda ϕ ∈ E∗ . (2.30)
k→∞ k→∞
72
Ejercicio 2.7.10. Probar que `1 (N) tiene la propiedad L.
Sugerencia: La gracia es la flecha ⇐= de (2.30). Si empezamos con una sucesión (xk )k∈N
en B`1 (N) que no converge a cero con la norma uno de `1 (N) (eso alcanza por la Obs. 2.5.3),
pasando a una subsucesión (y teniendo mucho cuidado) podemos suponer que
• kxk k1 ≥ ε para todo k ∈ N.
• Existe una sucesión creciente de enteros positivos αk (con α0 = 0) tales que
αk−1 αk
X 1 X 2
|xk (m)| ≤ pero |xk (m)| ≥ kxk k1 − para todo k∈N.
m=1
k m=αk−1 +1
k
En tal caso definir z ∈ `∞ por z(m) = sgn xk (m) para αk−1 < m ≤ αk y ver que pasa con
la funcional ϕz ∈ (`1 )∗ , definida como en la Ec. (1.23). 4
En realidad, casi ningún EB tiene la L. Es una propiedad muy especı́fica de `1 (N) (y de sus
subespacios). Sugerimos mostrar que todos los otros Banachs que conocemos no la tienen.
Le pusimos nombre sólo para clarificar las cuentas en el ejemplo que viene. Pero antes otro
ejercicio que dice que la L se hereda y se transporta por isomorfismos entre EB’s :
Ejercicio 2.7.11. Sea E un EB que tiene la propiedad L. Probar que
1. Cualquier S v E tiene también la propiedad L.
2. Si F es otro EB tal que E ' F , entonces tambien F es L.
Sugerencia: Para probar 1, observar que se puede mandar toda ϕ ∈ E ∗ hacia ϕ|S ∈ S ∗ . Para
ver 2 recordar que si T ∈ L(E , F ) es un iso, entonces también T ∗ ∈ L(F ∗ , E ∗ ) lo es. 4
Ejemplo 2.7.12. Ahora veremos una gran familia de subespacios no complementados se
puede “encontrar” dentro de `1 (N). Ya verán el porqué de las comillas:
Fijemos E un EB separable. Recordando la Prop. 2.3.7 tenemos un epi T ∈ L(`1 (N) , E)
y, si llamamos M = ker T v `1 (N), sabemos que hay un iso T̃ ∈ L(`1 (N)/M , E). Si el
subespacio M que nos aparece tuviera un complemento N v `1 (N), también tendrı́amos
que E ' `1 (N)/M ' N , vı́a una sección U de la proyección ΠM que provee la Prop. 2.7.6.
Ahora vienen las propiedades L: Por el Ejer. 2.7.10 el ambiente `1 (N) tiene la L. Pero usando
ahora el Ejer. 2.7.11, podrı́amos deducir que N v `1 (N) y también E ' N deben ser L.
Por ende, para “tener” un M v `1 (N) no COM en `1 (N), bastarı́a encontrar un EB separable
E que no cumpla la propiedad L, poniendo M = ker T para un epi T ∈ L(`1 (N) , E).
Por ejemplo c0 no puede ser L, porque si (en )n∈N es la sucesión canónica de c0 , vale que
ϕ(en ) −−−→ 0 para toda ϕ ∈ c∗0 ∼
= `1 . Tampoco los `p para 1 < p < ∞ son de tipo L (sale
n→∞
usando la misma sucesión), ası́ que hay noCOM’s para tirar al techo dentro de `1 (N). 4
Veremos a continuación un par de propiedades que sirven para ver que algunos subespacios
sı́ son COM’s en su ambiente. En algún sentido generalizan la Prop. 2.7.6 :
73
Proposición 2.7.13. Sean E y F dos EB’s y T ∈ L(E , F ). Luego se tiene que
1. Si asumimos que T era un epi, entonces
Demostración. Empecemos con el caso en que T es epi. Si tiene un A que es inverso a derecha
como en (2.31), entonces vale que Q = A ◦ T ∈ P(E) y ker Q = ker T . Por la Prop. 2.7.6
vemos que ker T era COM en E. Pero si tenemos un N v E tal que ker T ⊕ N = E,
entonces nos queda que T |N ∈ L(N , F ) es un iso. Por el TFI 2.3.4 sabemos que su inversa
A = (T |N )−1 ∈ L(F , N ) ⊆ L(F , E). Pero tenemos que T ◦ A = T |N ◦ A = IF .
Si T era mono y existe el B de (2.32) (o sea que T tiene inversa a izquierda), entonces el
operador P = T ◦ B ∈ P(F ) y vale que R(T ) = R(P ) v F (la igualdad sale porque B tiene
que ser epi). Por la Prop. 2.7.6 vemos que R(T ) es además COM en F .
Si asumimos que S = R(T ) v F , entonces podemos pensar a T ∈ L(E , S) con nombre T0 ,
y allı́ es un iso entre EB’s. Por el TFI 2.3.4, su inversa B0 = T0−1 ∈ L(S , E). Si además
existe un N v F tal que R(T ) ⊕ N = F , y llamamos P = PS/N ∈ P(F ) (es acotado por la
Prop. 2.7.2), entonces podemos definir al candidato B = B0 ◦ P ∈ L(F , E). Veamos:
∗
B ◦ T = B0 ◦ P ◦ T = B0 ◦ T0 = IE ,
∗
donde = vale porque P actúa como la identidad en S y R(T ) = S.
74
2.8 Ejercicios del Cap. 2 - Funcionales y Operadores
Ejercicios aparecidos en el texto
2.8.1. Sea E un EN. Dado un subespacio S v E y un x ∈
/ S, probar que existe una
Se sugiere probarlo primero a mano en S ⊕ span {x} y extender por Hanh-Banach. Recién después hacerlo
usando la Ec. (2.6) en E/S . Comparar con la igualdad |ϕ(x)| = d ( x , ker ϕ ) de la Prop. 1.7.7. 4
2.8.2. Sea E un EN. Probar que
{ ker ϕ : ϕ ∈ E ∗ y S ⊆ ker ϕ } .
T
1. Dado un subespacio S ⊆ E, se tiene que S =
1. Dado un x ∈ E y una ϕ ∈ E ∗ como en la Ec. (2.6) (o sea que kϕk = 1 pero ϕ(x) = kxk ), mostrar que
(1.39)
ahı́ sı́ vale que d (x , ker ϕ) = kxk. Comparar con la Ec. (1.27) y el Ejem. 1.4.3.
2. Asumamos que dim E = ∞. Usando recursivamente el item anterior, probar que existen una sucesión
(xn )n∈ N en E y una familia de subespacios Sn v E tales que
Sugerencia: Construir la sucesión (xn )n∈ NPen E de vectores unitarios y los Sn del item 2. Luego mandar
cada a = (an )n∈ N ∈ `∞ a la serie T (a) = n∈N 2−n an xn ∈ E. 4
2.8.4. Sea E un EB infinitodimensional, con dim E = α (dimensión algebráica).
Repaso: Sean E , F dos EN’s. Recordemos que un operador T ∈ L(E, F ) es acotado inferiormente (y
abreviamos AI) si existe un ε > 0 tal que ε · kxkE ≤ kT x kF para todo x ∈ E .
75
2.8.6. Sean E , F dos EN’s y sea T ∈ L(E, F ). Asumamos que E es Banach. Probar que:
k·k1
xk −−−−→ 0 ⇐⇒ ϕ(xk ) −−−−→ 0 para toda ϕ ∈ (`1 )∗ ∼
= `∞ .
k→∞ k→∞
En el Ejer. 2.7.10 se da una sugerencia bastante explı́cita. Pero allı́ se pedı́a que (xk )k∈N fuera acotada.
Ahora agregamos al ejercicio el mostrar que cualquiera de las dos convergencias asegura esa acotación. 4
2.8.8. Sea E un EB y sea B ⊆ E un subconjunto cualquiera. Probar el Cor. 2.5.2:
B es k · k-acotado ⇐⇒ B es w-acotado ,
donde w-acotado significa que para toda ϕ ∈ E ∗ el conjunto ϕ(B) es acotado en C. 4
2.8.9. Dados tres normados E, F y G, un T ∈ L(E, F ) y un S ∈ L(F, G), probar lo que sigue:
E∼
= F =⇒ E ∗ ∼
= F∗ (∼
= era ser isométricamente ') .
¿ Vale la recı́proca? 4
2. Sin embargo, probar que no existe iso isométrico entre ellos, o sea que c0 ∼
6 c.
=
3. Mostrar que por lo menos sı́ vale que c0 ' c con un iso no isométrico.
Sug: Para el primero conviene observar que `1 (N) es “lo mismo” si uno empieza en x0 o en x1 . Para el
segundo se sugiere buscar extremales de las bolas cerradas (si no saben que son vean la Def. 5.4.1). 4
1. Se cumple que S ⊥ v E ∗ y ⊥
T v E.
⊥
2. Además (S ⊥ ) = S y (⊥ T )⊥ ⊇ T .
76
3. Pensemos a c0 ⊆ `∞ = (`1 )∗ . Probar que (⊥ c0 )⊥ contiene extrictamente a c0 .
E
T / F
∗∗
T ◦ JE = JF ◦ T que se ve bien en el diagrama
JE JF
E ∗∗ / F ∗∗
T ∗∗
⊥
R(T ) = ker T ∗ y R(T ∗ ) ⊆ (ker T )⊥ .
Se necesita verificar buena definición, linealidad, isometricidad y epiness (por H-B 2.1.5).
Recordar que Π∗S (φ) = φ ◦ ΠS para cada φ ∈ (E/S)∗ . El curro es “bajar” al cociente las ϕ ∈ S ⊥ , vı́a
el Cor. 1.7.5, que también da el isometrismo. 4
Repaso: Sea E un EN y sean S, T v E tales que E = S ⊕ T . El proyector PS/T de la Ec. (2.26) era
77
4. Se cumple la descomposición S ⊕ T = R(P ) ⊕ ker P = E.
5. Por lo tanto nuestro P no era otro que P = PS/T , donde S = R(P ) y T = ker P . 4
2.8.15. Sea E un EB y sean S, T v E tales que E = S ⊕ T . En la Prop. 2.7.2 vimos que, como E es Banach,
entonces PS/T ∈ P(E). Probar ahora que kPS/T k = N −1 , para el número N dado por
= ı́nf{ kx + yk : y ∈ T , x ∈ S1 } = d (S1 , T ) ,
def
donde se usa la notación S1 = {x ∈ S : kxk = 1}.
def
Sug. 1 : Utilizar en el espacio producto S × T la norma dada por k(x , y)k1 = kxk + kyk, para cada par
(x , y) ∈ S × T , con la que nos queda un EB.
Sug. 2 : Por el Cor. 1.7.5 se tiene que kPS/T k = kPeS/T k, donde PeS/T ∈ L(E/T , E) es el bajado al cociente
que cumple PS/T = PeS/T ◦ ΠT . Dado un x ∈ S1 nos queda que
Despues se toma ı́nfimo sobre tales x ∈ S1 . Usar también que ΠT (S) da todo E/T . 4
p
2.8.16. Sea F = ` (N), con p ∈ (1, ∞). Tomemos el operador Mx ∈ L(F ) producido como en la Ec. (1.43)
por la sucesión x = ( n1 )n∈N ∈ `∞ (N). Consideremos los siguientes subespacios de F 2 = F × F :
S = F × {0} = ( y , z ) ∈ F 2 : z = 0
y T = Gr (Mx ) = ( y , Mx y ) : y ∈ F .
6. Otra forma: Mostrar que el mismı́simo (0 , x) ∈ S ⊕ T pero no está en S ⊕ T . Por este lado sale fácil
que en realidad S ⊕ T es denso en F 2 (porque R(Mx ) es denso en F ).
7. Probar que a pesar de lo anterior, pensados solitos S y T sı́ son COM dentro de F 2 . Para el caso no
trivial de T sugerimos usar la Ec. (2.32). 4
2.8.17. Sea E un EB. Si un subespacio S v E cumple que
def
dim S < ∞ o que codim S = dim E/S < ∞ =⇒ S es COM en E . 4
2.8.18. Probar que existe una famila {Ai }i∈I de subconjuntos de N tales que
|Ai | = ∞ para todo i∈I , |I| = |R| pero Ai ∩ Aj es finito siempre que i 6= j .
Sug: No indicaremos los detalles del cómo hacerlo, porque es una lástima quemarlo. Sin embargo diremos
que sale de dos maneras tradicionales (al lector entusiasta le sugerimos no leer lo que sigue, hasta que le
salga): Una es tomando bandas oblicuas (que sean bastante anchitas) en el reticulado N × N, con el “angulo”
moviéndose en (0 , π/2). La otra es tomar sucesiones adecuadas de números racionales. 4
78
2.8.19. Hacer todas las cuentas del Ejem. 2.7.8 que mostraba que c0 v `∞ no es COM en `∞ . 4
Definición 2.8.20. Diremos que un Banach E tiene la porpiedad L si dada cualquier sucesión (xk )k∈ N en
E , se tiene que
k · kE
xk −−−−→ 0 ⇐⇒ ϕ(xk ) −−−−→ 0 para toda ϕ ∈ E∗ . (2.36)
k→∞ k→∞
En tal caso definir z ∈ `∞ por z(m) = sgn xk (m) para αk−1 < m ≤ αk y ver que pasa con la funcional
ϕz ∈ (`1 )∗ , definida como en la Ec. (1.23). 4
2.8.22. Sean E , F dos EN’s tales que E ∼ = F vı́a un iso T ∈ L(E, F ). Si x = (xi )i∈ I es una red en E
probar que, dado un candidato a lı́mite x ∈ E
k·k k·k
1. Se tiene que xi −−→ x en E ⇐⇒ T xi −−→ T x en F .
i∈ I i∈ I
2. Además ϕ(xi ) −−→ ϕ(x) para toda ϕ ∈ E ∗ ⇐⇒ φ(T xi ) −−→ φ(T x) para toda φ ∈ F ∗ .
i∈ I i∈ I
Ejercicios nuevos
2.8.24. Sea E un EN y sea S ⊆ E un subespacio. Probar que
1. Si S no es denso en E debe existir una funcional ϕ ∈ E ∗ no nula tal que ϕ|S ≡ 0.
2.8.26 (El operador de Volterra.). Sea V : L2 [0, 1] → L2 [0, 1] el operador de Volterra, dado por
Z x
V f (x) = f (t) dt para cada f ∈ L2 [0, 1] .
0
79
f (x)
2.8.27. Consideremos a E = L1 (1, +∞) como un R-EB. Sea T : E → E dado por T f (x) = x . Probar
que T es acotado pero no abierto. (Sug. 0 ∈ T (B(0, 1)) no es punto interior).
2.8.28. Sean E y F espacios normados y T ∈ L(E, F ). Probar que el Gr (T ) v E × F ⇐⇒ para toda
sucesión (xn )n∈ N en E tal que xn −−−−→ 0 y T xn −−−−→ y ∈ F , se tiene que y = 0.
n→∞ n→∞
1 0
2.8.29. Sea C [0, 1] = {f ∈ C[0, 1] : existe f ∈ C[0, 1] } con la norma infinito de C[0, 1]. Sea
Probar que Gr (D) v C 1 [0, 1] × C[0, 1] pero D no es acotado. ¿Por qué esto no contradice el TGC?
2.8.30. Sea (E, k · k) un EB separable. Fijemos una base algebraica E = {ei }i∈I de E tal que kei k = 1
para todo i ∈ I. Con ella definamos en E otra norma k · kE del siguiente modo:
X X
Si x ∈ E se escribe x = αi ei entonces ponemos kxkE = |αi | .
i∈I i∈I
2.8.31. Sean E y F dos EB’s. Probar que para todo operador T ∈ L(E , F ), su gráfico
Gr (T ) v E × F , además de ser cerrado es COM en E × F .
−1
Recordar la Ec. (2.32) y el P de la prueba del TGC. 4
2.8.32. Sea E = `p (N), con p ∈ (1, ∞) e identifiquemos E ∗ con `q (N) en la forma usual. Fijado un a ∈ `∞ (N)
consideremos el operador Ma ∈ L(E) producido como en la Ec. (1.43). Probar que su adjunto
Definición 2.8.33. Sean E y F dos EB’s. Fijemos una sucesión (Tn )n∈N y un T , todos en L(E, F ). Decimos
S.O.T. k·k
que Tn −−−−→ T (se lee “Tn converge fuertemente a T ”) si para cualquier x ∈ E se tiene que Tn x −−−−→ T x
n→∞ n→∞
(en la norma de F ). 4
2.8.34. Sean E y F dos EB’s. Dados T, S y dos sucesiones (Tn )n∈N y (Sn )n∈N , todos en L(E, F ), probar:
S.O.T. k·k k·k
1. Si Tn −−−−→ T y xn −−−−→ x (todos en E y con su norma) entonces Tn xn −−−−→ T x.
n→∞ n→∞ n→∞
3. Supongamos que para cada x ∈ E la sucesión {Tn x}n∈N es de Cauchy. Probar que existe un operador
S.O.T.
A ∈ L(E, F ) tal que Tn −−−−→ A. 4
n→∞
80
2. Dado T ∈ L(E, F ), probar que R(T ) v F ⇐⇒ R(T ∗ ) v E.
Sug: Si vale que R(T ) v F , bajamos T a T̃ : E/ ker T → R(T ) que es iso. Notar que
2.8.13
Pero por otro lado sabemos que R(Π∗ker T ) = (ker T )⊥ v E ∗ . La vuelta es similar. 4
donde la serie converge con la norma de E. En tal caso se definen las funcionales E 3 x 7→ ϕn (x) ∈ K.
Diremos que B es una S-base (o base de Schauder) si todas las funcionales ϕn ∈ E ∗ .
Asociado a B se define el espacio de sucesiones FB ⊆ KN dado por
X
FB = a = (an )n∈ N ∈ KN : la serie an bn converge en E ,
n∈N
m
def
P
dotado de la norma kakB = sup
ak bk
E , para cada a = (an )n∈ N ∈ FB . 4
m∈N k=1
2.8.37. Sea E un EN separable con una Σ-base B = {bn : n ∈ N}. Probar que
2. El conjunto FB ⊆ KN es un subespacio de KN .
3. La norma k · kB está bien definida (el sup es finito) y es una norma para FB .
P
4. Consideremos la flecha TB : FB → E dada por TB a = an bn para cada a = (an )n∈ N ∈ FB .
n∈N
Mostrar que este TB ∈ L(FB , E) con kTB k ≤ 1, y que es un isomorfismo K-lineal.
7. El operador TB ∈ L(FB , E) de arriba es un iso de EB’s, o sea que es también hómeo y E ' FB .
8. Nuestra base B era también una base de Schauder. Ya que están prueben (2.37) de abajo.
10. Caracterizar a E ∗ como otro espacio de sucesiones en forma similar a las dualidades de `p con `q . 4
81
3. Vale que sup kbn kE < ∞ ⇐⇒ ı́nf kϕn kE ∗ > 0 ⇐⇒ `1 (N) ⊆ FB .
n∈N n∈N
def def
m = ı́nf kbn kE > 0 y M = sup kbn kE < ∞ ⇐⇒ `1 ⊆ FB ⊆ c0 ,
n∈N n∈N
y se le dice unitaria si m = M = 1. Probar que si B es acotada existe una nueva norma en E que es
equivalente a la original, tal que B se hace unitaria. 4
2.8.40. Probar que la base canónica E = {en : n ∈ N} de SF se transforma en una S-base acotada de todos
los `p (N) para p < ∞ y también de c0 . Con `∞ no se plantea porque no es separable. 4
82
Capı́tulo 3
Espacios de Hilbert
3.1 Preliminares.
Definición 3.1.1. Sea H un K-EV. Un producto interno (PI) en H es una función
h· , ·i : H × H → K
hλ x + y , zi = λ hx , zi + hy , zi y hx , λ y + zi = λ hx , yi + hx , zi ,
En el caso real la conjugación no hace nada, por lo que un PI es bilineal, simétrico y definido
positivo. Se lo llama semi PI si permitimos que hx , xi = 0 para algunos x 6= 0. 4
3.1.2 (Fórmulas con un PI). Sea H , h· , ·i un K-EV con un semi PI asociado.
La prueba es directa y se deja como ejercicio. Observar que tiene una consecuencia
agradable: Tomando y = 0 en (3.1) nos queda que
83
2. Por otra parte, la forma sesquilineal se puede recuperar de la cuadrática con la so
called “identidad de polarización”. Tiene dos versiones: Dados x, y ∈ H,
3
X
4 hx , yi = ik kx + ik yk2 (siempre que K = C) , (3.2)
k=0
Las pruebas también son directas (aunque más largas) y se dejan como ejercicio.
3. Por último, veamos la famosı́sima igualdad del paralelogramo:
La prueba no es más que poner dos veces la Ec. (3.1), para kx + yk2 y k − x + yk2 ,
para después cancelar. Dejamos como ejercicio dar una versión para n vectores. 4
Proposición 3.1.3 (Cauchy-Schwarz). Sea H , h· , ·i un K-EV con un semi PI asociado.
Entonces para todo x, y ∈ H vale que
Observar que P tiene grado dos y que sólo toma valores positivos. Luego su discriminante
no puede ser positivo, o sea que
2
0 ≥ b2 − 4ac = 4 Re hx , yi − 4 kxk2 kyk2 =⇒ | Re hx , yi | ≤ kxk kyk . (3.6)
C−S 2
≤ kxk2 + 2kxk kyk + kyk2 = kxk + kyk .
84
Definición 3.1.5. A partir de ahora, cuando H , h· , ·i es un K-EV con un PI asociado,
diremos que H = (H , k · k ) es un espacio de pre-Hilbert (escribimos EPH).
Si con esa métrica resulta ser un Banach, lo llamaremos espacio de Hilbert (EH). 4
Observación 3.1.6. Sea H un EPH. La desigualdad de Cauchy Schwarz muestra que el
PI es continuo en cada coordenada (respecto de la norma que él produce). Por ejemplo, si
k·k
tomamos un vector y junto con una sucesión xn −−−→ x, todos en H, entonces
n→∞
C−S
|hx − xn , yi| ≤ kx − xn k kyk −−−→ 0 =⇒ hxn , yi −−−→ hx , yi .
n→∞ n→∞
3.2 Ortogonalidad.
Notaciones 3.2.1. Sea H un EPH.
Observación 3.2.2. Sea H un EPH. En vista de la Obs. 3.1.6 es fácil ver que la flecha
A 7→ A⊥ cumple las siguientes propiedades: Dado un A ⊆ H,
85
Proposición 3.2.3 (Teor. de Pitágoras). Sea H un EPH. Si tenemos una familia finita
B = {x1 , x2 , . . . , xn } ⊆ H que es un sistema ortogonal, entonces se tiene que
X
2 X
xk
= kxk k2 .
k∈ In k∈ In
Observar que [x, y] denota al “segmento” recto que une a x con y dentro de E.
Teorema 3.2.4. Sea H un EH (acá es esencial que H sea completo). Dado un A ⊆ H que
sea cerrado y convexo, se tiene que para todo x ∈ H
existe un único k0 = PA x ∈ A tal que d (x , A) = kx − k0 k .
Demostración. Empecemos cambiando A por Ax = A − x = {k − x : k ∈ A}. Este Ax sigue
siendo cerrado y convexo, pero ahora hay que realizarle la distancia al x = 0. Es decir que
se busca un k0 ∈ Ax tal que kk0 k = mı́n kkk. Y después hay que ver que el tal k0 es único.
k∈Ax
Para ello llamemos M = ı́nf kkk = d (0 , Ax ) y tomemos una sucesión (kn )n∈ N en Ax tal
k∈Ax
que kkn k −−−→ M . Ahora viene el paralelogramo (3.4):
n→∞
Acabamos de usar que H es completo y que Ax es cerrado. Bueno, ahora ya sabemos que
kkn k −−−→ kk0 k = M y que k0 ∈ Ax como anunciamos. Para ver la unicidad tomemos otro
n→∞
k ∈ Ax tal que kkk = M . Apliclándoles el paralelogramo (3.4) a k y k0 queda que
kk + k0 k2 + kk − k0 k2 = 2 kkk2 + 2 kk0 k2 = 4 M 2 .
86
El Teorema anterior es particularmente util cuando el rol de convexo cerrado lo cumple un
subespacio S v H. En ese caso se define PS : H → S ⊆ H dada por
Veremos que este PS es un proyector en L(H) con muchas propiedades agradables. Pero
vamos paso a paso.
Proposición 3.2.5. Sea H un EH. Dado un S v H, se tienen las siguientes propiedades:
2 Rehz , si
= −2 t Rehz , si + t2 ksk2 = ksk2 t t − ksk2
.
x = PS x + (x − PS x) ∈ S + S ⊥ =⇒ S ⊕ S ⊥ = H . (3.8)
87
Corolario 3.2.6. Sea H un EH. Dados S v H y x ∈ H, tenemos el siguiente criterio para
identificar a PS x : Fijado un y ∈ S, las suguientes condiciones son equivalentes:
1. Nuestro y = PS x , o sea que es el único en S tal que kx − yk = d (x , S).
2. Él cumple que x − y ∈ S ⊥ , además de que y ∈ S.
3. Para todos los demás s ∈ S vale que hx , si = hy , si.
Proof. Como hx , si − hy , si = hx − y , si, es claro que 2 ⇐⇒ 3. La equivalencia de 1 con
ellos se deduce de la igualdad PS = PS/S ⊥ que mostramos en la Prop. 3.2.5.
Corolario 3.2.7. Sea H un EH. Luego tomar “el doble ortogonal” hace esto:
1. Si A ⊆ H es cualquier cosa, entonces (A⊥ )⊥ = span {A}.
2. En particular, si S ⊆ H es un subespacio, entonces (S ⊥ )⊥ = S.
3. Es de remarcar que, si S v H, entonces S = (S ⊥ )⊥ .
Demostración. La Obs. 3.2.2 asegura que A⊥ = ( span {A} )⊥ , ası́ que alcanza probar la
igualdad S = (S ⊥ )⊥ para los S v H. Es claro que S ⊆ (S ⊥ )⊥ . Pero si x ∈ (S ⊥ )⊥ y
llamamos y = PS x ∈ S ⊆ (S ⊥ )⊥ , entonces el Cor. 3.2.6 dice que x − y ∈ S ⊥ ∩ (S ⊥ )⊥ = {0}.
En resumen, x = y ∈ S, por lo que (S ⊥ )⊥ ⊆ S y vale la igualdad.
Corolario 3.2.8. Sea H un EH. Dado un subespacio M ⊆ H se tiene que
M es denso en H ⇐⇒ M⊥ = {0} (3.9)
En particular, si S v H, entonces S ⊥ = {0} ⇐⇒ S = H.
Demostración. El Cor. 3.2.7 dice que M = (M⊥ )⊥ . De ahı́ sale de una la flecha ⇐= , porque
3.2.2
{0}⊥ = H. La otra sale porque M⊥ = M ⊥ mientras que H⊥ = {0}.
Observación 3.2.9. Los proyectores de la Prop. 3.2.5 se llaman proyectores ortogonales.
Hay uno para cada S v H. Son un caso particular de los proyectores PS/T ∈ P(H) estudiados
en la Ec. (2.26) y la Prop. 2.7.2, el caso asociado a las descomposiciones de un Hilbert H en
suma directa de subespacios cerrados ortogonales entre sı́: PS = PS/S ⊥ .
Recoremos aquı́ algunas propiedades vistas en la Obs. 2.7.1: Todo P ∈ P(H) (idempotente
o proyector oblicuo, y además acotado) era uno de los PS/T de la Ec. (2.26), relativo a
H = R(P ) ⊕ ker P . Es decir que que P = PR(P )/ ker P . Por otro lado, salvo el caso P = 0,
todos los P ∈ P(H) cumplen que kP k ≥ 1, porque actúan como la identidad en su rango.
Lo llamativo es que, si llamamos S = R(P ), se tiene que
kP k = 1 ⇐⇒ ker P = S ⊥ ⇐⇒ P = PS . (3.10)
En efecto, las implicaciones ⇐= ya las probamos en la Prop. 3.2.5. La otra sale ası́: Llamemos
Q = I − P , y M = R(Q) = ker P . Si kP k = 1, entonces para cada x ∈ H y cada y ∈ M,
como sabemos que Q y = y, tenemos que
kx − Q xk = kx − y + y − Q xk = k(x − y) − Q(x − y)k = kP (x − y)k ≤ kx − yk .
88
Esto dice que la distancia de cada x ∈ H al subespacio cerrado M se alcanza en su Q x. En
resumen, podemos asegurar que este Q = PM , el de la Prop. 3.2.5. Luego S = ker Q = M⊥ .
Por el Cor. 3.2.7 llegamos a que S ⊥ = (M⊥ )⊥ = M = ker P . Finalmente, en la misma
Prop. 3.2.5 vimos que PS es el proyector asociado a la descomposición H = S ⊕ S ⊥ , al igual
que P . Luego son el mismo proyector. De paso probamos esto:
Observar que cada ϕy es lineal bien, porque los λ ∈ K salen indemnes si están a la izquierda.
Además Cauchy-Schwarz 3.5 asegura que |ϕy (x)| = | hx , yi | ≤ kyk kxk para todo x ∈ H,
por lo que ϕy ∈ H∗ con kϕy k ≤ kyk. Sin embargo la flecha y 7→ ϕy es anti-lineal porque, si
bien respeta sumas, cumple que ϕλ y = h · , λ yi = λ h · , yi = λ ϕy para los λ ∈ K.
Teorema 3.3.1 (Riesz). Sea H un EH. La aplicación H 3 y 7→ ϕy ∈ H∗ definida en
(3.11) produce un anti-isomorfismo isométrico de H sobre H∗ . En otras palabras, para toda
ϕ ∈ H∗ existe un único y ∈ H tal que ϕ = h · , yi, que además cumple kϕk = kyk.
Demostración. Ya vimos que las ϕy ∈ H∗ con kϕy k ≤ kyk. Fijemos ahora un y ∈ H \ {0}.
y
Consideremos el vector x = kyk ∈ BH . Él realiza la norma de ϕy :
hy , yi
kϕy k ≥ |ϕy (x)| = ϕy (x) = = kyk ≥ kϕy k =⇒ kϕy k = kyk .
kyk
Con esto probamos que la representación y 7→ ϕy es isométrica. Veamos ahora que es sobre:
Sea ϕ ∈ H∗ \ {0}, y llamemos S = ker ϕ. Como S = 6 H, el Cor. 3.2.8 asegura que S ⊥ 6= {0},
por lo que existe un z ∈ S con kzk = 1. Sea y = ϕ(z) z ∈ S ⊥ . Luego
⊥
89
Observación 3.3.2. Tampoco era antojadiza la notación S ⊥ , que se usa tanto para anu-
ladores en Banach’s como para ortogonales en Hilbert’s. El tema es que, vı́a la identificación
de H∗ con H del Teo. 3.3.1, el anulador de un S v H es lo mismo que su ortogonal. 4
Corolario 3.3.3. Sea H un EH. Luego, para todo x ∈ H y todo T ∈ L(H) se tiene que
Demostración. El Teor. de Riesz 3.3.1 nos asegura que la bola del dual BH∗ coincide con el
conjunto {ϕy : y ∈ BH }, donde las ϕy son las de la Ec. (3.11). Luego basta que recordemos
aquella fórmula (2.7) que calculaba normas vı́a el dual. La segunda fórmula sale porque
moviendo los y ∈ BH se van calculando las kT xk para los x ∈ BH .
P
3.4 i∈I
Sea H un EPH. Si tenemos un SON finito B = {x1 , x2 , . . . , xn } ⊆ H y consideramos el
subespacio S = span {x1 , . . . , xn }, hay una fórmula explı́cita para PS :
X
PS x = hx , xk i xk para todo x ∈ H . (3.13)
k∈ In
P
Para verlo, llamemos y = hx , xj i xj ∈ S . Usando que B es un SON sale directo que
j∈ In
D P E P
hy , xk i = hx , xj i xj , xk = hx , xj i hxj , xk i = hx , xk i para cada k ∈ In .
j∈ In j∈ In
Por linealidad sale que hy , si = hx , si para todo s ∈ S. Recordando ahora el Cor. 3.2.6,
esto determina que y = PS x y que (3.13) está probada. Por lo tanto, si
X
{x1 , . . . , xn } ⊆ H es un SON =⇒ | hx , xk i |2 ≤ kxk2 para todo x ∈ H . (3.14)
k∈ In
90
En el caso en que I es numerable, esto es la definición usual de serie sumable (de términos
no negativos), a la que no le importa el orden en que se sumen las cosas. En el caso que I
def
no es numerable, se ve fácil que el sop(a) = {i ∈ I : ai 6= 0} sı́ debe cumplir que es a lo
sumo numerable (porque cada conjunto {i ∈ I : ai ≥ n1 } debe ser finito).
Sumemos ahora en un normado E. Tomemos P una x = (xi )i∈ I ∈ E I y consideremos la red
de sumas finitas (xF )F∈PF (I) , donde cada xF = xi ∈ E. Es una red porque el orden en los
i∈ F
ı́ndices PF (I) dado por la inclusión es reductivo (ver A.6). Ahora decimos que
X def
la serie de x es convergente si existe xi = lı́m xF en E y con su norma .
F∈PF (I)
i∈ I
Como pasaba con las series comunes, cuando E es un Banach vale que
X X
si x = (xi )i∈ I ∈ E I y kxi k < ∞ =⇒ xi es convergente . (3.15)
i∈ I i∈ I
Con esto sale bien fácil que la red (xF )F∈PF (I) es de Cauchy en E, por lo que la serie de x
debe ser convergente.
En el caso numerable, no es lo mismo ser convergente en un orden prefijado para I (que
transforma x en una sucesión) que serlo en el sentido de arriba, porque a la definición que
dimos no le interesa ningún orden para I (ver el Ejer. 3 de abajo). Es un hecho conocido,
aunque no lo probaremos, que la x es convergente ⇐⇒ la serie de sus normas es finita. La
idea es pensar la medida de contar en la σ-álgebra P(I) del conjunto I. Luego las funciones
x “sumables” son lo mismo que las “integrables”, y deben serlo en módulo. Finalizamos esta
presentación con una “serie” de ejercicos fáciles pero necesarios: 4
Ejercicio 3.4.2. Sea E un EN y asumamos P que las series
P de las familias x = (xi )i∈ I and
y = (yi )i∈ I ∈ E I son ambas convergentes: xi = x and yi = y. Luego vale que
i∈I i∈I
P
1. La serie xi + yi es convergente, con suma x + y.
i∈I
P
2. Para cualquier λ ∈ K, queda convergente la serie λ · xi = λ · x.
i∈I
91
P
3. Si σ : I → I es biyectiva, la serie i∈I xσ(i) también converge a x.
4. Si J ⊆ I y E era un Banach, entonces valen dos cosas:
P
(a) La subserie xi también converge.
i∈J
P P
(b) Lo mismo pasa con la otra mitad, y se tiene que x = xi + xi .
i∈J i∈I\J
Se pide que E sea Banach porque lo único que se puede probar es que las redes involu-
cradas son de Cauchy. Contraejemplificar si E no es EB (sale con sucesiones).
P P
5. Si F es otro EN y T ∈ L(E, F ), entonces T xi = T xi .
i∈I i∈I
P
6. Si E era un EH y z ∈ H, entonces la serie hxi , zi converge hacia hx , zi.
i∈I
P
7. Si pasara que E = C, también convergen los conjugados: xi = x. 4
i∈I
dotado del PI dado por una serie que ahora veremos que converge:
X
xi yi , para x = (xi )i∈ I , y = (yi )i∈ I ∈ `2 (I) ,
x, y =
i∈I
1/2
|xi |2
P
resulta ser un espacio de Hilbert, al que le queda la norma kxk2 = .
i∈I
Verifiquemos todo lo que hemos dicho: Si x ∈ `2 (I), es claro que lo que definimos como su
norma kxk2 < ∞. Notemos por xF a la truncación xF = (xi )i∈ F ∈ K|F| , y lo mismo para y,
para cada F ∈ PF (I). Por Cauchy-Schwarz en los Kn vale que
X
|xi | |yi | ≤ kxF k2 kyF k2 ≤ kxk2 kyk2 .
i∈ F
Esto prueba que la serie que define al hx , yi es absolutamente convergente y por ello converge
a un número de K, para todo par x , y ∈ `2 (I). De paso, esto sirve para probar que `2 (I)
es un K-EV (cada |xi + yi |2 ≤ |xi |2 + |yi |2 + 2|xi | |yi | ). Por el Ejer. 3.4.2, sabiendo que las
series que definen al candidato a PI siempre convergen, sale que es lo que tiene que ser:
sesquilineal, simétrico y positivo. Con esto ya sabemos que `2 (I) es un EPH, con el PI y la
norma definidos arriba. La completitud sale ası́:
Dada una {x(n) }n∈N de Cauchy en `2 (I), es fácil ver que podemos definir un candidato
(n)
x = (xi )i∈ I dado por xi = lı́m xi ∈K, para cada i∈I.
n→∞
92
(n)
Por si no quedó claro, cada término de la sucesión de Cauchy es un x(n) = (xi )i∈I ∈ `2 (I) .
Observar que, como la norma 2 acota el tamaño de las entradas, podemos usar que al fijar
(n)
cada i ∈ I, la sucesión numérica {xi }n∈N es de Cauchy en K y tomar su lı́mite.
Dado ε > 0, sea n0 ∈ N tal que kx(n) − x(m) k2 < ε si n, m ≥ n0 . Luego, para cada cacho
finito F ∈ PF (I) y cada n ≥ n0 fijos, podemos ver que
(n) (m) (n)
|xi − xi |2 = lı́m − xi |2 ≤ sup kx(n) − x(m) k22 ≤ ε2 .
P P
|xi
i∈ F m→∞ i∈ F m≥n0
Tomando supremo en PF (I) queda que kx−x(n) k2 ≤ ε, por lo que x ∈ `2 (I) y la convergencia
es en esa norma. Hemos llegado a que `2 (I) es un Hilbert de ley. 4
Ejercicio 3.4.4.
Q Si en el ejemplo anterior las familias x = (xi )i∈ I viven en el producto
cartesiano P = Hi de sendos Hilbert’s (Hi , h· , ·ii ), podemos definir una especie de `2 :
i∈I
M X
kxi k2i < ∞
Hi = x∈P: ,
i∈I i∈I
L
con el PI y la norma definidos por: Dados x = (xi )i∈ I , y = (yi )i∈ I ∈ Hi , se hace
i∈I
X X 1/2
hx , y = hxi , yi ii y kxk = kxi k2i .
i∈I i∈I
L P
Con éstos atributos Hi es un EH. Una forma de probarlo es definir ese PI en Hi (las
i∈I i∈I
familias con solporte finito), y luego completar. La otra es hacer la misma cuenta de arriba,
pero adaptada a los objetos
L de este caso. El ejercicio es hacer ambas cosas. La idea es que
el viejo espacio `2 (I) = K es un caso particular.
i∈I
L
Los nombres son: Hi es el producto Hilbertiano de los Hi , y si uno repite los espacios
i∈I
se obtienen tres notaciones usuales
M L
H = H I = `2 (I) ⊗ H = `2 (I , H) ,
i∈I
93
3.5 Bases ortonormales.
Antes de usar todo el armamento de la sección anterior para ver qué lo que hacen las BON’s
de un Hilbert, veamos que siempre hay muchas de ellas.
Proposición 3.5.1. Sea H un EH. Si B1 = {vi : i ∈ J} ⊆ H es un SON, siempre existe otro
B2 = {vj : j ∈ L} ⊆ H que lo completa a una BON de H. Es decir que
Demostración. Esto sale Zorneando. Es bien fácil ver que el conjunto de extensiones
Z = C ⊆ H : C es un SON y B1 ⊆ C ,
ordenado por inclusión, cumple lo de las cadenas con supremos (la unión). Pero si B es un
maximal de Z tiene que ser una BON de H. En efecto, si no lo fuera, uno podrı́a tomar el
subespacio S = span {B} 6= H y sabrı́a, por la Prop. 3.2.5, que S ⊥ 6= {0}. Luego le podrı́a
agregar a B un vector unitario de S ⊥ y quedarı́a un SON más grande. Ası́ que B serı́a minga
maximal. Teniendo ahora la BON B tal que B1 ⊆ B, basta tomar B2 = B \ B1 .
Veamos ahora cómo se generalizan las Ec’s. (3.13) y (3.14): Dado un S v H caracterizare-
mos completamente al proyector PS , siempre y cuando tengamos una BON para S: Antes
hagamos un lema donde se testea que todas las series que se necesiten van a converger bien:
Lema 3.5.2. Sea H un EH y sea B = {vi : i ∈ I} ⊆ H un SON. Denotemos como
S = span {B} v H. Enotnces se tienen las siguientes propiedades:
Para toda familia de coeficientes a = (ai )i∈ I ∈ `2 (I), podemos asegurar que la serie
1. P
i∈I ai vi converge (con la norma de H) a un za ∈ S que además cumple
94
Si fijamos un j ∈ I y llamamos Bj = {vi : i 6= j}, el hecho de que B sea SON asegura que
Demostración. Para ver la igualdad (3.18), fijemos x ∈ H. Combinando los items 1 y 2 del
Lema 3.5.2 podemos deducir que la serie
def
X (3.17)
z = hx , vi i vi ∈ S y que hz , vi i = hx , vi i para todo i ∈ I .
i∈I
Esto sale usando que Φ preserva normas, o sea que hΦ x , Φ xiK = hx , xiH para todo x ∈ H.
Para generalizarlo a (3.20) basta usar polarización (3.2). El hecho de que Φ preserve el PI
tiene numerosas consecuencias, como por ejemplo que Φ(S ⊥ ) = Φ(S)⊥ para todo S v H.
Pero la mejor es que Φ manda SON’s de H en SON’s de K. Mejor aún:
95
si B es una BON de H , entonces Φ(B) es otra BON de K .
En efecto, que B sea SON significa que hx, yi = δxy para todo par x, y ∈ B. Y por la
iyectividad de Φ + la Ec. (3.20), eso lo siguen cumpliendo los elementos de Φ(B). Pero
siendo SON, el hecho de que B sea BON equivale a que span {B}sea denso. Y al ser Φ un
hómeo lineal, nos queda que también span {Φ(B) } = Φ span {B} es denso, ahora en K. 4
Ahora sı́ un re-teorema donde decimos todo lo que pasa con una BON:
Teorema 3.5.5. Sea H un EH y sea B = {vi : i ∈ I} ⊆ H una BON de H. Luego:
hx , vi i 2 , para todo x ∈ H .
X
kxk2 = (3.22)
i∈I
es un iso isométrico sobre, que además respeta los productos internos, o sea que
Demostración. Los primeros tres items son una versión en detalle del item 4. Empecemos
por él: Como B es una BON, es en particular un SON y podemos aplicar la Prop. 3.5.3,
pero asumiendo que S = span {B} es ahora todo H. El operador Φ está bien definido por el
Lema 3.5.2 y es acotado por la Ec. (3.19). Además, aplicando la Ec. (3.17), podemos definir
X
Ψ ∈ L(`2 (I), H) por Ψ(a) = za = ai vi ∈ H para a = (ai )i∈ I ∈ `2 (I) ,
i∈I
96
que queda isométrica. Más aún, la Ec. (3.18) dice que Ψ ◦ Φ = PH = IH , mientras que los
PI’es de la Ec. (3.17) muestran que Φ ◦ Ψ = I`2 (I) . Esto prueba que Φ es un isomorfismo
isométrico con la inversa anunciada. Por lo tanto la igualdad (3.24) sale por la Ec. (3.20).
Ahora podemos traducir: La Ec. (3.21) significa que Ψ ◦ Φ = IH , la Ec. (3.22) que Φ es
isométrica y (3.23) es lo mismo que (3.24).
Corolario 3.5.6. Sean H y K dos Hilbert’s.
1. Dos BON’s del mismo H tienen que tener el mismo cardinal.
2. Dadas BH una BON de H y BK una BON de K, vale que
H∼= K (isométricamente isomorfos) ⇐⇒ |BH | = |BK | . (3.25)
La simetrı́a es evidente, por lo que de ahı́ sale que |J| = |I| como afirmábamos.
El ⇐= de (3.25) es consecuencia del Teo. 3.5.5 pasando por un `2 (I), donde I es un conjunto
Φ
del cardinal de las dos bases. Si H ∼
= K, entonces |BH | = |Φ(BH )| = |BK |. La última igualdad
se debe a que Φ(BH ) es otra BON de K por la Obs. 3.5.4.
Definición 3.5.7. Sea H un EH. Diremos que la dimensión Hilbertiana de H es el número
cardinal dim H = |B|, donde B es cualquier BON de H. 4
Observación 3.5.8. El corolario anterior ahora se lee ası́: H ∼= K ⇐⇒ dim H = dim K.
Por otra parte tenemos modelos standard para todos los Hilberts: Si H es un EH e I es un
conjunto tal que |I| = dim H, entonces H ∼
= `2 (I) vı́a tomas coordenadas (o coeficientes) en
una BON fija de H. Eso es lo que dice el Teo. 3.5.5. 4
Corolario 3.5.9. Si tenemos dos espacios de Hilbert H y K que son infinitodimensionales
pero separables, entonces ellos son isométricamente isomorfos: H ∼
=K∼
= `2 (N).
Demostración. Basta ver que si H es separable entonces dim H ≤ ℵ0 . La prueba sale usan-
do la misma BON que se usa para calcular la dim H. En efecto, dados u, v ∈ B, entonces
podemos calcular que ku − vk2 = 2(1 − δuv ) . Ası́ que no valen BON’s no numerables si uno
asume separabilidad.
97
3.6 Stone-Weierstrass
Sea (X, τ ) un ET compacto Hausdorff. Estudiaremos el álgebra C(X) con su k · k∞ . Más
precisamente, buscamos condiciones sobre una subálgebra A ⊆ C(X) para que sea uni-
formemente densa en C(X). Todo empezó con el Teor. de Weierstrass de 1895 que
mostraba que los polinomios lo son en CR [a, b]. Con las décadas aparecieron numerosos re-
sultados semejantes, hasta que Stone probó en 1948 la versión más conspicua, que incluye
a las que habı́a hasta entonces, y quedó ahı́. Eso daremos ahora. Las cuentas se harán en
CR (X), y al final veremos qué hace falta para que caminen también en el caso complejo.
Sirve el caso real, porque se usan los siguientes conceptos: Dadas f, g ∈ CR (X), definimos
f ∨ g(x) = máx{f (x) , g(x)} y f ∧ g(x) = mı́n{f (x) , g(x)} , para cada x∈X .
Es claro que tanto el máximo f ∨ g como el mı́nimo f ∧ g siguen en CR (X) (sale fácil con
redes). Diremos que un A ⊆ CR (X) es cerrado por minimax si cumple que
Lema 3.6.1. Sea (X, τ ) un ET compacto Hausdorff. Sea A ⊆ CR (X) un subespacio cerrado
por minimax. Si f ∈ CR (X) cumple que para todo par x, y ∈ X existe una
(fn )n∈ N en A tal que fn (x) −−−→ f (x) y fn (y) −−−→ f (y) ,
n→∞ n→∞
k·k∞
entonces se tiene que f ∈ A , o sea kf − gn k∞ −−−→ 0 para alguna (gn )n∈ N de A.
n→∞
Demostración. Fijemos un ε > 0. Para cada par x, y ∈ X existe una fxy ∈ A tal que el
número máx{|f (x) − fxy (x)| , |f (y) − fxy (y)|} < ε. Sean
Uxy = {z ∈ X : f (z) − fxy (z) < ε} y Vxy = {z ∈ X : fxy (z) − f (z) < ε} .
Observar que ambos son abiertos, y que x, y ∈ Uxy ∩ Vxy . Fijando S x y moviendo y, los Uxy
tales que X = k∈In Uxyk . Como A era
cubren a X. Por la compacidad, existen y1 , . . . , yn W
cerrada por minimax, tenemos que el máximo fx = k∈In fxyk ∈ A. Esta fx cumple que
98
Demostración. Observar que se pueden obtener los máximos y mı́nimos con este curro:
f + g + |f − g| f + g − |f − g|
f ∨g = y f ∧g = .
2 2
Luego, para ver que A es cerrada por minimax, alcanzarı́a mostrar que es cerrada por “tomar
módulos”. Pero si f ∈ A, tenemos que |f | = (f 2 )1/2 . Como A era subálgebra, f 2 ∈ A. Ası́
que lo que hay que probar es que si 0 ≤ g ∈ A, entonces g 1/2 ∈ A. Esto se hace extrapolando
un curro de Análisis I. Veamos.
Dado un ε > 0, tomemos la función h : [0, 1] → R dada por h(t) = (t + ε2 )1/2 , t ∈ [0, 1]. Esta
h tiene un desarrollo en serie de potencias que le converge uniformemente en el intervalo
[0, 1]. Para ello basta desarrollar en el punto medio t = 1/2. Esto da un caso particular de
Weierstrass, o sea que existe un polinomio P ∈ R[x] tal que kh − P k∞ < ε (en el [0, 1]). En
particular vale que |P (0)| < 2 ε. Luego Q = P − P (0) ∈ R[x] también aproxima. Pero tiene
la ventaja de que, al no tener término constante, cumple que Q(g) ∈ A para toda g ∈ A.
Fijemos ahora una 0 ≤ g ∈ A con kgk∞ ≤ 1, por lo que g(X) ⊆ [0, 1]. Entonces,
kQ(g) − g 1/2 k∞ = sup P (g(x) ) − P (0) − g(x)1/2 ≤ sup P (t) − P (0) − t1/2
x∈X x∈[0,1]
≤ 2ε + sup [P (t) − h(t)] − [h(t) − t1/2 ]
x∈[0,1]
≤ 3ε + sup (t + ε2 )1/2 − t1/2 ≤ 4ε .
x∈[0,1]
Achicando con constantes y usando que A es k · k∞ -cerrada, sale que A es cerrada por tomar
raı́ces cuadaras. Por todo lo anterior, también para minimax.
Teorema 3.6.3 (Stone-Weierstrass). Sea (X, τ ) un ET compacto Hausdorff. Si tenemos
una subálgebra A ⊆ C(X) que cumple las siguientes condiciones:
1. Es cerrada por tomar conjugación (f ∈ A =⇒ f ∈ A).
99
es cerrada y tomar lı́mites no le agrega nada. Fijemos entonces una f ∈ CR (X) y tomemos
x, y en X tales que f (x) 6= f (y) (sinó “toco” a f en x e y con la función f (x) 1 ∈ B). Como
B separa puntos, existe una g ∈ B tal que g(x) 6= g(y). Cambiando g por λ g ∈ B (λ ∈ R),
podemos asumir que g(x) − g(y) = f (x) − f (y). Luego
h = g + f (x) − g(x) 1 ∈ B cumple que h(x) = f (x) y h(y) = f (y) .
En resumen, hay funciones de B que tocan (más que aproximan) a f en cualquier par de
puntos. Por el Lema 3.6.1 llegamos a que CR (X) = B por lo que A es densa en C(X).
Corolario 3.6.4. Sea (X, τ ) un ET que es LKH. Sea A ⊆ C0 (X) una subálgebra que cumple
las siguientes condiciones:
100
A(D) ⊆ C(B) el álgebra de las f ∈ C(B) que son holomorfas en D. Es sabido (y fácil de
probar) que A(D) es cerrada para la k·k∞ , aunque separa puntos y tiene a las constantes. De
hecho, A(D) es la clausura del álgebra de polinomios C[z] que también cumple aquello, pero
no llega a ser densa en todo C(B). Lo que les falta es z. Por ello, como antes la subálgebra
que sirve para C(B) es C[z, z]. 4
Por ello, la serie tradicional de Fourier se expresa en términos de las funciones armónicas
sen nt y cos nt. Para cada f ∈ L2 (T), sus coeficientes de Fourier están dados por
Z 2π
1
f (n) = hf , en i =
b f (eit ) e−int dt para cada n ∈ Z . (3.26)
2π 0
Reemplazando f por em , para otro m ∈ Z, y usando que las primitivas de ei(m−n)t valen lo
mismo en 0 que en 2π siempre que m 6= n, llegamos fácilmente a que F = {en : n ∈ Z} es
un SON dentro de L2 (T). Cuando veamos que F es una BON de de L2 (T), sabremos que
X X
f= fb (n) en y kf k2 = |fb (n)|2 para toda f ∈ L2 (T) . (3.27)
n∈Z n∈Z
Esto serı́a la Ec. (3.21) y la Ec. (3.22) en este caso, y se llaman igualdades de Bessel y
de Parseval. Si tomamos el subespacio P = span {F}, como z −1 = z para todo z ∈ T,
101
podemos notar de inmediato que resulta ser ni más ni menos que el conjunto de polinomios
P = {P (z , z) : P ∈ C[x, y]}. Más aún, por como z z ≡ 1 en T nos queda que
n
k
P
P = f (z) = αk z : n ∈ N y αk ∈ C , −n ≤ k ≤ n .
k=−n
102
3.7.4. La transformación L2 (T) 3 f 7−→ fb ∈ `2 (Z) se llama la transformada de Fourier
(discreta). Es un hecho general que esta transformada es un isomorfismo isometrico. En
nuestro caso eso sale directamente por el Teo. 3.5.5. Se la puede definir también, siguiendo
la fórmula (3.26), para funciones de Lp (T), porque las en están en todos los Lq (T).
Uno de los problemas iniciáticos de lo que hoy se llama análisis armónico fue el estudio de
n
fb (k) ek a la f original, de acuerdo al Lp (T) en el que
P
cómo converge la serie de Fourier
k=−n
esté la f . En los años 60 se pudo probar que cuando p > 1 hay convergencia en c.t.p. (eso no
lo probamos nosotros ni para p = 2, aún ahı́ es un teoremazo del 67 de Carlesson). Mucho
antes Kolmogorov habı́a mostrado que no hay tal convergencia para todas las f ∈ L1 (T). 4
103
3.8 Ejercicios del Cap. 3 - Espacio de Hibert
Ejercicios aparecidos en el texto
3.8.1 (Fórmulas con un PI). Sea H , h· , ·i un K-EV con un semi PI asociado.
2. Mostrar que la forma sesquilineal se puede recuperar de la cuadrática con la so called “identidad de
polarización”. Tiene dos versiones: Dados x, y ∈ H, si estamos con K = C,
3
X
ik kx + ik yk2 = kx + yk2 − kx − yk2 + i kx + iyk2 − kx − iyk2 ,
4 hx , yi = (3.29)
k=0
P
2
= 2n kxk k2
P P
εk xk
ε∈An k∈In k∈In
para toda n-unpla x1 , . . . , xn en H. Observar que para n = 2 queda (3.31) dos veces. 4
3.8.2. Sea H un EPH. Dado A ⊆ H denotábamos A⊥ = {y ∈ H : x ⊥ y para todo x ∈ A}. Probar que la
flecha A 7→ A⊥ cumple las siguientes propiedades: Para todo A ⊆ H, se cumple que
104
P
1. La serie xi + yi es convergente, con suma x + y.
i∈I
P
2. Para cualquier λ ∈ K, queda convergente la serie λ · xi = λ · x.
i∈I
P
3. Si σ : I → I es biyectiva, la serie xσ(i) también converge a x.
i∈J
P P
5. Si F es otro EN y T ∈ L(E, F ), entonces T xi = T xi .
i∈I i∈I
P
6. Si E era un EH y z ∈ H, entonces la serie hxi , zi converge hacia hx , zi.
i∈I
P
7. Si pasara que E = K, también convergen los conjugados: xi = x. 4
i∈I
Q
3.8.7. Consideremos el producto cartesiano P = Hi de sendos Hilbert’s (Hi , h· , ·ii ), cuyos elementos son
i∈I
las familias x = (xi )i∈ I ∈ P. Definamos el espacio
M def
X
kxi k2i < ∞
Hi = x∈P: ,
i∈I i∈I
L
con el PI y la norma definidos por: Dados x = (xi )i∈ I , y = (yi )i∈ I ∈ Hi , se hace
i∈I
X X 1/2
hx , y = hxi , yi ii y kxk = kxi k2i .
i∈I i∈I
L P
Probar que, con éstos atributos, Hi es un EH. Una forma de probarlo es definir ese PI en Hi (las
i∈I i∈I
familias con solporte finito), y luego completar. La otra es hacer la misma cuenta del Ejem. 3.4.3, pero
adaptada a los objetos de este caso. El ejercicio es hacer ambas cosas. Probar admás que
L
1. Cada uno de los Hj se puede incrustrar adentro del porducto Hi poniendo ceros en las otras
i∈I
entradas.
L
2. Eso queda lineal e isométrico y se hace la identificación usual Hj v Hi .
i∈I
L L
3. También vale que Hi v Hi siempre que J ⊆ I.
i∈J i∈I
4. Observar que esta identificación no se podı́a hacer en productos de espacios no vectoriales porque no
hay “ceros” para elegir en las coordenadas que faltan. 4
3.8.8. Probar que las continuas de C(T) son k · k2 -densas en el espacio L2 (T).
105
Ejercicios nuevos
3.8.9. Sea B : H × K → C una forma sesquilineal (no necesariamente simétrica ni positiva), donde H y K
son dos C-EV’s cualesquiera. Probar que vale la fórmula de polarización:
3
X
4 B(x , y) = ik B(x + ik y , x + ik y) para todo par (x , y) ∈ H × K . (3.32)
k=0
3. El PI: h(x, y), (u, v)i = hx, ui + hy, vi + i hy, ui − i hx, vi.
3.8.11. 1. Sea E un EN. Probar que existe un producto escalar que induce la norma de E (y que hace
de E un EPH) si y sólo si k k verifica la identidad del paralelogramo:
3.8.13. Probar que el conjunto { xn : n ∈ N0 } es LI y genera un subespacio denso en el EH real L2 [−1, 1].
Probar que su ortogonalización de Gram-Schmidt {en }n∈N0 satisface que
2n + 1 1/2 1 d n 2
en (x) = Pn (x) donde Pn (x) = (x − 1)n
2 2n n! dx
son los polinomios de Legendre. Lo de arriba vale para todo n ∈ N0 y todo x ∈ [−1 , 1].
3.8.14. En (R2 , k k∞ ), K = {(0, t) : −1 ≤ t ≤ 1} es un convexo cerrado. Si h = ( 12 , 1), probar que existen
infinitos k ∈ K tales que kh − kk = d(h, K). ¿Qué hipótesis del Teorema de proyección sobre un convexo
cerrado no se cumple?
3.8.15. Supongamos que {e1 , e2 , e3 , . . .} es una base ortonormal de un espacio de Hilbert H y definamos S
del siguiente modo:
∞
( 2 )
X 1 2
S= y∈H: 1+ | hy, en i | ≤ 1 .
n=1
n
Probar que S es un conjunto convexo acotado y cerrado que no posee un elemento con norma máxima. 4
106
1. Si B = {vi : i ∈ I} es una BON de H, entonces un
def
AU (A) = { y ∈ A : Uy = y para todo U ∈ U (A) } =
6 ∅. 4
3.8.17. Sea H un EH. Fijemos S , M v H tales que dim S < ∞ y que dim S < dim M. Probar que con
esas condiciones debe cumplirse que S ⊥ ∩ M =
6 {0}. 4
3.8.18. El “cubo de Hilbert” de `2 (N) es el conjunto
1
⊆ `2 (N) .
Q= x = (xn )n∈ N ∈ CN : |xn | ≤ para todo n∈N
n
Probar que Q es convexo y compacto (con la norma). Realizar a Q = T (BE ) para ciero T ∈ L(E , `2 ) donde
E es algún EB. De paso calcular kT k. 4
3.8.19 (Repaso del texto). Sea H un EH. Dado S v H un subespacio propio, probar que
2. Se tiene que S ⊥ v H y S ⊕ S ⊥ = H.
3.8.20. En `2 (N) sea S = {x ∈ `1 (N) : xn = 0}. Probar que S es un subespacio denso de `2 (N).
P
n∈N
Observar que si lo pensamos dentro de `1 (N), se tiene que S v `1 (N), porque S = ker ϕ1 .
3.8.21. Sea H un EH. Si {xn : n ∈ N} una BON de H y C = {yn : n ∈ N} es un SON en H que verifica
X
kxn − yn k2 < 1 =⇒ C era otra BON de H . 4
n∈N
3.8.22. Sea H un EH. Probar que si x ∈ H es unitario, entonces es un punto extremal de la bola unidad.
3.8.23. Sean µ y ν medidas positivas y finitas sobre un espacio (X, Σ) tales que ν << µ. Probar que
2. La funcional ϕ dada por L2 (µ) 3 f 7→ ϕ(f ) = X f dµ , no sólo esta bien definida sino que ϕ ∈ L2 (µ)∗ .
R
3. Si restringimos ϕ a L2 (µ + ν) queda más acotada que antes, al pensarla con la norma de L2 (µ + ν).
dν
¿Qué relación existe entre dµ y la función g ∈ L2 (µ + ν) que la realiza ahora? 4
107
Capı́tulo 4
Es importante remarcar que Gl (H) es un grupo con el producto de L(H). De hecho es mucho
más que eso. Más adelante veremos que Gl (H) es abierto en L(H).
4.1 El adjunto.
A los operadores de L(H1 , H2 ) se les puede aplicar la teorı́a de los adjuntos que vimos
en la seccón 2.6. Sin embargo, en vista del Teor. de Riesz 3.3.1, definiremos a los adjuntos
operando en los mismos EH’s y no en sus duales. Por simplicidad de la presentación, y porque
es el caso más importante, lo haremos en principio solo para endomorfismos de un L(H),
donde H es un EH con respecto al cuerpo C. Dejaremos como ejercicio la generalización al
caso de operadores en L(H1 , H2 ) con el cuerpo K.
Definición 4.1.1. Sea H un EH, y sea B : H×H → K una forma sesquilineal (FS). Diremos
que B es acotada (y B será una FSA) si existe una M ≥ 0 tal que
|B(x , y)| ≤ M kxk kyk para todo par x, y ∈ H .
La norma de B será la mejor tal constante: kBk = sup |B(x , y)|. Al espacio (normado)
x , y∈BH
de todas estas FSA’s lo denotaremos por Sq(H). 4
108
El siguiente resultado, conocido como el Teor. de Lax-Milgram, dice que como pasa en
dimensión finita donde las sesquilineales están dadas por una matriz (o sea un operador),
las B ∈ Sq(H) para un Hilbert H también se representan con un operador de L(H).
Proposición 4.1.2. Sea H un EH. La flecha L(H) 3 T 7→ BT ∈ Sq(H) dada por la fórmula
define un isomorfismo isométrico entre esos Banach’s. Es decir que toda sesquilineal acotada
en H proviene de un T ∈ L(H) (de la misma norma) vı́a el PI.
Demostración. La linealidad sale fácil. Para ver que es isométrica (en particular que es mono
y que cada BT es una FSA) basta recordar que para todo T ∈ L(H)
(3.12) def
kT k = sup |hT x , yi| = kBT k .
x , y ∈BH
Para mostrar que es epi, fijemos una B ∈ Sq(H). Para cada x ∈ H tenemos la funcional
que tiene norma no mayor que kBk kxk. Observar que cada funcional φx esputa bien los
escalares que multiplican al y porque se los conjuga dos veces. Por el Teor. de Riesz 3.3.1
debe existir un (único) vector que hábilmente llamaremos
No es otra cosa que la inyectividad de la flecha del Prop. 4.1.2. En particular dice que si
todos los hT x , yi = 0 entonces T = 0. Si K = C se puede mejorar esta condición: 4
Corolario 4.1.4. Sea H un EH. Se asume que K = C. Dados T , S ∈ L(H) se tiene que
109
Proof. Hace falta mejorar la polarización vista en (3.2): Dados x , y ∈ H, vale que
3
X
4 B(x , y) = ik B(x + ik y , x + ik y) para toda B ∈ Sq(H) . (4.4)
k=0
Es importante aclarar que no se asume que B sea simétrica como en (3.2). La Ec. (4.4) ya se
planteó en el Ejer. 3.8.9 con una ayuda más que suficiente, ası́ que la aceptaremos (también
vale hacer la cuenta, que sale). Poniendo B(x , y) = h (T − S) x , y i para todo par x , y ∈ H
vemos que usando (4.4) sale que (4.3) =⇒ (4.2) =⇒ S = T .
Observación 4.1.5. Observar que en cambio, la polarización real vista en (3.3) sı́ usa la
0 1
simetrı́a y no hay tu tı́a: La matriz ∈ L(R2 ) nos muestra que la Ec. (4.3) falla
−1 0
cuando K = R. ¿Porque no falla si a esa matriz la pensamos en L(C2 )? 4
Teorema 4.1.6. Sea H un EH. Para todo T ∈ L(H) existe un único T ∗ ∈ L(H) tal que
1. (T S)∗ = S ∗ T ∗ y (T ∗ )∗ = T .
2. kT ∗ k = kT k y kT ∗ T k = kT k2 .
Demostración. Dado T ∈ L(H), tomemos la B ∈ Sq(H) dada por B(x , y) = hx , T yi, para
cada par x , y ∈ H. El testeo de que efectivamente B ∈ Sq(H) con kBk ≤ kT k es directo.
Llamemos T ∗ ∈ L(H) el operador asociado a B que da el Teo. 4.1.2. Luego se tiene que
conjugar
hy , T xi = B(y , x) = hT ∗ y , xi =⇒ hT x , yi = hx , T ∗ yi para todo par x , y ∈ H .
Por otro lado, por la Ec. (4.5) sale que para todo par x , y ∈ H se tiene que
(4.2)
hT ∗∗ x , yi = hy , T ∗∗ xi = hT ∗ y , xi = hx , T ∗ yi = hT x , yi =⇒ T ∗∗ = T .
110
Deducimos que kT k2 ≤ kT ∗ T k ≤ kT ∗ k kT k (la última vale siempre con un producto). Esta
desigualdad implica las dos del item 2. Primero que kT k ≤ kT ∗ k (para todo T ∈ L(H) ),
por lo que también kT ∗ k ≤ kT ∗∗ k = kT k. Mirando arriba llegamos a que kT k2 = kT ∗ T k.
La antilinealidad es trivial y se deja como ejercicio para el lector obsesivo.
Observar que dados T ∈ L(H) y dos vectores x , y ∈ H, también vale que
hx , T yi = hT y , xi = hy , T ∗ xi = hT ∗ x , yi .
Ası́ que, al cambiar T por T ∗ , se lo puede pasar libremente hacia cualquiera de los dos lados
del PI. Usaremos esa herramienta hasta el cansancio en todo el texto. Otra cosa que se usará
sin más aclaraciones es que I ∗ = I. Si uno mira (4.5) no lo duda ni un segundo.
Proposición 4.1.7. Sea H un EH. Dado un T ∈ L(H) se tienen las siguientes igualdades:
⇐⇒ T ∗ x = 0 .
Luego R(T )⊥ = ker T ∗ . Aplicando esta igualdad a T ∗ ∈ L(H), nos queda que
3.2.7 ⊥
R(T ∗ )⊥ = ker T ∗∗ = ker T =⇒ R(T ∗ ) = R(T ∗ )⊥ = (ker T )⊥ .
En la Prop. 2.6.12 vimos el siguiente resultado para los viejos adjuntos que operaban en
los duales. Lo reprobamos ahora con las técnicas Hilbertianas para este contexto. Antes
def
adelantemos una notación: Llamaremos A(H) = {A ∈ L(H) : A∗ = A} (los autoadjuntos).
Corolario 4.1.8. Sean H un EH y T ∈ L(H). Las suguientes condiciones son equivalentes:
1. Nuestro T ∈ Gl (H).
2. Su adjunto T ∗ ∈ Gl (H).
Si todo esto pasa, vale que (T ∗ )−1 = (T −1 )∗ . O sea que invertir y adjuntar conmutan. Esto
dice, en particular que si T ∈ A(H) ∩ Gl (H) =⇒ T −1 ∈ A(H).
111
4.1.6
Demostración. Si T ∈ Gl (H) entonces T −1 T = I =⇒ T ∗ (T −1 )∗ = I ∗ = I. Análogamente
se ve que T T −1 = I =⇒ (T −1 )∗ T ∗ = I. O sea que (T −1 )∗ es el inverso de T ∗ . Si aplicamos
esto a T ∗ y asumimos que T ∗ ∈ Gl (H), como T ∗∗ = T ya tenemos que 1 ⇐⇒ 2.
Ya hemos visto que si T ∈ Gl (H) =⇒ T es AI. La cota inferior era kT −1 k−1 . En el mismo
lugar, la Ec. (2.25), vimos que AI ⇐⇒ mono y rango cerrado (se usa que H es completo).
Por lo tanto el tandem de 1 y 2 implica el de 3 ⇐⇒ 4.
Si ahora asumimos 4, tenemos que ker T ∗ = {0} y además que R(T ∗ ) = (ker T )⊥ = H,
porque también T era mono. Llegamos a que R(T ∗ ) es denso y cerrado. En resumen, ya
sabemos que T ∗ es mono + epi, o sea que T ∗ ∈ Gl (H).
Ejemplos 4.1.9.
1. Sea H = Cn con su PI tradicional. Fijemos B = {v1 , . . . , vn } una BON de Cn . A
cada T ∈ L(Cn ) se le asigna vı́a B una matriz A = [T ]B ∈ Mn (C) dada por
Esto hace que las coordenadas de T x sean el producto de matrices [T ]B [x]B , donde
[x]B es el vector columna de entradas hx , vj i, para j ∈ In . Observar que la columna
j-ésima de A tiene a los coeficientes de Fourier de T vj . Como uds. seguro ya saben,
la matriz B = [T ∗ ]B se calcula usando la de T : Basta hacer
O sea que al fijar una BON de Cn , el proceso de adjuntar un operador de L(Cn ) consiste
en transponer y conjugar su matriz.
En presencia de una BON “larga” de un Hilbert H cualquiera, se puede hacer la matriz
(infinita) igual que arriba, y opera bien el las columnas largas de coeficientes de los
x ∈ H. También sale que adjuntar es transponer y conjugar. Pero no es tan util como
en el caso finito, porque es difı́cil saber cuando una de esas supermatrices proviene o
no de un operador acotado. Más adelante veremos algunos criterios al respecto. Por
ejemplo el llamado “test de Schur” del Ejer. 4.7.21.
2. Sea ahora H = `2 y S, T ∈ L(`2 ) los shifs del Ejem. 1.8.1. Una cuenta directa muestra
que T = S ∗ . De hecho, de sus definiciones se desprende que
xn yn+1 para los x = (xn )n∈ N , y = (yn )n∈ N ∈ `2 .
P
hSx , yi = hx , T yi =
n∈N
Si miramos ahora los bilaterales U, V ∈ L(`2 (Z) ) definidos en la Obs. 3.7.3, es igual de
fácil ver que V = U ∗ . La suma es la misma de arriba, pero con n ∈ Z.
3. Sea ahora f ∈ L∞ (para X, Σ , µ fijos) y Mf ∈ L(L2 ) el operador de multiplicación
Mf g = f g para g ∈ L2 , definido en el Ejem. 1.8.2. Como los Mf son los análogos
a las matrices diagonales, era de esperar que Mf ∗ = Mf . La verificación es directa
mirando las integrales, ya que (f g) h = g( f h ).
112
4. En los operadores nucleares del Ejem. 1.8.3, si k(s, t) ∈ L2 (X × X) y tomamos el
nuclear Tk , entonces Tk ∗ = Tk∗ , donde k ∗ (s, t) = k(t, s) para s, t ∈ X. La prueba
no es más que aplicar un Fubini adecuado a funciones de L1 . Observar la analogı́a de
estas fórmulas con la idea de transponer y conjugar matrices.
A(H) = {T ∈ L(H) : T = T ∗ } ,
L(H)+ = {T ∈ L(H) : T ≥ 0} ,
4. Su interior es el conjunto Gl (H)+ de los estrictamente positivos (va como T > 0),
que son aquellos T ∈ L(H)+ tales que hT x , xi ≥ ckxk2 para cierto c > 0.
113
4.2.2. Sean H un EH sobre C y T ∈ L(H). Empecemos con los normales:
kT xk2 − kT ∗ xk2 = h T x , T xi − hT ∗ x , T ∗ xi = h (T ∗ T − T T ∗ ) x , xi
porque lo de la derecha ya sabemos que asegura que T ∈ A(H). Una fórmula semejante vale
también para chequear si T > 0. Usando esto salen fácil las afirmaciones de arriba de que
L(H)+ es un cono convexo y cerrado dentro de de A(H), y que Gl (H)+ es exactamente el
interior de L(H)+ . Hay una forma usual de exhibir positivos:
Como antes, esto se deduce de (4.3) y de que cada kU xk2 − kxk2 = h (U ∗ U − I) x , xi. Otra
caracterización, si bien es bastante obvia, es sumamente util en las aplicaciones:
114
Recordemos que, si H es un EH, llamábamos P(H) = {E ∈ L(H) : E 2 = E}. Ahora
caracterizaremos una subclase especial de P(H).
Proposición 4.2.3. Sean H un EH y P ∈ P(H). Llamemos S = R(P ) v H. Ahora
podemos agregar nuevas condiciones a la Ec. (3.10): Son equivalentes
1. P = PS , es decir que ker P = S ⊥ .
2. kP k = 1.
3. P ∈ L(H)+ .
4. P ∈ A(H), o sea que P ∗ = P .
5. P es normal.
Demostración. Vimos en la Ec. (3.10) que 1 ⇐⇒ 2. Si asumimos ahora que P = PS y me
dan cualquier x = y + z ∈ S ⊕ S ⊥ = H, entonces
(4.10)
hP x , xi = hy , y + zi = hy , yi ≥ 0 =⇒ P ∈ L(H)+ .
Hemos visto que L(H)+ ⊆ A(H) ⊆ los normales. Pero si P fuera normal, entonces la
Ec. (4.8) ya nos da que ker P = ker P ∗ = R(P )⊥ = S ⊥ . Y quedó todo enrrollado.
4.2.4. Es usual restrigir la palabra “proyector” para los de la Prop. 4.2.3. También se los
bate proyectores ortogonales o autoadjuntos. Hay una formulita abreviada para describirlos:
Un P ∈ L(H) es un tal proyector ⇐⇒ P = P ∗ P
(lo último incluye la info de que P 2 = P ) En adelante denotaremos por
P(H) = {P ∈ L(H) : P = P ∗ P } = {P ∈ P(H) : P = P ∗ } (4.15)
al espacio de todos los proyctores (autoadjuntos) de L(H). Observar que P(H) ⊆ BH y
que el conjunto P(H) está en correspondencia biunı́voca con la “Grasmanniana” de H, que
consta de todos los S v H.
Los E ∈ P(H) que sólo cumplen que E 2 = E se quedan con otros nombres. A veces les
diremos proyectores oblicuos. Otras idempotentes a secas. 4
4.2.5 (Partes real e imaginaria). Sean H un EH y T ∈ L(H). Denotaremos por
T + T∗ T − T∗
Re T = ∈ A(H) e Im T = ∈ A(H) . (4.16)
2 2i
Es fácil ver que ellos son los únicos A, B ∈ A(H) tales que T = A + i B.
Se suele decir que un C ∈ L(H) es antihermitiano si C ∗ = −C. Es fácil ver que el
conjunto de tales operadores coincide con i A(H), o sea que todo C antihermitiano cumple
que C = i B para algún B ∈ A(H). Lo que decı́amos arriba se expresa como que
L(H) = A(H) ⊕ i A(H) , (4.17)
y que T 7→ Re T y T 7→ i Im T son las dos proyecciones (R-lineales) asociadas. Observar
que ambas son contractivas, o sea que k Re T k ≤ kT k y lo mismo con las partes Im’s. 4
115
Ejercicio 4.2.6. Sea T ∈ L(H). Probar que
4.3 Positivos.
4.3.1. Venı́amos diciendo que L(H)+ es un cono cerrado dentro de A(H). Aclaremos y
usemos aquello. El conjunto L(H)+ cumple, dentro del R-EV ambiente A(H), que
Con todas esas propiedades es evidente que podemos definir el siguiente orden en A(H):
Esto es un orden (es antisimétrico, reflexivo y transitivo). Pero este orden no es total
(pensar en matrices 2 × 2) y ni siquiera es un reticulado (no siempre hay supremos e ı́nfimos,
ni siquiera de a dos operadores). Observar que, dados A, B ∈ A(H), se tiene que
Las mejores propiedades de este orden necesitan de la “raı́z cuadrada” positiva de los oper-
adores positivos, que veremos más adelante. Pero empecemos por lo más fácil: 4
Proposición 4.3.2. Sea H un EH. Dados A, B ∈ A(H) tales que A ≤ B, se tiene que
116
4. A ∈ Gl (H)+ ⇐⇒ A ≥ c I para cierto c > 0.
Demostración. Antes que nada, obervar que tanto T ∗ AT como T ∗ BT sigen estando en A(H)
(basta estrellarlos y ver). Ahora bien, dado un x ∈ H podemos hacer lo siguiente:
(4.20) (4.20)
hT ∗ AT x , xi = hA T x , T xi ≤ hB T x , T xi = hT ∗ BT x , xi =⇒ T ∗ AT ≤ T ∗ BT .
def
Si A ∈ L(H)+ , entonces la sesquilineal H2 3 (x, y) 7→ hx , yiA = hA x , yi es un semi PI.
Esto se deduce de la Ec. (4.10) y de que L(H)+ ⊆ A(H). Luego, si x, y ∈ BH , se tiene que
C−S C−S
|hA x , yi|2 = |hx , yiA |2 ≤ hA x , xi hA y , yi ≤ hB x , xi hB y , yi ≤ kBk2 .
Aplicando ahora la Ec. (3.12) del Cor. 3.3.3, podemos ver que
Eso claramente implica las desigualdades de (4.21). Una cuenta similar muestra 4.
El siguiente teorema es un adelanto del cálculo funcional continuo para operadores autoa-
juntos. Lo queremos dar antes, para poder aplicarlo a muchas propiedades más básicas de
L(H), porque el desarrollo de aquel cálculo requiere mucho más andamiaje teórico. Para
hacerlo de la nada, no nos queda otra que hacer un montón de cuentas. A apechugar.
Ejercicio 4.3.3 (Criterio de Dini). Sea f = (fn )n∈ N una sucesión en C[0, 1] que cumple:
1. Existe f ∈ C[0, 1] tal que fn (t) −−−→ f (t) para todo t ∈ [0, 1].
n→∞
2. La sucesión f es creciente: fn (t) ≤ fn+1 (t) para todo n ∈ N y todo t ∈ [0, 1].
Con esas hipótesis probar que la convergencia fn −−−→ f es uniforme en todo [0, 1]. 4
n→∞
Lema 4.3.4. Sea f ∈ C[0, 1] dada por f (t) = 1 − (1 − t)1/2 para t ∈ [0, 1]. Afirmamos que
existe una sucesión (qn )n∈N de polinomios tales que
117
t
Demostración. La sucesión se define inductivamente. Se empieza por q0 ≡ 0, q1 (t) = 2
,y
1
t + qn (t)2
qn+1 (t) = para t ∈ [0, 1] y n∈N. (4.22)
2
Inductivamente vemos que los coeficientes de los qn son no negativos y que en todos los
n ∈ N y todos los t ∈ [0, 1] vale que también qn (t) ∈ [0, 1]. Observar que
Luego vemos (inductivamente) que todas las diferencias qn+1 −qn también tienen coeficientes
no negativos (sumando, eso da el item 2). En particular, en cada t ∈ [0, 1], se tiene que la
sucesión (qn (t) )n∈N es creciente y acotada por 1, por lo que qn (t) −−−→ q(t) ∈ [0, 1].
n→∞
2
Pero por (4.22), los lı́mites cumplen la ecuación 2q(t) = t + q(t) . Luego
2
1 − t = q(t)2 − 2q(t) + 1 = 1 − q(t) =⇒ q(t) = 1 − (1 − t)1/2 = f (t)
para todo t ∈ [0, 1]. (la otra raı́z q(t) − 1 es negativa). O sea que tenemos convergencia
puntual. Pero al estar f y todas las qn en C[0, 1] y ser crecientes, el criterio de Dini visto en
el Ejer. 4.3.3 nos asegura que la convergencia qn −−−→ f es uniforme.
n→∞
118
donde los αk (n , m) son ciertos coeficientes (los que den la cuenta) todos no negativos (por
el item 2 del Lema 4.3.4) que terminan en algún M ∈ N. Entonces vemos que
M M
X
X
k
Sm − Sn
=
qm (S) − qn (S)
=
αk (n , m) S
≤ αk (n , m) kSkk < ε .
k=0 k=0
Luego Sn = qn (S) −−−→ R ∈ L(H)+ . Haciendo una cuenta como la de recién sale que
n→∞
(4.21)
kSn k = kqn (S)k ≤ qn ( kSk ) ≤ 1 para todo n ∈ N =⇒ kRk ≤ 1 =⇒ 0 ≤ R ≤ I .
(4.22)
Nuestro candidato a raı́z de A es I − R ∈ L(H)+ . Como qn (t)2 = 2 qn+1 (t) − t, entonces
2
(I − R)2 = lı́m I − Sn = lı́m I − 2 qn (S) + qn (S)2
n→∞ n→∞
(4.22)
= lı́m I − 2 qn (S) + 2 qn+1 (S) − S
n→∞
= I − S + 2 lı́m Sn+1 − Sn = I − S = A .
n→∞
Luego podemos tomar A1/2 = I −R ∈ L(H)+ y tenemos al menos una raı́z cuadrada positiva
para A. Observar que, en tanto lı́mite de polinomios evaluados en A, nuestro A1/2 cumple
la condición (4.23) sin problemas (en la Obs. 4.3.7 se ve bien de qué polinomios se trata).
Tomemos ahora otra B ∈ L(H)+ tal que B 2 = A. Por (4.23), esta B (como conmuta con su
cuadrado, que es A) conmuta con A1/2 . Entonces hagamos esta cuenta:
(A1/2 − B)(A1/2 + B) x = (A − B 2 ) x = 0 para todo x∈H.
def
Eso dice que (A1/2 − B) y = 0 para todo y ∈ S = R(A1/2 + B). Ya sabemos que en el
subespacio S, las dos raı́ces A1/2 y B coinciden. Veamos que pasa en S ⊥ = ker(A1/2 + B).
El tema es que allı́ ambas se anulan. Mostrémoslo para B:
0 ≤ hB z , zi ≤ h(A1/2 + B) z , zi = 0 para todo z ∈ S⊥ .
Como ya hemos probado que algún B 1/2 existe (no olvidar que B ∈ L(H)+ ), vemos que
kB 1/2 zk2 = hB 1/2 z , B 1/2 zi = hB z , zi = 0 =⇒ B 1/2 z = 0 para esos z .
1/2 1/2 ⊥
B z = B (B z) = 0 para z ∈ S . La misma cuenta se puede hacer para
Por lo tanto ver
que A S ⊥ ≡ 0. Después de todo este laburo podemos afirmar (usando que S ⊕ S ⊥ = H)
1/2
119
Observación 4.3.7. Mantengamos las notaciones de los resultados anteriores sobre la raı́z
cuadrada. Si tenemos un A ∈ L(H)+ tal que 0 ≤ A ≤ I, los polinomios que convergen hacia
su raı́z A1/2 son, rastreando las cuentas del Teo. 4.3.6, los siguientes:
k · k∞
pn (t) = 1 − qn (1 − t) −−−→ t1/2 uiformemente en [0, 1] .
n→∞
pn (A) −−−→ A1/2 para todo A ∈ L(H)+ tal que 0≤A≤I . (4.25)
n→∞
0 = hA x , xi = hB ∗ B x , xi = hB x , B xi = kB xk2 =⇒ Ax = B ∗ (B x) = 0 .
1. El producto AC ∈ A(H).
Ahora vamos a justificar la notación de Gl (H)+ para los estrictamente positivos. Antes
podemos refrasear su definición: Un A ∈ Gl (H)+ ⇐⇒ A ≥ c I para cierto c > 0.
Proposición 4.3.10. Sea H un EH. Luego Gl (H)+ = L(H)+ ∩ Gl (H). O sea que los
estrictamente positivos son los positivos inversibles. Además, si A ∈ Gl (H)+ vale que
1. A−1 ∈ Gl (H)+ .
120
def
2. A1/2 ∈ Gl (H)+ y su (A1/2 )−1 = (A−1 )1/2 = A−1/2 .
Sea ahora A ∈ L(H)+ ∩ Gl (H). Notar que la igualdad A = A1/2 A1/2 dice que
En particular existe una b > 0 tal que bkxk ≤ kA1/2 xk para todo x ∈ H (se puede tomar la
constante b = k(A1/2 )−1 k−1 ). Luego
Probado el item 1, se lo podemos aplicar a A1/2 ∈ Gl (H)+ . Nos queda que su inverso
B = (A1/2 )−1 ∈ Gl (H)+ . Por otro lado, la igualdad A−1 = B 2 significa (usando la unicidad
del Teo. 4.3.6) que (A1/2 )−1 = B = (A−1 )1/2 . Desde ahora será A−1/2 .
Agarremos ahora un C ≥ I. Aplicando la Prop. 4.3.2 tenemos que
como se aseveraba.
Observación 4.3.11. La notación A > 0 es polémica. Bien podrı́a haberse definido la
noción de estrictamente positivo como que hA x , xi > 0 para todo x 6= 0. Cabe destacar que
esto no equivale a que A ∈ Gl (H)+ . Al menos cuando dim H = ∞. Por ejemplo, podemos
tomar el operador diagonal Mx ∈ L(`2 ) dado por la sucesión x = ( n1 )n∈N ∈ `∞ . Luego
X yn X |yn |2
hMx y , yi = yn = > 0 para todo y = (yn )n∈ N ∈ `2 \ {0} .
n∈N
n n∈N
n
Sin embargo Mx ∈/ Gl (H) porque Mx en = enn para todo n ∈ N, por lo que el operador Mx
no puede ser AI y menos inversible. De hecho hMx en , en i = n1 −−−→ 0 y no está acotado
n→∞
121
desde abajo por ninguna c > 0. Nosotros elegimos que los re-positivos sean los inversibles,
y estos otros serán muy positivos, pero no estrictamente.
Una razón alternativa es que el interior de L(H)+ es solo Gl (H)+ , y estos muy positivos igual
quedan en el borde de L(H)+ . En el ejemplo anterior es claro que Mx − m1 I −−−→ Mx , o
m→∞
sea que a Mx le converge una sucesión desde afuera de L(H)+ .
Recordemos que, como siempre, esta disyuntiva desaparece si dim H < ∞. Esto es ası́ porque
la cáscara de la bola SH = {x ∈ H : kxk = 1} es compacta en ese caso. Luego, si nunca se
anulan ahı́, los productos hA x , xi deben quedar acotados desde abajo. 4
Ejercicio 4.3.12. Sea H un EH. Probar que el orden ≤ de A(H), restringido al conjunto
P(H) de los proyectores, ahı́ sı́ produce un reticulado (con sup e ı́nf de a muchos). Más
especı́ficamente, dados P, Q ∈ P(H) con R(P ) = S y R(Q) = M, entonces son equivalentes
1. P ≤ Q
2. S ⊆ M
3. P Q = QP = P
def
4. Q − P ∈ P(H) (y proyecta sobre M S = M ∩ (S ∩ M)⊥ ).
Luego el orden de P(H) coincide con el de la inclusión entre los S v H. Y estos subespacios
cerrados tienen sup e ı́nf (aún de familias infinitas) sin dramas.
Sugerimos usar que, vı́a Pitágoras, x ∈ M ⇐⇒ kxk2 = kQ xk2 . 4
Luego es natural pensar que se los puede relacionar usando algún tipo de isometrı́a entre
sus imágenes. Esa es la idea de la descomposición polar. Antes de presentarla en sociedad
necesitamos estudiar mejor las isometrı́as parciales que serán un ingrediente clave:
122
4.4.2 (Isometrı́as parciales). Sea H un EH. Dado un U ∈ L(H), decı́amos que U es isometrı́a
parcial (I P) si P = U ∗ U ∈ P(H) (o sea que es un proyector). Llamemos S = R(P ) v H.
Veremos que en tal caso U se comporta de la siguiente manera:
U S : S → U (S) es isométrico , mientras que U S ⊥ ≡ 0 . (4.29)
En efecto, si recordamos que U ∗ U = P = PS , entonces vemos que
kU zk2 = hU z , U zi = hP z , zi para todo z∈H.
Si el z ∈ S = R(P ), entonces tenemos que kU zk2 = hP z , zi = hz , zi = kzk2 . En cambio,
si z ∈ S ⊥ = ker P , lo de arriba implica que U z = 0. Observar que (4.29) implica que
ker U = S ⊥ y que R(U ) = U (S) v H . (4.30)
Otra consecuencia de (4.29) es la siguiente: Como R(I − P ) = S ⊥ = ker U ,
U (I − P ) = 0 =⇒ U P = U =⇒ U U ∗ U = U =⇒ (U U ∗ )(U U ∗ ) = U U ∗ ∈ P(H) ,
por lo que también U ∗ es una I P. Si ahora llamamos M = R(U U ∗ ), vimos antes que
M⊥ = ker U ∗ = R(U )⊥ =⇒ M = R(U ) = R(U ) = U (S) .
Análogamente sale que U ∗ (M) = R(U ∗ ) = S y que ker U ∗ = M⊥ . Resumamos: 4
Proposición 4.4.3. Sean H un EH y U ∈ L(H). Se cumple que
U una I P ⇐⇒ existe un S v H tal que U cumple la Ec. (4.29) respecto de S . (4.31)
En tal caso, si llamamos M = R(U ) y S = R(U ∗ ), valen las siguiente propiedades:
1. También U ∗ es una I P.
2. Tanto M = (ker U ∗ )⊥ v H como S = (ker U )⊥ v H.
3. U U ∗ = PM y U ∗ U = PS .
4. U = PM U = U PS = PM U PS .
En adelante, para decir que U es una I P, diremos que
U : S → M es una I P “de S en M” , con “dominio” S e “imagen” M .
Demostración. Ya hicimos casi todo en 4.4.2. Solo falta el ⇐ de (4.31). Si existe un S v H
tal que U cumple (4.29) con respecto a S y S ⊥ y denotamos por P = U ∗ U ∈ L(H)+ , es bien
fácil ver que kP k = kU k2 ≤ 1, por lo que 0 ≤ P ≤ I. Si z ∈ S, entonces
hP z , zi = kU zk2 = kzk2 = hz , zi =⇒ h(I − P ) z , zi = 0 .
Aplicando el Cor. 4.3.8 y el hecho de que I − P ≥ 0, llegamos a que P z = z para todo z ∈ S.
Por otro lado, en S ⊥ tanto U como P deben anularse. En resumen, hemos probado que el
producto U ∗ U = P = PS ∈ P(H), por lo que U : S → U (S) es una I P.
123
Teorema 4.4.4. Sea H un EH. Para todo operador T ∈ L(H) existe una U ∈ L(H) que es
una I P, única si le exigimos que U : (ker T )⊥ → R(T ), tal que T = U |T |. Además
1. U ∗ T = |T |.
2. T T ∗ = U (T ∗ T )U ∗ .
4. Por lo tanto T = |T ∗ |U .
tenemos que U0 está bien definida, es lineal e isométrica, otra vez por (4.28). Es claro que
U0 se puede extender, manteniendo aquellas propiedades y su nombre, a una isometrı́a
U0 : R(|T |) → R(T ) v H .
def
Observar que R(|T |) = (ker T )⊥ = S. Luego si extendemos a U0 a una
U : H → H tal que U S = U0 y U S ⊥ ≡ 0 ,
nos queda que U = U0 ◦ PS ∈ L(H) y por la Ec. (4.31) ya tenemos que U : S → R(T ) es una
I P. Además, ella cumple que U |T | = U0 |T | = T por la Ec. (4.32). Si le fijamos el dominio
S, esta U es la única I P que cumple T = U |T | porque cualquier otra, a través de una cuenta
tipo (4.32), tiene que coincidir con ella en R(|T |) que es denso allı́.
Como S = R(|T |) y U ∗ U = PS (Prop. 4.4.3), es claro que U ∗ T = U ∗ U |T | = |T |. Además
T T ∗ = (U |T |) (U |T |)∗ = U |T |2 U ∗ = U (T ∗ T )U ∗ .
lı́m Pn (T ∗ T ) U ∗ = U (T ∗ T )1/2 U ∗ = U |T |U ∗ .
=U
n→∞
El caso en que no sean menores que I se arregla con una constante positiva ad hoc. Final-
mente, observar que T = T U ∗ U = (U |T |U ∗ )U = |T ∗ |U .
124
Notación 4.4.5. Sea T ∈ L(H). De ahora en adelante diremos que
“ T = U |T | es la DP de T ” , o bien que “la DP de T está dada por T = U |T | ”
cuando asumimos (o afirmamos) que U es la única I P del Teo. 4.3.6, con dominio (ker T )⊥
(la imagen no hace falta fijarla porque la igualdad T = U |T | dice quien es).
En cambio diremos que “ T = V |T | es una DP de T ” si V ∈ L(H) es alguna I P que lo
cumple, pero no aseguramos que es la I P posta del Teorema. 4
Observación 4.4.6. Sea T ∈ L(H) cuya DP está dada por T = U |T |. La iso parcial U no
es única (en general) si uno no le fija el dominio S = (ker T )⊥ = R( |T | ).
En efecto, si S 6= H y R(T ) no es denso en H, entonces se puede “extender”
U a otra iso
parcial V : N → M, definida en algún N más grande que S, y tal que V S = U . Esto se
puede hacer mandando gente de S ⊥ hacia R(T )⊥ isométricamente. Cualquiera de estas V
cumplirá que V |T | = U |T | = T , porque V S = V R( |T | ) = U .
Lo natural que a uno se le ocurre es querer extender U hasta un V ∈ U(H). Lamentable-
mente, eso no siempre puede hacerse. En el Ejer. que viene veremos contraejemplos, pero
también daremos una serie de condiciones bajo las cuales sı́ existe tal unitario V .
Desde yá podemos comentar que si T es mono, entonces su U es una isometrı́a (ya no es
parcial porque su dominio es (ker T )⊥ = H). Por ende si T es mono pero no tiene rango
denso, la U será una isometrı́a que no es sobre (no queda unitaria) y no se la puede extender
porque ya no queda lugar. 4
Observación 4.4.7. Veamos algunos casos especiales en los que la DP se describe bien. Las
pruebas son directas y se dejan como ejercicio:
Sea T ∈ L(H) cuya DP está dada por T = U |T |. Luego
λ T = ei θ U
|λ T | = |λ| |T | y que |λ| |T | es la DP de λT .
(a) |T | = |T ∗ |.
(b) Los tres operadores T , U y |T | conmutan entre sı́.
(c) Se tiene que U : S → S (recordar que ker T = R(T )⊥ ).
125
6. Si T es una isometrı́a, entonces T ∗ T = |T | = I y U = T . Es decir que la DP de T está
dada por T = T I (más util aún). Notar que aquı́ U es única (S = H).
7. Si T ∈ Gl (H), entonces sı́ vale que U = T |T |−1 ∈ U(H), y también en este caso esa U
es la única I P posible para la DP de T .
8. Exhibir algunos ejemplos en que U no pueda ser reemplazada por un V ∈ U(H) (tal
que T = V |T | ). Pensar en nuestro amigo el shift. ¿Qué pasa con su adjunto?
(a) T es normal.
(b) T es inversible.
(c) dim H < ∞.
Entonces sı́ existe un V ∈ U(H) que extiende a U , o sea que T = V |T | con V ∈ U(H).
En el caso donde T es normal se usa que U : S → S. En el que dim H = n < ∞, sale
porque dim R( |T | ) = dim R(T ) = n − dim ker T . 4
Obvio que tal U debe ser una I P. Esta relación cumple lo que sigue:
La gracia de ∼ es que su definición vı́a las I P’s no usa los rangos, lo que permitirá
definirla en álgebras de operadores donde seá mucho más util. 4
126
4.5 Subespacios invariantes y matrices
Sea T ∈ L(H). Uno de los problemas más famosos de la teorı́a de operadores es el de carac-
terizar los subespacios invariantes de un tal T . Lo famoso es una conjetura que dice que todo
T debe tener alguno, aparte de los obvios H y {0}. Entre las matrices la cosa no tiene gracia,
porque uno sabe que hay autovectores, que por serlo generan “rectas” invariantes. Pero si
alguno de los amigos lectores pudiese probar tal conjetura para H = `2 (N), seguro que in-
ventarı́an el Nobel de matemática para dárselo. Les anticipo que casi todos los matemáticos,
cuando cursábamos funcional, encontramos alguna prueba de eso. Lástima que todavı́a no
hubo ni una que fuera correcta. Ası́ que revisen los detalles. En esta sección no iremos para
ese lado, pero sı́ daremos algunas propiedades interesantes que aparecen cuando uno ya tiene
a tales subespacios. Y las matrices que se usan para ello.
Definición 4.5.1. Sean H un EH y T ∈ L(H). Dado un subespacio S ⊆ H diremos que
Observación 4.5.2. Sean H un EH y T ∈ L(H). Hay varias cosas para comentar sobre la
definición anterior. Las pruebas son fáciles y van como ejercicio.
S ∈ Lat (T ) ⇐⇒ T PS = PS T PS y
(4.33)
S ∈ Latr (T ) ⇐⇒ T PS = PS T i.e., si T y PS conmutan .
127
Proposición 4.5.3. Sean H un EH y T ∈ L(H). Dado un S v H, las suguientes condiciones
son equivalentes:
1. El tal S reduce a T , o sea que S ∈ Latr (T ).
2. Lo mismo para T ∗ : S ∈ Latr (T ∗ ).
3. Se cumple que T (S) ⊆ S y T ∗ (S) ⊆ S, es decir S ∈ Lat (T ) ∩ Lat (T ∗ ).
Demostración. Sea P = PS ∈ P(H). Del hecho de P sea autoadjunto se ve en seguida que
(4.33)
T P = P T ⇐⇒ P T ∗ = T ∗ P S ∈ Latr (T ) ⇐⇒ S ∈ Latr (T ∗ )
=⇒ .
Es claro que cualquiera de las anteriores implica que S ∈ Lat (T )∩Lat (T ∗ ). Pero si asumimos
esto, por (4.33) sale que T P = P T P y además T ∗ P = P T ∗ P =⇒ P T = T P . Listo.
Corolario 4.5.4. Sea H un EH. Si A ∈ A(H) entonces Lat (A) = Latr (A), por lo que todo
S v H que sea A-invariante cumple automáticamente que S ⊥ es también A-invariante.
Demostración. Evidente a partir de la Prop. 4.5.3.
Ejemplo 4.5.5. Sea H = `2 (Z) y U ∈ U(H) el shift unitario hacia la derecha. Hay libros
enteros sobre cómo es el conjunto Lat (U ). Pero veamos algunos ejemplos sencillos:
Sea B = {en : n ∈ Z} la BON canónica de H. Recordemos que U está caracterizado
por el hecho de que U (en ) = en+1 para todo n ∈ Z. Por lo tanto todos los subespacios
Sn = span {em : m ≥ n} v H cumplen que Sn ∈ Lat (U ). De hecho podemos ser más
especı́ficos, porque uno muestra de inmediato que
U (Sn ) = Sn+1 ⊆ Sn para todo n∈Z. (4.35)
Observar que U , en tanto unitario, es normal. Cuando uno labura en un Hilbert de dimensión
finita, es un ejercicio fácil ver que el Cor. 4.5.4 se generaliza a matrices normales. Sin embargo
el shift tiene una actitud contraejemplar. En efecto, U es normal, todos los Sn ∈ Lat (U ),
pero ninguno de ellos están en Latr (U ). Para mostrarlo basta ver que
en ∈ Sn pero U ∗ = U −1 =⇒ U ∗ en = en−1 ∈ / Lat (U ∗ )
/ Sn =⇒ Sn ∈
para todo n ∈ Z. Luego la Prop. 4.5.3 no permite que los Sn reduzcan a U . 4
Matrices de 2 × 2
4.5.6. Sea H un EH. Fijado un S v H llamemos P1 = PS y P2 = PS ⊥ = I − P1 . Para
dar coherencia a los subı́ndices pongamos que S1 = S y S2 = S ⊥ . Si ahora agarramos un
T ∈ L(H), a partir de la descomposición H = S ⊕ S ⊥ podemos pensar que la acción de
T : S ⊕ S ⊥ → S ⊕ S ⊥ se describirá completamente con cuatro mitades del T operado entre
los cuatro sumandos en cuestión. Concretamente, de ahora en más escribiremos
T11 T12 S T11 T12 S1
T = ⊥ = donde Tij = Pi T Pj ∈ L(Sj , Si ) , (4.36)
T21 T22 S T21 T22 S2
128
para i , j ∈ {1 , 2}. También podrı́amos pensar que cada Tij = Pi T |Sj ∈ L(Sj , Si ). Es muy
importante remarcar que estamos pensando a los Tij operando desde Sj hacia Si y no en
todo L(H). Estos datos recuperan a T , porque si me dan un x ∈ H y lo descompongo como
x = x1 + x2 ∈ S1 ⊕ S2 , entonces podemos ver fácimente que
T x = P1 T x + P2 T x = T11 x1 + T12 x2 + T21 x1 + T22 x2 ∈ S1 ⊕ S2 = H .
Pero mejor todavı́a es pensar que x = (x1 , x2 ) (vector columna) y entonces
T11 T12 x1 S1 T11 x1 + T12 x2
Tx= = ∈ S1 ⊕ S2 = H .
T21 T22 x2 S2 T21 x1 + T22 x2
La gracia de hacer esta representación es que tiene las propiedades usuales de las matrices:
1. Si B ∈ L(H) y le hacemos su matriz como en (4.36), queda que la matriz de B T se
calcula como el producto formal de sus dos matrices de bloques de 2 × 2:
B11 T11 + B12 T21 B11 T12 + B12 T22 S1
B11 B12 T11 T12
BT = = .
B21 B22 T21 T22
B21 T11 + B22 T21 B21 T12 + B22 T22 S2
Observar que todos los productos y sumas en cuestión tienen sentido, y quedan ubica-
dos de acuerdo al dominio y codominio de cada bloque que interviene.
2. Lo que vimos hasta ahora se puede hacer en un contexto más general: Basta que
P12 = P1 y que P2 = I − P1 , pero no es imprescindible que ellos sean ortogonales. La
fórmula del producto de arriba y otras que veremos más adelante seguirán valiendo en
aquel contexto. Esto es importante sobre todo si uno labura en L(E) donde E es sólo
un Banach, por lo que autoadjuntos ni hay. Sin embargo, nos quedaremos en el caso
de que P1 , P2 ∈ P(H) porque en tal caso la representación matricial funciona bien con
la operación de tomar adjuntos. En efecto, si T ∈ L(H), nos quedará que
∗
A C∗
A B S ∗ S
T = ⊥ =⇒ T = ∗ ∗ , (4.37)
C D S B D S⊥
es decir que la matriz de T ∗ es una especie de transpuesta conjugada de bloques.
La prueba es inmediata a aprtir de (4.36). Observar que todo camina porque cada
proyector Pi∗ = Pi . Por eso la observación anterior es clave para esto.
Ejercicio 4.5.7. En lo anterior se usó implı́citamente esto: Sean H , K dos EH’s.
Generalizar a los T ∈ L(H , K) la noción de adjunto T ∗ ∈ L(K , H) tal que
hT x , yiK = hx , T ∗ yiH para todo par x ∈ H, y ∈ K , (4.38)
y todas las propiedades que puedan sobrevivir en este contexto. Se sugiere considerar
0 0 H ∗ (4.37) 0 S H
AT = ∈ L(H ⊕ K) usando que AT = ,
T 0 K 0 0 K
y que el tal S ∈ L(K , H) cumple (4.38) contra T , ası́ que uno define T ∗ = S. 4
129
3. Fijensé que la Ec. (4.37) nos dice cómo son las matrices de los autoadjuntos:
A B S
T = ∈ A(H) ⇐⇒ A ∈ A(S) , D ∈ A(S ⊥ )
C D S⊥
(4.39)
y C = B ∗ ∈ L(S , S ⊥ ) .
para algún X ∈ L(S ⊥ , S). ¿Cómo serán lo idempotentes R tales que ker R = S?
1/2
2. Deducir que kQk = 1 + kXk2 = kIH − Qk.
Es interesante observar que la igualdad kQk = kIH − Qk, que vale para todos los proyectores
oblicuos Q ∈ P(H) en un espacio de Hilbert, no sigue siendo cierta para proyectores en un
espacio de Banach, a pesar de la fórmula (2.28) que parecı́a tan simétrica. 4
130
Ejercicio 4.5.10. Sean T ∈ L(H) y S ∈ Lat (T ). Si vale que dim S < ∞ probar que
4. Probar que aún en tal caso, la flecha ⇐= de (4.41) sigue siendo válida.
Es claro que su norma como operador coincide con la que tenı́a como vector. Por lo tanto
tenemos que H ∼= L(K , H), donde una flecha es la de arriba, y su inversa es x 7→ x(1).
Pensado ası́, el teorema de representación de Riesz 3.3.1 lo que dice es que todas las fun-
cionales acotadas ϕ ∈ H∗ son del tipo ϕ = y ∗ para algún y ∈ H ∼= L(K , H).
En efecto, si tomamos tal y, pensado como operador, su adjunto cumple que
para todo z ∈ H, por lo que y ∗ es nuestra vieja ϕy de Riesz. Ahora los tensores:
131
Definición 4.6.2. Sea H un EH. Dados x , y ∈ H consideremos el operador
x y = x ◦ y ∗ ∈ L(H) .
def
(4.42)
Por lo tanto, se tiene que R(x y) ⊆ span {x}, por lo que x y ∈ L1 (H). 4
def
Por ejemplo, si x ∈ H tiene kxk = 1, entonces Px = x x ∈ P(H) ∩ L1 (H) es el proyector
sobre span {x}. En efecto, observar que x x(z) = hz, xi · x, la conocida fórmula de dicho
proyector. Otra forma de verlo es que el tal x ∈ L(K , H) es una isometrı́a, por lo que
x x∗ ∈ P(H) con el mismo rango que x, o sea K · x = span {x}.
Proposición 4.6.3. Sea H un EH. Si A ∈ L(H), se tiene que
A ∈ L1 (H) ⇐⇒ existen z , w ∈ H tales que A = z w .
Es decir que L1 (H) = {z w : z , w ∈ H}.
Demostración. Si rkA = 1, tomemos z ∈ R(A) unitario. Luego R(A) = K · z. Entonces para
todo x ∈ H vale que A x = ϕ(x) · z, donde uno verifica sin dificultad que la ϕ ∈ H∗ . Todo
termina eligiendo el w ∈ H que cumple que ϕ = ϕw = w∗ .
A continuación va un lista con las propiedades básicas de los tensores:
Proposición 4.6.4. Sea H un EH. Fijemos x , y ∈ H. Luego:
Demostración. Algunos items vienen con su prueba. Veamos el de las normas: Tenemos que
132
4.6.5 (I P’s con rango finito). Si ahora tomamos x , y ∈ H ambos unitarios, entonces
U = x y : Py → Px es una I P .
En efecto, se tiene que U ∗ U = (y x) · (x y) = y y mientras que U U ∗ = x x. Esto
se puede generalizar del siguiente modo: Si B1 = {uk : k ∈ In } y B2 = {vk : k ∈ In } son dos
SON’s finitos del mismo cardinal, y llamamos S = span {B1 } , M = span {B2 }, entonces
X
U= vk uk : S → M es una I P .
k∈ In
P
En efecto, si B1 = B2 , usando (3.13) sale que PS = Puk = U . Si no son iguales,
k∈ In
X X X
U ∗U = uj vj · vk uk = hvk , vj i uj uk = uk uk = PS
j , k∈ In j , k∈ In k∈ In
En efecto, como V es iso desde N hasta T , luego dim N = dim T = n < ∞. El resto de la
cuenta sale porque ambas expresiones tienen el mismo dominio y coinciden en cada wk . 4
Esto muestra que LF (H) = span {L1 (H)}. Observar que LF (H) no sólo es un subespacio,
sino que es un ideal bilátero del álgebra L(H). Esto sale por el item 4 de la Prop. 4.6.4.
Pero mejor aún, si T = U |T | es la DP de T , podemos pensar a |T | : S → S. Ahı́ |T |
tiene una BON de autovectores, ası́ que asumimos que cada |T | uk = sk (T ) uk , donde los
sk (T ) > 0 son los autovalores de |T | dentro de S, también llamados valores singulares de T .
Además, como U : S → U (S) = R(T ), nos queda que U (B) es una BON de R(T ). Si
llamamos a cada U uk = vk , nos queda la hermosa fórmula
P P
T = U |T | = U sk (T ) uk uk = sk (T ) vk uk , (4.44)
k∈ In k∈ In
que describe todo T ∈ LF (H) en términos de dos SON’s (uno genera S y el otro el R(T ) ) y de
los valores singulares de T . Observar que la Ec. (4.44) nos asegura de una que si T ∈ LF (H),
entonces también T ∗ ∈ LF (H). Este tipo de expresiones serán generalizadas (a series) en el
Capı́tulo de operadores compactos. 4
133
Observación 4.6.7. Casi todo lo que vimos en esta sección se puede generalizar a operdores
entre dos Hilberts distintos. Por ejemplo, si x ∈ K and y ∈ H, entonces x y ∈ L1 (H , K),
y ellos generan el subespacio LF (H , K) (con las definiciones obvias).
Más aún, todo lo anterior (salvo lo que use la * y la DP) se puede generalizar a un espacio de
Banach E y sus operadores L(E). Allı́ habrá que usar tensores ϕ x para x ∈ E y ϕ ∈ E ∗ .
Ası́ podemos hacer que actúen haciendo ϕ x(z) = ϕ(z) · x para z ∈ E.
Y ya que estamos, también se hace en L(E , F ) donde F es otro EB. Dejamos como ejercicio
(para el lector tenáz) reescribir toda la sección en cada uno de estos contextos nuevos. 4
134
4.7 Ejercicios del Cap 4: Operadores en EH’s
Ejercicios aparecidos en el texto
4.7.1. Veamos más detalles en un espacio producto tipo el del Ejer. 3.8.7, cuando son 2 coordenadas. Sean
H y K dos EH’s. Luego el espacio H ⊕ K con la estructura usual de C-EV (sumando y multiplicando por
escalares en cada coordenada) y el PI dado por
(x1 , y1 ) , (x2 , y2 ) = hx1 , x2 iH + hy1 , y2 iK para (x1 , y1 ) , (x2 , y2 ) ∈ H ⊕ K
S ⊕T =S ⊕T ya que (S ⊕ T )⊥ = S ⊥ ⊕ T ⊥ .
6. Con las identificaciones del caso, queda que H⊥ = K y que K⊥ = H, siempre dentro de H ⊕ K.
para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas:
3. Entre estos operadores, las operaciones sumar, multiplicar (i.e. componer), adjuntar e invertir (si se
puede), se hacen en cada coordenada.
135
3. Deducir que Gl (H)+ es abierto en A(H). 4
4.7.4 (Criterio de Dini). Sea f = (fn )n∈ N una sucesión en C[0, 1] que cumple:
1. Existe f ∈ C[0, 1] tal que fn (t) −−−−→ f (t) para todo t ∈ [0, 1].
n→∞
2. La sucesión f es creciente: fn (t) ≤ fn+1 (t) para todo n ∈ N y todo t ∈ [0, 1].
Con esas hipótesis probar que la convergencia fn −−−−→ f es uniforme en todo [0, 1]. 4
n→∞
4.7.5. Sea H un EH. Probar que el orden ≤ de A(H), restringido al conjunto P(H) de los proyectores, es
un reticulado (con sup e ı́nf de a muchos). Más especı́ficamente, probar que
1. Dados P, Q ∈ P(H) con R(P ) = S y R(Q) = M, entonces son equivalentes
(a) P ≤ Q
(b) S ⊆ M
(c) P Q = P o también (c’) QP = P
(d) Q − P ∈ P(H).
def
2. En tal caso Q − P = PM S , donde M S = M ∩ (S ∩ M)⊥ .
4. Verificar que los subespacios cerrados tienen sup e ı́nf (aún de familias infinitas) sin dramas.
λ T = ei θ U
|λ T | = |λ| |T | y que |λ| |T | es la DP de λT .
(a) |T | = |T ∗ |.
(b) Los tres operadores T , U y |T | conmutan entre sı́.
(c) Se tiene que U : S → S (recordar que ker T = R(T )⊥ ).
5. Si T ∈ Gl (H), entonces sı́ vale que U = T |T |−1 ∈ U(H), y que U es la única I P posible para la DP
de T .
7. Exhibir algunos ejemplos en que U no pueda ser reemplazada por un V ∈ U(H) (tal que T = V |T | ).
Pensar en nuestro amigo el shift. ¿Qué pasa con su adjunto?
(a) T es normal.
136
(b) T es inversible.
(c) dim H < ∞.
Entonces sı́ existe un V ∈ U(H) que extiende a U , o sea que T = V |T | con V ∈ U(H).
Sug: En el caso de T normal usar que U : S → S. En el que dim H = n < ∞, usar que dim R( |T | ) =
dim R(T ) = n − dim ker T . 4
4.7.7. Sea H un EH. Dada U : S → M una I P en L(H), a veces conviene presentarla como U : P → Q,
donde P, Q ∈ P(H) son P = PS y Q = PM . Probar que
Obvio que tal U debe ser una I P. Esta relación cumple lo que sigue:
La gracia de ∼ es que su definición vı́a las I P’s no usa los rangos, lo que permitirá definirla en álgebras
de operadores donde seá mucho más util. 4
S ∈ Lat (T ) ⇐⇒ T PS = PS T PS y
(4.46)
S ∈ Latr (T ) ⇐⇒ T PS = PS T i.e., si T y PS conmutan .
def def
S ∧ M = S ∩ M ∈ Lat (T ) y S ∨ M = S + M ∈ Lat (T ) .
4.7.9. Sea H un EH. Dado T ∈ L(H), probar que Latr (T ) = Lat (T ) ∩ Lat (T ∗ ).
4.7.10. Sea H un EH. En el Cor. 4.5.4 se probó que si A ∈ A(H) entonces Lat (A) = Latr (A), o sea que
todo S v H que sea A-invariante cumple automáticamente que S ⊥ es también A-invariante.
137
2. Si ahora N ∈ L(H) es normal, mostrar que la igualdad Lat (N ) = Latr (N ) sigue valiendo si uno
asume que dim H < ∞.
3. Sean H = `2 (Z) y U ∈ U(H) el shift unitario hacia la derecha. Observar que U , en tanto unitario, es
normal. Sea B = {en : n ∈ Z} la BON canónica de H.
(a) Mostrar que U está caracterizado por el hecho de que U (en ) = en+1 para todo n ∈ Z.
(b) Los subespacios Sn = span {em : m ≥ n} v H cumplen que Sn ∈ Lat (U ).
(c) De hecho podemos ser más especı́ficos:
para algún X ∈ L(S ⊥ , S). ¿Cómo serán lo idempotentes R tales que ker R = S?
1/2
2. Deducir que kQk = 1 + kXk2 = kIH − Qk. 4
4.7.13. Sean T ∈ L(H) y S ∈ Lat (T ). Si vale que dim S < ∞ probar que
5. Probar que aún en tal caso, la flecha ⇐= de (4.48) sigue siendo válida.
6. Si S ∈ Latr (T ) y tiene cualquier dimensión, postular y probar una versión de (4.48) para ese caso.
4.7.14. Sean H , K dos EH’s. Generalizar a los T ∈ L(H , K) la noción de adjunto T ∗ ∈ L(K , H) tal que
y de todas las propiedades que puedan sobrevivir en este contexto. Se sugiere considerar el operador
0 T∗
0 0 H H
AT = ∈ L(H ⊕ K) usando que A∗T = . 4
T 0 K 0 0 K
138
4.7.15. Sea H un EH. Fijemos x , y ∈ H. Recordemos que el tensor x y ∈ L1 (H) era
x y(z) = x ◦ y ∗ (z) = y ∗ (z) · x = hz, yi x para todo z ∈ H .
Probar las siguientes cosas:
1. Vale que R(x y) = span {x} y que su núcleo es ker x y = {y}⊥ .
3. El adjunto: (x y)∗ = y x.
4. El espectro: El único autovalor de x y que puede ser no nulo es λ1 = hx, yi. (adivinen quién es el
autovector).
Ejercicios nuevos
4.7.16. Sea H un EH. Dados S , M v H, llamemos P = PS y Q = PM . Probar que son equivalentes:
1. Ellos conmutan P Q = QP .
2. S = S ∩ M ⊕ S ∩ M⊥ .
3. M = M ∩ S ⊕ M ∩ S ⊥ .
4. P Q = PS∩M ∈ P(H).
5. QP = PS∩M ∈ P(H).
Deducir que 2 y 3 por lo general NO son válidas. Convencerse de eso dibujando tres rectas en R2 . De paso
mostrar que si dim S = dim M = 1 entonces lo de arriba vale ⇐⇒ S = M o bien S ⊥ M. 4
4.7.17. Sea H un EH. Probar que los puntos extremales de la bola BL(H) = {T ∈ L(H) : kT k ≤ 1} son las
isometrı́as {U ∈ L(H) : kU xk = kxk para todo x ∈ H}.
Sug. Usar que los puntos extremales de la bola BH son los vectores de norma uno, Ejer. 3.8.22.
4.7.18. Sea H un EH. Probar que las proyecciones de P(H) son los puntos extremales del conjunto:
def
[0, I] = {A ∈ L(H) : 0 ≤ A ≤ I} .
4.7.19. Sea P ∈ P(H) cuyo rango es R(P ) = S. Esta proyección induce una descomposición de los
operadores de A ∈ L(H) en matrices de 2 × 2, del siguiente modo:
A11 A12 S
A=
A21 A22 S⊥
donde A11 ∼ P AP pero pensado en L(S), y análogamente se toman las compresiones A12 = P A(I − P ),
A21 = (I − P )AP y A22 = (I − P )A(I − P ) a los espacios donde actúan. Probar:
139
1. Si A ∈ A(H), entonces su matriz asociada tiene la siguiente forma:
C B S
A= con C ∈ A(S) y D ∈ A(S ⊥ ) .
B∗ D S⊥
4.7.20. Sea A ∈ L(H)+ y tomemos su raiz cuadrada A1/2 ∈ L(H)+ . Probar que
P P
|anm | λn ≤ b λm para todo m ∈ N, y |anm | λm ≤ c λn para todo m∈N,
n∈N m∈N
1. Existe un operador T ∈ L(H) que tiene a {anm } como matriz (respecto a una BON de H).
4.7.22 (Matriz de Hilbert). Sea H un EH con una BON {en : n ∈ N}. Queremos un T ∈ L(H) tal que
1
hT em , en i = para todo par n, m ∈ N .
n+m−1
(I − T T ∗ )1/2
T
UT = es unitario . 4
(I − T ∗ T )1/2 −T ∗
140
Capı́tulo 5
5.1 Seminormas
Vimos que una sola norma produce una estructura métrica en E. Una seminorma no alcanza
(la d asociada es solo un seudodistancia, como la k · kp antes de cocientar a Lp ). Sin em-
bargo, es muy común construir topologı́as en espacios vectoriales usando familias de muchas
seminormas. Como se pide Hausdorff, hagamos una definición:
141
Definición 5.1.1. Sea E un K-espacio vectorial.
donde z ∈ E, p ∈ F y ε > 0.
2. Más aún, para obtener una sub-base de Oσ(E,F ) (x) alcanza con tomar los conjuntos
3. Con estos semibasicos alcanza para testear que σ(E, F) es Hausdorff. Para verlo basta
con recordar que fijados x, y ∈ E, se tiene que
4. Fijado un x ∈ E, los entornos Oσ(E,F ) (x) tienen una base formada por conjuntos
\
Upk , ε = y ∈ E : pk (y − x) < ε , k ∈ In , (5.3)
k∈In
142
T
y finitas p1 , . . . , pn ∈ F. Si tomamos V = Vpk , resulta ser un entorno de x + y
k∈ In
en E × E tal que “la suma” lo manda adentro de U . Por otra parte,
|p(λ x) − p(λ0 x0 )| ≤ p(λ x − λ0 x0 ) = p(λ x − λ0 x + λ0 x − λ0 x0 )
La verdadera utilidad de estos procesos para producir topologı́as EVT radica en que ellos
permiten encontrar la topologı́a que se adecue a una convergencia dada en el espacio E.
Sin entrar en detalles, pensemos en convergencias “de la f y de todas sus derivadas”, o
convergencia uniforme en compactos, etc. Una familia muy importante de convergencias en el
contexto de espacios normados (llamadas “la débil w” y “la débil estrella w∗ ”), acompañadas
de sus topologı́as onda σ(E, F), se verá en las secciones siguientes. Veamos ahora en qué
sentido la topologı́a σ(E, F) se describe en términos de convergencias:
Proposición 5.1.3. Sea E un K-EV, y sea σ(E, F) la topologı́a inducida por una familia
F de seminormas que separa puntos de E. Dada una red x = (xi )i∈ I en E, se tiene que
σ(E,F ) R
xi −−−−→ x ∈ E ⇐⇒ p(x − xi ) −−→ 0 para toda p∈F . (5.4)
i∈ I i∈ I
Demostración. Para mostrarlo basta fijarse quienes son los σ(E, F)-entornos del x, como se
describe en la Ec. (5.3). O bien, recordar qué pasaba con las topologı́as iniciales.
La Proposición anterior ayuda notablemente a la hora de testear si una función dada (que
sale de, o que llega a un EVT dado por seminormas) es continua. Como estamos en un
contexto “lineal”, lo primero que uno debe estudiar es la continuidad de los operadores
lineales. Para ello pongamos (y recordemos) algunos nombres:
Notaciones 5.1.4. Sea E un K-EV.
1. Denotaremos por E 0 = {ϕ : E → K : ϕ es lineal } al espacio dual algebráico de E.
2. Los ejemplos más usuales de seminormas en E consisten en tomar una funcional lineal
ϕ ∈ E 0 y definir p = pϕ = |ϕ|.
3. Por lo general, uno toma un subespacio F ⊆ E 0 de funcionales, le pide que separe
puntos de E, y toma la familia separadora de seminormas F = {pϕ : ϕ ∈ F }. En tal
caso suele escribirse σ(E, F ) en lugar de σ(E, F).
4. Si me dan cualquier topologı́a τ que haga de E un EVT, no toda ϕ ∈ E 0 debe ser
automáticamente continua. De hecho, si dim E = ∞, la “mayorı́a” de las funcionales
no lo son. Por ello de denomina dual “topológico” de E al K-EV
Eτ∗ = (E, τ )∗ = {ϕ ∈ E 0 : ϕ es τ -continua } = E 0 ∩ C (E, τ ), K . (5.5)
143
5. Observar que para cualquier ϕ ∈ E 0 , se tiene que
Esto se debe a la igualdad ϕ(x) − ϕ(y) = ϕ(x − y) (y a que ϕ(0) = 0). Recordar que
la condición (5.1) asegura que una red xi −−→ x ⇐⇒ x − xi −−→ 0.
i∈ I i∈ I
6. Si E era un C-EV, denotaremos por ER0 y (E, τ )∗R a sus duales pensándolo como R-EV
(o sea las funcionales ϕ : E → R que son R-lineales). 4
Demostración. Si ϕ ∈ (E, σ(E, F) )∗ , por ser continua en 0 debe existir un entorno básico
del 0, pongamos que dado por un ε > 0 y una n-upla (pk )k∈In en F, tales que
\
{x ∈ E : pk (x) < ε} ⊆ {x ∈ E : |ϕ(x)| < 1} . (5.7)
k∈In
Es decir que las únicas funcionales lineales sobre E que son σ(E, F )-continuas son las que
ya estaban en F .
144
Demostración. Es claro que toda ϕ ∈ F queda σ(E, F )-continua (si no lo ve claro, repase la
Ec. (5.4) ). Para la recı́proca, hace falta el siguiente lema algebráico:
Lema 5.1.7. Sean f y (fk )k∈In funcionales lineales en el K-espacio vectorial E. Las siguientes
condiciones son equivalentes:
P
1. f = αk fk , para ciertas α1 , ..., αn ∈ K.
k∈In
2. Existe α > 0 tal que |f (x)| ≤ α máx |fk (x)| para todo x ∈ E.
k∈In
T
3. ker fk ⊆ ker f .
k∈In
E CC
A / Kn
CC
CC g
f CC!
K
ker fk ⊆ ker f , existe una funcional lineal g : Kn → C tal que g ◦ A = f .
T
Como ker A =
k∈In
O, si se prefiere, la condición ker A ⊆ ker f permite definirla (bien) como
145
5.2 Espacios localmente convexos.
Una de las ventajas de trabajar en K-espacios vectoriales es que en ellos tiene sentido la
noción de convexidad: Sea E un K-EV, y sea A ⊆ E. Recordemos que A es convexo si,
dados x, y ∈ A se tiene que
def
[x, y] = {(1 − λ) x + λ y : λ ∈ [0, 1] } ⊆ A .
Observar que [x, y] denota al “segmento” recto que une a x con y dentro de E. La teorı́a de
conjuntos convexos dentro de EVT’s está muy desarrollada, y algunas cosas de ella veremos
en lo que sigue. Empecemos con algunas propiedades quasitriviales, para entrar en tema.
Proposición 5.2.1. Sea E un K-EV. Se tienen las siguientes propiedades:
1. La intersección de cualquier cantidad de conjuntos convexos en E queda convexa.
2. El transladar a un convexo le conserva esa propiedad. Es decir que si A ⊆ E es
convexo, también lo será A + x = {a + x : a ∈ A}, para todo x ∈ E.
3. Más aún, si A, B ⊆ E son ambos convexos, también A + B = {a + b : a ∈ A y b ∈ B}
queda convexo.
4. Si A ⊆ E es convexo, para todo λ ∈ K se tiene que λA = {λa : a ∈ A} es convexo.
5. Dada un topologı́a τ que haga de E un EVT, para todo convexo A ⊆ E se tiene que
τ
su τ -clausura A es también convexo.
Demostración. Es un ejercicio ideal para rumiar la definición de convexidad. Hagamos la
τ
prueba del item 5, que no es tan fácil: Si x ∈ A pero y ∈ A , tomemos una red y = (yi )i∈ I
en A tal que yi −−→ y. Entonces, para todo λ ∈ [0, 1] sale que
i∈ I
τ
A 3 λyi + (1 − λ)x −−→ λy + (1 − λ)x =⇒ [x, y] ⊆ A .
i∈ I
τ
Haciendo lo mismo, pero ahora del lado del x, sale que A es también convexo.
Volviendo a la sección anterior, en particular a la Ec. (5.3), notamos que si nos dan una
familia F separadora de seminormas en E, resulta que la topologı́a σ(E, F) tiene, en cada
punto x ∈ E, una base de entornos formada por abiertos convexos. A esta propiedad le
daremos un nombre:
Definición 5.2.2. Sea (E, τ ) un ETV. Decimos que E es un espacio localmente convexo
(se abrevia ELC) si, para cada x ∈ E existe una base βx de Oτa (x) que consiste de abiertos
convexos. 4
Observación 5.2.3. Dado (E, τ ) un ETV, se tiene que
1. Si queremos verificar que E es ELC, la condición anterior (bases de entornos convexos
para cada punto x) basta testearla en x = 0, porque todo U ∈ Oτa (x) se puede escribir
como U = W + x con W ∈ Oτa (0).
146
2. Si uno sabe que E es un ELC, se puede asumir que la base β0 consta de convexos
simétricos, en el sentido de que V = −V = {−x : x ∈ V }.
En efecto, dado un W de la base que uno tenı́a, se lo cambia por V = W ∩ −W , que
es más chico, sigue siendo abierto y convexo, pero ahora queda simétrico.
3. Más aún, se puede hacer una base de Oτa (0) que consta de abiertos de la forma
Esta observación será clave a la hora de sacarle el jugo al siguiente Teorema de Minkowski,
que de alguna manera dice que toda topologı́a en E que lo haga ELC viene dada como una
σ(E, F) vı́a una familia adecuada de R-seminormas.
Recordemos que, dado E un K-EV, una función q : E → R se llamaba sublineal si cumple
la desigualdad triangular (q(x + y) ≤ q(x) + q(y) para todo par x, y ∈ E) y además
1
pU (x) = ı́nf{ s > 0 : x∈U }, para x ∈ E , (5.10)
s
es una función sublineal, y se denomina la funcional de Minkowski de U .
Demostración. Recordemos que, por la Ec. (5.1), si fijamos un x ∈ E se tiene que la función
K 3 λ 7→ λ x es continua. En particular, tenemos que nx −−−→ 0 ∈ U , por lo que n1 x ∈ U
n→∞
a partir de cierto n0 . Luego pU (x) ≤ n0 < ∞. La comprobación que pU es homogénea
respecto a escalares positivos es un ejercicio elemental sobre ı́nfimos, que omitiremos.
1 1
Fijemos x, y ∈ E y tomemos escalares s, t > 0 tales que s
x y t
y ∈ U . Como U es convexo
1 s 1 t 1
(x + y) = ( x )+ ( y ) ∈ U =⇒ pU (x + y) ≤ s + t .
s+t s+t s s+t t
Esto muestra que pU (x + y) ≤ pU (x) + pU (y). Veamos ahora el item 2: Si x ∈ U , debe existir
un ε > 0 tal que también (1 + ε)x ∈ U (esto vale por el comentario del principio). Entonces
1
tenemos que pU (x) ≤ 1+ε < 1. Recı́procamente, si pU (x) < 1, debe existir un s < 1 tal que
1
s
x ∈ U . Como 0 ∈ U y U es convexo nos queda que x = (1 − s)0 + s 1s x ∈ U .
147
Observación 5.2.5. Si uno asume que (E, τ ) es un R-ELC, y toma β0 una base de entornos
abiertos, convexos y simétricos del 0 ∈ E (se usa la Obs. 5.2.3), cada U ∈ β0 produce, vı́a
el Teo. 5.2.4 una sublineal pU tal que U = {x ∈ E : pU (x) < 1}. Ahora bien, el hecho de
que los U ’es sean simétricos implica que pU (−x) = pU (x) para todo x ∈ E (esto se deduce
de la Ec. (5.10) ). Pero esto sumado a la homogeneidad para t ≥ 0, asegura que las pU son
R-seminormas. Si ahora uno toma la familia
F = {pU : U ∈ β0 } ,
es fácil ver que τ = σ(E, F), como asegurábamos antes. 4
vemos que W es abierto. Es claro que 0 ∈ W , y una cuenta directa muestra que W es,
además, convexo. Tomemos la funcional de Minkowski pW de la Teo. 5.2.4 y el punto z =
y0 − x0 . Usando que U ∩ V = ∅, concluimos que z ∈ / W , por lo que pW (z) ≥ 1. Definamos
ϕ0 : Rz → R por ϕ0 (az) = a, (a ∈ R). Entonces si a ≥ 0, se tiene que
ϕ0 (az) = a ≤ apW (z) = pW (az) .
Si a < 0, tenemos que ϕ0 (az) = a < 0 ≤ pW (az). Ası́, ϕ0 ≤ pW en todo R z. Por el
teorema de Hahn-Banach 2.1.2, podemos extender ϕ0 a una funcional R-lineal ϕ : E → R
tal que ϕ(x) ≤ pW (x), ahora para todo x ∈ E. Veamos que esta ϕ ∈ (E, τ )∗ . Basta ver la
continuidad en 0 ∈ E. Para ello, observemos que si x ∈ W , se tiene que ϕ(x) ≤ pW (x) < 1.
Si ahora me dan un ε > 0, podemos deducir de lo anterior que
|ϕ(w)| < ε para todo w ∈ −εW ∩ εW ,
que es un entorno de 0. Lista la continuidad. Si x ∈ U , y ∈ V entonces
ϕ(z)=1
x−y+z ∈W =⇒ ϕ(x − y + z) < 1 =⇒ ϕ(x) < ϕ(y) .
Además ϕ(U ) y ϕ(V ) son intervalos reales disjuntos, puesto que U y V son convexos y ϕ es
lineal. Por otra parte ϕ(U ) es abierto pues U lo es. Basta entonces tomar t = sup ϕ(U ). 4
Caso complejo. Consideremos a E como R-EV, y encontremos, por el caso anterior, una
funcional R-lineal φ ∈ (E, τ )∗R tal que
φ(U ) < t ≤ φ(V ) , para cierto t∈R.
Luego ϕ(x) = φ(x) − iφ(ix) cumple que es C-lineal, τ -continua, y que Re ϕ = φ.
148
Corolario 5.3.2. Sea (E, τ ) un ELC y sean K, F ⊆ E dos convexos disjuntos y no vacı́os,
tales que K es compacto y F cerrado. Luego existen ϕ ∈ (E, τ )∗R , ε > 0 y t ∈ R tales que
Eso saldrı́a aplicando el Teo. 5.3.1 al abierto convexo K + U y al convexo F . Pero como
tenemos que K es compacto, K ⊆ K + U y ϕ continua, existirı́a el ε > 0 tal que valga (5.11).
Para construir el U se hace ası́: Para cada x ∈ K tomemos un convexo simétrico Ux ∈ Oτa (0)
tal que, aún tomando Vx = Ux − Ux valga que x + Vx ⊆ E \ F . Existen porque F es cerrado
y por la Obs. 5.2.3. Es calro que existen x1 , . . . , xn ∈ K tales que
[ [
K⊆ xk + Uxk ⊆ x k + V xk ⊆ E \ F .
k∈ In k∈ In
T
Tomemos ahora U = Uxk . Observemos que, dado x ∈ K, existe un k ∈ In tal que
k∈ In
x ∈ xk + Uxk . Luego x + U ⊆ xk + ( Uxk + U )
⊆ xk + Vxk ⊆
E \ F . Como esto pasa para
S
todos los x ∈ K llegamos a que (K + U ) ∩ F = x + U ∩ F = ∅.
x∈K
5.4 Krein-Milman
Definición 5.4.1. Sea E es un K-EV y fijemos K ⊆ E.
1. Un subconjunto A ⊆ K es extremal en K si para cada par x, y ∈ K se cumple que
(x, y) ∩ A 6= ∅ =⇒ x , y ∈ A ,
z ∈ (x, y) =⇒ x = y = z .
149
3. Denotaremos por Ext(K) al conjunto de puntos extremales de K.
es cerrado, no vacı́o y extremal para A0 . Por el Ejer. 5.4.3, vemos que mϕ (A0 ) es también
extremal para K. Sin embargo, tenemos que A0 6= mϕ (A0 ), porque mϕ (A0 ) no puede
150
contener simultáneamente a los puntos x1 y x2 . Como esto contradice la maximalidad-
minimalidad de A0 , vemos que A0 = {x} y que x ∈ Ext(K).
El resultado más importante de esta sección es el Teorema de Krein Milman, que formaliza
un enunciado intuitivamente natural: un convexo compacto es el conjunto de combinaciones
convexas de sus puntos extremales. Uno se imagina polı́gonos o elipses y parece convincente.
Además, ahora ya sabemos que los compactos en un ELC tienen extremales. Definamos
ahora las cápsulas convexas:
Definición 5.4.6. Sea E un R-EV, y sea A ⊆ E. La cápsula convexa de A es el conjunto
Veamos ahora una propiedades obvias de estas nociones: Sea E un EVT, y sea A ⊆ E.
2. Más aún, se puede caracterizar a Conv (A) (resp. Conv (A) ) como el menor convexo
(resp. convexo cerrado) que contiene a A.
4. Conv (Conv (A) ) = Conv (A) y Conv (Conv (A) ) = Conv (Conv (A) ) = Conv (A).
K ⊆ Conv Ext(K) .
151
Ejercicio 5.4.8. Sean (E, τ ) un ELC y K ⊆ E un un compacto.
/ K, existe U ∈ Oτa (0) convexo tal que (x + U ) ∩ (K + U ) = ∅.
1. Dado x ∈
2. Deducir que, si K fuera también convexo, existe ϕ ∈ ER∗ tal que
5.5.1. Hay dos ejemplos importantes de topologı́as inducidas por seminormas, en el contexto
de espacios normados y ELC:
1. Sea E un espacio normado y E ∗ su dual (topológico). Consideremos sobre E la familia
de seminormas
152
3. Observar que, en realidad, la σ(E ∗ , E) está producida por un subespacio de E ∗∗ , que
no es otro que JE (E), donde JE : E → E ∗∗ es la isometrı́a definida en la Ec. (2.8). Pero
como la acción de estas funcionales sobre E ∗ es justamente operar por evaluación en
los x ∈ E, la notación σ(E ∗ , E) es justa, y por supuesto es más económica que poner
σ(E ∗ , JE (E) ).
4. Más aún, si ahora suponemos que (E, τ ) es solo un ELC, también tenemos un dual
topológico Eτ∗ = (E, τ )∗ que separa puntos. Luego podemos definir:
5. Observar que σ(E, Eτ∗ ) y σ(Eτ∗ , E) tienen una linda propiedad (esto incluye el caso en
que E es normado): Por el Teo. 5.1.6, vemos que
∗ ∗
E , σ(E, Eτ∗ ) = Eτ∗ y Eτ∗ , σ(Eτ∗ , E) ∼
= E, (5.14)
donde el ∼
= es lo que uno se imagina.
6. Las topologı́as w y w∗ se describen bien por convergencias (de hecho es de ahı́ de donde
nacen): Por la Ec. (5.4), se tiene que
w
xi −−→ x ⇐⇒ ϕ(xi ) −−→ ϕ(x) para toda ϕ ∈ E∗ (o ϕ ∈ Eτ∗ ) . (5.15)
i∈ I i∈ I
w∗
En forma similar, ϕi −−→ ϕ ⇐⇒ ϕi (x) −−→ ϕ(x) para todo x ∈ E.
i∈ I i∈ I
153
τ
nos asegura que A sigue siendo convexo. Estamos en las condiciones del Teo. 5.3.1, que
asegura la existencia de una ϕ ∈ Eτ∗ y un t ∈ R tales que
τ τ
Re ϕ( U ) < t ≤ Re ϕ A =⇒ Re ϕ(x) < t ≤ Re ϕ A .
def
Por un lado vemos que A ⊆ F = {y ∈ E : Re ϕ(y) ≥ t}. Por el otro, como nuestra ϕ ∈ Eτ∗ ,
entonces ella y su parte real deben ser σ(E, Eτ∗ )-continuas y por ende el conjunto F debe ser
σ(E , Eτ∗ )
σ(E, Eτ∗ )-cerrado. Ası́ que ya tenemos la inclusión A ⊆ F.
σ(E , Eτ∗ )
Sin embargo, el puntito x cumplı́a que Re ϕ(x) < t =⇒ x ∈
/ F =⇒ x ∈ /A . Como
τ σ(E , Eτ∗ ) τ
ese x era un punto cualquiera de E \ A , hemos probado que A ⊆A .
Corolario 5.5.3. Sea (E , τ ) un ELC. Si A ⊆ E es convexo y τ -cerrado, entonces debe ser
también σ(E , Eτ∗ )-cerrado.
Observar que podemos aplicar el Cor. 5.5.3 a subespacios, para los que será lo mismo ser
fuerte o debilmente cerrados. Por otra parte, en el caso de que E fuera normado, vale para
las bolas cerradas. Esto dice que la convergencia w no puede “agrandar normas”:
Ejercicio 5.5.4. Sean E un EN, un punto x ∈ E y una sucesión x = (xn )n∈N en E tales
w
que xn −−−→ x. Probar que
n→∞
1. Nuestra x = (xn )n∈ N debe ser acotada en norma (remember Cor. 2.5.2).
3. Existe otra sucesión (zn )n∈N que ahora vive en la cápsula convexa Conv {xn : n ∈ N}
k· k
que cumple la condición más fuerte zn −−−→ 0. 4
n→∞
El siguiente resultado dice, en particular, que el Cor. 5.5.3 falla si no pedimos que los con-
juntos sean convexos. Por lo general, sucede el fenómeno de que las clausuras débiles “llenan
agujeros”, como veremos a continuación:
Proposición 5.5.5. Si E es un espacio de Banach de dimensión infinita, entonces la clausura
de SE = {x ∈ E : kxk = 1} en la topologı́a w = σ(E, E ∗ ) es toda la bola BE .
Demostración. Antes que nada, el Cor. 5.5.3 asegura que BE es σ(E, E ∗ )-cerrada. Para
σ(E,E ∗ )
probar que B1 = {x ∈ E : kxk < 1} ⊆ SE basta demostrar que todo entorno V de
todo x0 ∈ B1 corta a la esfera SE . Tomemos un básico
154
Un subespacio puesto arriba de un punto x0 ∈ B1 tiene que “cortar” a la cascara SE .
Gráficamente no quedan dudas. Veamoslo en letras: Tomemos un z0 ∈ M \ {0}, y la función
Es claro que f es continua, f (0) = kx0 k < 1 y lı́m f (t) = +∞. Luego existe un s ∈ R tal
t→∞
que f (s) = kx0 + s z0 k = 1. Esto significa que x0 + s z0 ∈ (x0 + M ) ∩ SE ⊆ V ∩ SE .
La Prop. 5.5.2 estudia clausuras con la topologı́a w de un normado. En caso de que este
sea el dual de alguien, tiene también su w∗ (que es más debil aún que su w, porque usa
solo funcionales de su pre-dual, que son muchas menos que las de su post-dual). Veremos a
continuación el renombrado teorema de Goldstine que dice que clausuras en norma y en la
w∗ pueden no coincidir, aún en conjuntos convexos, y muy famosos. Pero antes de enunciarlo
repasemos unas cosas.
Recordemos que, dado un espacio normado E, denotamos por JE : E ,→ E ∗∗ denota a la
isometrı́a natural, que en general no es epi. Por ello, JE (BE ) es cerrada en la norma de E ∗∗
(siempre que E sea un Banach), pero por lo general (si E no es reflexivo) es mucho más
chica que BE ∗∗ . Sin embargo, para la otra topologı́a usual de E ∗∗ , que es la σ(E ∗∗ , E ∗ ) (o
sea la w∗ de E ∗∗ ), veremos que JE (BE ) es siempre densa en la bola BE ∗∗ .
Teorema 5.5.6 (Goldstine). Sea E es un espacio normado y JE : E ,→ E ∗∗ es la isometrı́a
natural. Llamemos B = JE (BE ) ⊆ E ∗∗ . Luego vale que
w∗
B es σ(E ∗∗ , E ∗ ) densa en BE ∗∗ , o sea que JE (BE ) = BE ∗∗ . (5.16)
Si bien esta formulación es muy rimbombante, demos también esta otra más concreta:
Para toda ρ ∈ BE ∗∗ existe una red x = (xi )i∈ I en BE tal que ϕ(xi ) −−→ ρ(ϕ) ,
i∈ I
Como todos los términos ϕ(xi ) cumplen que |ϕ(xi )| ≤ kϕk kxi k ≤ 1, vemos que |ρ(ϕ)| ≤ 1.
Como ϕ ∈ BE ∗ era cualquiera, deducimos que kρk ≤ 1, o sea que ρ ∈ BE ∗∗ .
w∗
Llamemos A = B , que es convexo y w∗ -cerrado (incluso más: en breve veremos que es
w∗ -compacto por Alaoglu). Supongamos que existe un ρ ∈ BE ∗∗ \ A. Como (E ∗∗ , w∗ ) es un
ELC, podemos encontrar un abierto U ∈ σ(E ∗∗ , E ∗ ) que cumpla las siguientes condiciones:
155
Les podemos aplicar el teorema separación de H-B 5.3.1 a los convexos A y U (con éste
último w∗ -abierto). Él nos dice que existe una funcional Φ ∈ (E ∗∗ , w∗ )∗ tal que
Re Φ A ≤ t < Re Φ U , para cierto t ∈ R .
Como 0 ∈ A, vemos que t ≥ 0. Observar que, por el Teo. 5.1.6, sabemos que
∗
E ∗∗ , σ(E ∗∗ , E ∗ ) = JE ∗ (E ∗ ) ⊆ E ∗∗∗ =⇒ Φ = JE ∗ ϕ para cierta ϕ ∈ E ∗ .
Pero si ϕ(x) = eiθ |ϕ(x)|, la misma desigualdad vale para y = e−iθ x ∈ BE . Luego,
Esto dice que kΦk = kϕk = sup |ϕ(x)| ≤ t. Lamentablemente, por otro lado tendremos que
x∈BE
Ahora bien, el espacio C(X)∗∗ = Mr (X)∗ es inabordable. Pero uno conoce muchos de sus
elementos. Por ejemplo, si g : X → C es medible Borel y acotada, se puede definir
Z
∗
ρg ∈ Mr (X) dada por ρg (µ) = g dµ , para cada µ ∈ Mr (X) .
X
Más aún, es fácil ver (si uno sabe algo de estas cosas) que kρg k = kgk∞ . Por ejemplo,
Z Z
g dµ ≤ |g| d|µ| ≤ kgk∞ |µ|(X) = kgk∞ kµk , para toda µ ∈ Mr (X) .
X X
156
La otra desigualdad sale usando las medidas puntuales µx ∈ Mr (X), (x ∈ X) que integran
evaluando en x y tienen norma uno. Ahora llegamos al Teorema de Goldstine 5.5.6. Él
nos dice que, para cada g : X → C medible Borel y acotada, se puede encontrar una red
f = (fi )i∈ I en C(X) tal que kfi k∞ ≤ kρg k = kgk∞ para todo i ∈ I, que además cumple que
Z Z
fi dµ −−→ g dµ , para toda µ ∈ Mr (X) .
X i∈ I X
w∗
Es divertido observar que el hecho de que fi −−→ g significaba que convergen “puntualmente”,
i∈ I
pero que en este contexto los “puntos” vendrı́an a ser todas las medidas µ ∈ Mr (X). Como
ellas incluyen a las µx para los x ∈ X, eso es decir mucho más que la la otra noción de
convergencia “puntual” dada por fi (x) −−→ g(x) para todo x ∈ X.
i∈ I
Esta aproximación de las acotadas por las continuas (del mismo tamaño y para todas las
medidas con una sola red) es interesante en sı́ misma, pero es de capital importancia al
estudiar el teorema espectral para operadores acotados autoadjuntos en espacios de Hilbert.
Todo lo anterior se puede generalizar al caso en que X sea tan solo LKH, y el Banach sea
C0 (X), cuyo dual sigue siendo Mr (X). Aplicando esto a X = N con la topologı́a discreta,
releemos lo anterior como:
Esto sale a mano, pero da una idea del tipo de teorema que hemos visto. 4
5.6 Alaoglu
El siguiente teorema es lo más importante de todo el Capı́tulo. Para medir su impacto, baste
recordar que ningún espacio normado infinitodimensional puede tener bolas compactas. El
tema es que los espacios de Banach, aún siendo métricos completos, no son casi nunca
localmente compactos. Y para peor, la falta compacidad local hace fallar casi la mitad
de los teoremas que uno quisiera probar, y que uno hasta se cree que deben ser ciertos,
porque en caso finito parecen elementales. Sin embargo el hecho de que, en ciertos casos,
uno pueda usar que la bola es compacta, aunque sea para una topologı́a drásticamente más
débil, muchas veces saca las papas del fuego.
Teorema 5.6.1 (Alaoglu). Sea E un espacio normado. Entonces se tiene que
157
Definamos Φ : B → D por Φ(ϕ) = {ϕ(x)}x∈E , para ϕ ∈ B. Veamos que, si
n o
C = {λx }x∈E ∈ D : λx+y = λx + λy y λαx = αλx para todo x, y ∈ E , α ∈ K ,
Las propiedades del conjunto C hacen que ϕλ sea lineal. Pero además |ϕλ (x)| = |λx | ≤ kxk,
para todo x ∈ E. Luego tenemos que que ϕλ ∈ B. De lo anterior deducimos que Φ es
una biyección de B sobre C. Para ver que C es cerrado, basta notar que C coincide con la
intersección de las contraimágenes de {0} para las funciones continuas de D en C de la forma
Solo falta ver que que Φ : B → C es hómeo (si en C usamos la topologı́a inducida por la
producto de D). Pero esto último es inmediato, pues basta observar que en ambos conjuntos
la convergencias coinciden: ambas son la convergencia cordenada a cordenada, para cada
x ∈ E. En C porque ası́ es la la topologı́a producto. En B porque allı́ usamos la w∗ .
Corolario 5.6.2. Todo espacio de Banach E es isométricamente isomorfo a un subespacio
cerrado de C(K) para un conveniente ET compacto Hausdorff K.
Demostración. Sea K = BE ∗ , σ(E ∗ , E) , que sabemos que es compacto por el teorema de
define una distancia sobre K. Como todas las ϕn son τ -continuas, también lo serán las
funciones dx : K → R dadas por dx (y) = d(x, y), (y ∈ K). Como Bd (x, ε) = d−1
x (−ε, ε) ∈ τ ,
158
deducimos que la topologı́a métrica τd ⊆ τ . Por otro lado, si F ⊆ K es τ -cerrado, entonces
F es τ -compacto, y por ende τd -compacto. Como τd es de Hausdorff (es métrica), queda que
F es también τd -cerrado. Todo esto dice que τd = τ . O sea que K era metrizable.
Proposición 5.6.4. Si E es un espacio de Banach separable, entonces para todo K ⊆ E ∗
que sea σ(E ∗ , E)-compacto, el espacio topológico (K , w∗ ) es metrizable.
Demostración. Si {xn : n ∈ N} es denso en E entonces {JE xn : n ∈ N} distingue los puntos
de E ∗ y, con mayor razón, los de K. Luego se aplica el lema anterior.
Corolario 5.6.5. Si E es un Banach separable, entonces BE ∗ , σ(E ∗ , E) es un ET compacto
que es un subespacio cerrado de codimension finita (basta intersectar los nucleos de los finitos
generadores del entorno Un ). Observar que Mn ⊆ Un para todo n ∈ N.
Por el Teor. de Baire 2.2.4, una unión numerable de subespacios finitodimensionales no
puede cubrir a todo Sel Banach E ∗ (son cerrados de interior vacı́o). Tomemos entonces una
funcional ϕ0 ∈ E ∗ \ Sn 6= ∅. Para cada n ∈ N, el Lema 5.1.7 nos dice que
n∈N
\
ϕ0 ∈
/ Sn ⇐⇒ Mn = ker ϕ 6⊆ ker ϕ0 , (5.17)
ϕ∈Sn
de nuevo porque podemos realizar a Mn como una intersección finita de núcleos. Ahora
bien, tomemos el entorno U0 = {x ∈ E : |ϕ0 (x)| < 1}. Si me dan ahora un n ∈ N, por
la Ec. (5.17) puedo encontrar un xn ∈ Mn tal que ϕ0 (xn ) 6= 0. Luego existe un N ∈ R∗+
tal que |ϕ0 (N xn )| = N |ϕ0 (xn )| > 1, por lo que N xn ∈
/ U0 , aunque sigue pasando que
N xn ∈ Mn ⊆ Un . En otras palabras, ningún Un vive adentro de U0 , ası́ que β no puede ser
una base de entornos del cero. Por todo ello, E , σ(E, E ∗ ) NO es N1 . 4
159
Observación 5.6.7. Recordemos el Ejer. 2.7.10 sobre `1 = `1 (N), que decia que para que
una sucesión acotada de `1 converja a cero alcanza que lo haga “contra” las funcionales de
su dual (`1 )∗ ∼
= `∞ , lo que ahora llamarı́amos “converge débilmente a cero”.
Ahora bien, en el Cor. 2.5.2 (y el Ejer. 5.5.4) vimos que si una sucesión va débilmente a cero
ya tenı́a que ser acotada. Luego la hipótesis de acotación del Ejer. 2.7.10 estaba de más.
Recapitulando, podemos deducir que en `1 una sucesión converge en norma ⇐⇒ converge
débilmente. Como la convergencia caracteriza la topologı́a, uno tiende a pensar que las
topologı́as de la norma y la débil deberı́an coincidir en `1 . Sin embargo ese enunciado es
bien falso. Por ejemplo porque los entornos básicos de la débil no pueden ser acotados, y no
podemos meter ninguno dentro de una bolita de la norma. ¿Porque será? 4
1. E es reflexivo.
2. E ∗ es reflexivo.
Demostración.
1 ⇒ 4: El Teo. de Alaoglu 5.6.1 dice que BE ∗∗ es σ(E ∗∗ , E ∗ )-compacta. Luego, dada una red
x = (xi )i∈ I en BE , ella tiene una subred y = (yj )j∈ J tal que ybj (ϕ) = ϕ(yj ) −−→ ρ(ϕ) para
j∈ J
una cierta ρ ∈ BE ∗∗ y toda ϕ ∈ E ∗ . La reflexividad de E asegurarı́a que existe un x ∈ BE
w
tal que ρ = JE x, por lo que yj −−→ x. Eso dice que BE es σ(E, E ∗ )-compacta.
j∈ J
4 ⇒ 1: Sea F = JE (E) v E ∗∗ . Como JE es isométrica, BF = JE (BE ). La topologı́a
inducida por σ(E ∗∗ , E ∗ ) en BF coincide con la w que se trae de BE , porque de ambos lados
la convergencia es contra todas las ϕ ∈ E ∗ . Luego la hipótesis de 4 se traduce a que BF sea
w∗ -compacta en E ∗∗ .
Sin embargo, el Teo. de Goldstine 5.5.6 dice que BF es w∗ -densa en BE ∗∗ . Ambos hechos
prueban que BF = BE ∗∗ , por lo que JE debe ser epi, y E reflexivo.
1 ⇒ 3: Como JE : E → E ∗∗ es sobre, las topologı́as σ(E ∗ , E) y σ(E ∗ , E ∗∗ ) están generadas
por las mismas funcionales, por lo que coinciden.
3 ⇒ 2: Por el Teo. de Alaoglu 5.6.1, BE ∗ es σ(E ∗ , E)-compacta. Si asumimos ahora la
condición 3, traducimos a que BE ∗ es σ(E ∗ , E ∗∗ )-compacta. Aplicándole al espacio E ∗ la
implicación 4 ⇒ 1 ya demostrada, nos queda que E ∗ es reflexivo.
160
2 ⇒ 1: Sigamos con la notación JE (E) = F ⊆ E ∗∗ . Recordemos que, por la Prop. 5.5.2, la
bola BF ⊆ E ∗∗ , al ser k · k-cerrada y convexa, debe ser también σ(E ∗∗ , E ∗∗∗ )-cerrada. Como
E ∗ es reflexivo BF es también σ(E ∗∗ , E ∗ )-cerrada (ya vimos que 1 ⇒ 3, y se lo podemos
aplicar a E ∗ ). Pero el Teo. de Goldstine 5.5.6 decı́a que BF es σ(E ∗∗ , E ∗ )-densa en BE ∗∗ .
Ası́, BF coincide con BE ∗∗ y, como en 4 ⇒ 1, E nos queda reflexivo.
5.8 Miscelánea
Recordemos que, si E es un EN y B ⊆ E, decı́amos que B es w-acotado si para toda ϕ ∈ E ∗
el conjunto ϕ(B) es acotado en C. En el Cor. 2.5.2, justo después del PAU, mostrábamos
que si E es Banach, entonces ser w-acotado alcanza para ser acotado en la norma de E.
Proposición 5.8.1. Sean E , F dos EB y sea T : E → F un operador lineal. Llamemos
T 0 : F 0 → E 0 su adjunto lineal. Entonces las suguientes condiciones son equivalentes:
1. T ∈ L(E , F ).
w w
si xi −−→ x (en E) =⇒ T xi −−→ T x (en F ) . (5.18)
i∈ I i∈ I
Demostración. Es claro que 1 =⇒ 2. Asumamos ahora 2. Sean x = (xi )i∈ I una red en E
w
y x ∈ E tales que xi −−→ x. Dada una φ ∈ F ∗ , tenemos que T 0 (φ) = φ ◦ T ∈ E ∗ . Luego
i∈ I
φ T xi ) = φ ◦ T xi −−→ φ ◦ T x = φ T x) .
i∈ I
w
Como esto pasa para toda φ ∈ F ∗ ya tenemos que T xi −−→ T x. Esto fue 2 =⇒ 3.
i∈ I
Esto significa que T (BE ) es w-acotada en F . Aplicando ahora el Cor. 2.5.2 llegamos a que
T (BE ) es acotada en norma, por lo que T ∈ L(E , F ). Esto fue 2 =⇒ 1. Basta.
Corolario 5.8.2. Sean E , F dos EB y sea T ∈ L(E , F ). Asumamos que E es reflex.
Entonces T manda la bola BE a una elipse T (BE ) que es k · k- cerrada dentro de F .
161
k·k
Demostración. Sea x = (xn )n∈ N una sucesión en la BE tal que T xn −−−→ z ∈ F . El
n→∞
reciente Teo. 5.7.1 nos dice que BE es w-compacta. Luego hay una subred y = (yj )j∈ J de x
w
tal que yj −−→ y ∈ BE . Por un lado, la subredicidad nos asegura que
j∈ J
k·k k·k w
T xn −−−→ z =⇒ T yj −−→ z =⇒ T yj −−→ z .
n→∞ j∈ J j∈ J
Por otro lado, usando la Prop. 5.8.1 sabemos que T respeta convergencias débiles. Luego
w w
yj −−→ y ∈ BE =⇒ T yj −−→ T y ∈ T (BE ) .
j∈ J j∈ J
Como la topologı́a w es Hausdorff, los dos lı́mites tienen que coincidir. En otras palabras,
llegamos a que z = T y ∈ T (BE ). Ası́ que T (BE ) era cerrada, nomás. Lo de la elipse era
medio una joda, que no deberı́a eclipsar la importancia del resultado.
162
5.9 Ejercicios del Cap 5: ELC’s
Ejercicios aparecidos en el texto
5.9.1. Sea E un K-EV. Se tienen las siguientes propiedades:
5. Dada un topologı́a τ que haga de E un EVT, para todo convexo A ⊆ E se tiene que su τ -clausura
τ
A es también convexo.
5.9.2. Sea (E, τ ) es un ELC. Dados K ⊆ E convexo compacto y F ⊆ E convexo cerrado tales que K ∩F = ∅,
existen una ϕ ∈ (E, τ )∗R y un α ∈ R tales que
4. Haciendo dibujos de convexos en R2 uno podrı́a arriesgar que en el item anterior se podrı́a conseguir
una φ ∈ E ∗ tal que mφ (K) = {x} solito. Pero eso es falso en general (aún si K es compacto).
Contraejemplificarlo en R2 . 4
5.9.4. Sea E es un K-EV y sea K ⊆ E. Si me dan un conjunto A0 ⊆ K que es extremal para K, y otro
A1 ⊆ A0 que es extremal para A0 , probar que A1 es también extremal para K. 4
5.9.5. Sea E es un K-EV. Sean K ⊆ E un convexo, y x ∈ K. Probar que
163
w
5.9.7. Sean E un EN, x ∈ E y una sucesión x = (xn )n∈N en E tales que xn −−−−→ x, probar que
n→∞
1. Nuestra x = (xn )n∈ N debe ser acotada en norma (remember Cor. 2.5.2).
3. Existe otra sucesión (zn )n∈N que ahora vive en la cápsula convexa Conv {xn : n ∈ N} que cumple la
k· k
condición más fuerte zn −−−−→ 0. 4
n→∞
Ejercicios nuevos
5.9.8. Sea E un EB. Dados x ∈ E y una sucesión (xn )n∈N en E, probar que
w
1. Si xn −−−−→ x entonces xn −−−−→ x.
n→∞ n→∞
w
2. Si dim E < ∞, ahı́ vale que xn −−−−→ x ⇐⇒ xn −−−−→ x.
n→∞ n→∞
5.9.9. Sean E y F espacios de Banach y T : E → F una transformación lineal. Entonces, las siguientes
afirmaciones son equivalentes:
1. T es acotada.
2. T ∗ (F ∗ ) ⊆ E ∗ .
5.9.12. Sea E = `∞ (N). Si (ϕn )n∈N es la sucesión en E ∗ dada por ϕn (x) = xn para x = (xn )n∈ N ∈ E y
n ∈ N. Probar que
(n)
x(n) −−−−→ x ⇐⇒ sup kx(n) kp < ∞ y lim xk = xk para todo k∈N.
n→∞ n∈N n→∞
5.9.14. Sea H un EH. Dados x ∈ H y una sucesión (xn )n∈N en H, probar que
w
1. xn −−−−→ x ⇐⇒ hxn , yi −−−−→ hx , yi para todo y ∈ H (este es Rieszible).
n→∞ n→∞
w
2. Si {en : n ∈ N} es un SON en H, entonces en −−−−→ 0.
n→∞
164
5.9.15. Sean ϕ ∈ L∞ [0, 1] y (ϕn )n∈N una sucesión en L∞ [0, 1]. Consideremos los operadores de multipli-
cación asociados Mϕ y Mϕn (n ∈ N ) todos ellos en L(L2 [0, 1]). Probar que
w∗ w
ϕn −−−−→ ϕ en L∞ [0, 1] = L1 [0, 1]∗ ⇐⇒ Mϕn f −−−−→ Mϕ f para toda f ∈ L2 [0, 1] .
n→∞ n→∞
5.9.16. Probar que C[0, 1] es cerrado en L∞ [0, 1] con la topologı́a inducida por la norma k · k∞ pero no en
la topologı́a w∗ .
5.9.17. Sea E un EVT. Dados K , V ⊆ E tales que K es compacto y V es abierto y K ⊆ V , probar que
existe un entorno U del cero tal que K + U ⊆ V .
5.9.18. Sea E un espacio vectorial y A y B subconjuntos convexos de E. Probar que para todo par de
números reales a y b el conjunto aA + bB es convexo.
5.9.19. Sea E un espacio vectorial y A un subconjunto convexo de E. Probar que
def
si x ∈ A◦ and y∈A =⇒ [x, y) = {(1 − λ) x + λ y : λ ∈ [0, 1) } ⊆ A◦ .
5.9.20. Sea E un espacio de Banach reflexivo y F un subespacio cerrado de E. Probar que para todo x ∈
/F
existe un un x0 ∈ F tal que kx − x0 k = min{kx − yk : y ∈ F }.
5.9.21. Sean E , F dos EB y sea T ∈ L(E , F ). Probar que T ∗ pensado como T ∗ : (F ∗ , w∗ ) → (E ∗ , w∗ )
es también continua. Deducir como en el Cor. 5.8.2 que T ∗ (BF ∗ ) es k · k cerrada en E ∗ .
w∗
Sug: Si ϕi −−→ ϕ en F ∗ y x ∈ E, entonces Tϕ∗i x = ϕi (T x) −−→ ϕ(T x) = Tϕ∗ x.
i∈ I i∈ I
2 1
Veamos un ejemplo: Sea T ∈ L(` , ` ) dada por T x = ( xnn )n∈N
para x = (xn )n∈ N ∈ `2 .
1. Usando Cauchy-Schwarz mostrar que kT k2 ≤ n∈N 1/n2 .
P
2. Su adjunto T ∗ ∈ L(`∞ , `2 ) se define (en las entradas) igual que T , multiplicando por 1
n .
3. Mostrar que T ∗ (B`∞ ) es compacta. Observar que da justo el cubo de Hilbert del Ejer. 3.8.18. 4
Definición 5.9.22. Sean E y F dos EB’s. Fijemos una red T = (Ti )i∈ I y un T , todos en L(E, F ).
S.O.T.
1. Decimos que Ti −−−−→ T (se lee “Ti converge fuertemente a T ”) si para cualquier x ∈ E se tiene que
i∈I
k·k
Ti x −−→ T x (en la norma de F ).
i∈ I
W.O.T.
2. En cambio Ti −−−−→ T (se lee “Ti converge debilmente a T ”) si para cualquier x ∈ E se tiene que
i∈I
w
Ti x −−→ T x (en la débil σ(F , F ∗ ) de F ). En otras palabras, si
i∈ I
5.9.23. Sean E y F dos EB’s. En L(E , F ) se consideran las topologı́as S.O.T y W.O.T vı́a las convergencias
homónimas.
1. Caracterizar las familias de seminormas que producen las topologı́as S.O.T y W.O.T de L(E , F ).
165
Capı́tulo 6
Espectro
• A es un C-EV.
• Es además un anillo con la misma suma que tenı́a como EV, y un producto nuevo.
166
Definición 6.1.1. Un álgebra de Banach (abreviaremos AB) es una C-álgebra A que además
tiene una norma k · k que la hace un EB, junto con la condición de submultiplicatividad:
En caso de que 1 ∈
/ A diremos que A es un AB sin unidad. 4
Ejemplos 6.1.2. Los ejemplos más comunes de AB’s son:
4. Otra AB sin uno famosa es L1 (R) con el producto de convolución. En cambio `1 (Z)
con la convolución sı́ tiene uno, porque la delta de Dirac existe en el caso discreto.
5. La familia de ejemplos que más nos interesa ahora es la de L(E) para E un EB complejo,
con la norma de operadores (vimos que es submultiplicativa). De paso eso incluye las
álgebras de matrices (cuando dim E < ∞).
Observar que los ejemplos anteriores eran todos conmutativos, mientras que los L(E)
(y las matrices) son el paradigma del álgebra no conmutativa. 4
Ejercicio 6.1.3. Sea A0 una AB sin uno. Consideremos entonces un 1 virtual y definamos
el álgebra A = C · 1 + A0 con los siguientes datos: Dados λ1 + a y µ1 + b ∈ A,
Probar que entonces A es un álgebra de Banach con uno (adivinen quien), de la que A0 es
un ideal bilátero cerrado y maximal (y las nuevas operaciones coinciden con las viejas). 4
167
Teorema 6.1.4. Sea A un AB. Tenemos las siguientes propiedades:
∞
1
ck converge a un a ∈ A tal que kak ≤ . Entonces cn −−−→ 0 y
P
Luego, la serie 1−kck
k=1 n→∞
N N NP
+1
ck = ck − ck = 1 − cN +1 −−−→ 1 =⇒ (1 − c) a = 1 .
P P
(1 − c)
k=0 k=0 k=1 N →∞
−1 −1
Además se tiene que b−1 = 1 − a−1 (b − a)
a , por lo que
ka−1 k ka−1 k 1
kb−1 k ≤ −1
≤ −1
= −1 −1 . (6.3)
1 − ka (b − a)k 1 − ka k kb − ak ka k − kb − ak
Usando 2 sale de una que GA es abierto en A. Para ver la continuidad de invertir, tomemos
−1 −1
bn −−−→ a (todos en GA ). A partir de algún momento se tendrá que kbn − ak < ka 2k .
n→∞
Luego la Eq. (6.3) nos asegura que sup kb−1
n k < ∞ . Despues se usa que
n∈N
a−1 − b−1 −1 −1
n = a (bn − a)bn =⇒ ka−1 − b−1 −1 −1
n k ≤ ka k kbn k kbn − ak −−−→ 0 .
n→∞
Finalmente, la continuidad de invertir implica que es hómeo, porque su inversa (ahora como
función) es ella misma.
168
Ahora sı́ tenemos el backround básico como para definir el espectro:
Definición 6.1.5. Sean A una C-AB y a ∈ A. Definimos las siguientes nociones:
1. El espectro de a es el conjunto
σ(a) = λ∈C : λ−a∈
/ GA . (6.4)
si ab = ba y además ab ∈ GA =⇒ a y b ∈ GA . (6.6)
Sugerimos mostrar que tanto a como b conmutan con ab, y por ello con (ab)−1 . 4
Antes de probar las propiedades básicas del espectro y de dar los ejemplos más ilustrativos,
necesitamos un par de resultados técnicos de análisis complejo en este contexto.
Proposición 6.1.7. Sea A un AB y sea a ∈ A. Luego se cumplen las siguientes propiedades:
donde hemos usado que (a − λ) y B(a) conmutan, por lo que el hecho de que λ ∈ σ(a)
(6.6)
asegura que (a − λ) ∈
/ GA =⇒ (a − λ)B(a) ∈
/ GA . Ası́ que P σ(a) ⊆ σ P (a) .
169
Dado ahora un µ ∈ σ P (a) , definamos y factoricemos el poli Q ∈ C[X] dado por
n
Y
Q(x) = P (x) − µ = cn (x − λk ) donde las raı́ces de Q son λk ∈ C , k ∈ In .
k=1
n
Q
Nos queda que Q(a) = P (a) − µ = cn (a − λk ) ∈
/ GA . Luego alguno de los factores
k=1
(a − λk ) ∈
/ GA (esto sale porque GA es un grupo), por lo que λk ∈ σ(a) y µ = P (λk ).
Probemos ahora el item 2: Tomemos un λ ∈ C tal que |λ| > kak. Entonces tenemos que
k λa k < 1. Ahora podemos usar el Teo. 6.1.4 y llegamos a que
a
(λ − a) = λ 1 − ∈ GA =⇒ λ ∈
/ σ(a) . (6.8)
λ
Eso implica que ρ(a) ≤ kak. Por otro lado, vimos arriba (item 1 con P (x) = xn ) que
∞
αn an converge en A.
P
Luego, para todo a ∈ A con kak ≤ M , la serie f (a) =
n=0
∞
αn z n en BM , entonces tenemos que
P
La idea es que si f (z) =
n=0
∞
X ∞
X
f (λ) − f (a) = αn (λn − an ) = (λ − a) αn Pn−1 (λ , a) ,
n=0 n=1
170
donde los polinomios Pn−1 (λ , a) se pueden calcular y acotar para que la serie converja a
un b ∈ A que conmuta con a. Observar que σ(a) ⊆ BM . Ası́ que todas estas cuentas que
involucran series, convergen bien en todo λ ∈ σ(a). 4
Teorema 6.1.10. Sea A un AB y sea a ∈ A. Entonces vale que
1. El espectro σ(a) es compacto y no vacı́o.
Demostración. Como GA es abierto, es fácil ver que σ(a) es cerrado. Pero hagámoslo más
explı́cito porque nos servirá después. Fijemos un λ ∈ Res(a). Veremos que si z ∈ C cumple
que |z| < kRa (λ)k−1 entonces también λ − z ∈ Res(a), porque podemos hacer
∞
−1
−1 X
Ra (λ)n+1 z n .
Ra (λ − z) = (λ − a − z) = (λ − a) (1 − Ra (λ) z ) = (6.11)
n=0
Esto claramente da que Res(a) es abierto por lo que σ(a) es cerrado. Además sabemos que
ρ(a) ≤ kak por lo que σ(a) ya es compacto. Pero tenemos que ver que σ(a) 6= ∅.
Para ello fijemos una ϕ ∈ A∗ y definamos f : Res(a) → C por f (λ) = ϕ(Ra (λ) ). Dado un
λ ∈ Res(a) tomemos el entorno λ + Uλ , con Uλ = {z : |z| ≤ kRa (λ)k−1 }. Por la Eq. (6.11)
y la continuidad de ϕ (que le permite “entrar” en la serie), vemos que
∞
X
f (λ − z) = ϕ(Ra (λ − z) ) = ϕ(Ra (λ)n+1 ) z n para todo z ∈ Uλ .
n=0
Eso nos dice que f es holomorfa en todo Res(a). Por otro lado, recordemos de la Eq. (6.9)
que, para los λ ∈ C tales que |λ| > kak se tiene que
∞
X ∞
X
−n−1
f (λ) = ϕ(Ra (λ) ) = λ n
ϕ(a ) =⇒ |f (λ)| ≤ |λ|−n−1 kakn kϕk . (6.12)
n=0 n=0
Deducimos que |f (λ)| −−−−→ 0. Si ahora supusiéramos que σ(a) = ∅, entonces f serı́a entera
|λ|→∞
y nula en el infinito. Por el Teorema de Liouville, f deberı́a ser toda ella nula.
Llegarı́amos a que, para algún λ ∈ Res(a) fijo, deberı́a valer que ϕ( (λ − a)−1 ) = 0 para
toda funcional ϕ ∈ A∗ . Pero eso dirı́a (por H-B) que (λ − a)−1 = 0 además de ser inversible.
Difı́cil encontrar algo más absurdo. Luego σ(a) 6= ∅.
171
Con respecto a la fórmula del radio espectral, volvamos a fijar la ϕ ∈ A∗ . Consideremos la
variable z = λ−1 y la función g(z) = f (z −1 ) = f (λ) para los z 6= 0. Por (6.12) vemos que
∞
X
g(z) = ϕ(an ) z n+1 para todo z ∈ C tal que 0 < |z| = |λ|−1 < kak−1 .
n=0
Fijemos ahora un r > ρ(a) y tomemos los λ = r ei θ . Integrando la serie de λn+1 f (λ) queda
Z 2π ∞ Z
X 2π
n+1 i(n+1) θ iθ
r e f (r e ) dθ = rn−m ei(n−m) θ ϕ(am ) dθ = 2π ϕ(an ) ,
0 m=0 0
porque, como las primitivas de las ei(n−m) θ valen lo mismo en 0 que en 2π si n 6= m, la única
integral que no se anula es la de m = n. Tomemos M (r) = sup kRa (r ei θ )k, que es finito
0≤θ≤2π
porque se lo toma en un compacto. Luego |f (r ei θ )| ≤ kϕk kRa (r ei θ )k ≤ kϕk M (r) para
todo θ ∈ [0 , 2π]. Estimando lo de arriba nos queda que
para cualquier r > ρ(a). Tomando raı́ces enésimas y lı́mites superiores sale que
6.1.7
lim sup kan k1/n ≤ inf r = ρ(a) ≤ inf kan k1/n ≤ lim inf kan k1/n ,
n→∞ ρ(a)< r n→∞ n→∞
n+1 1
porque r n M (r) n −−−→ r. Con eso terminamos la prueba.
n→∞
Corolario 6.1.11. Sea A un AB que es un anillo de división (o sea que todo elemento no
nulo es inversible: GA = A \ {0}). Estonces A = C · 1A ∼
= C.
Demostración. Veamos que la flecha C 3 λ 7→ λ 1A es suryectiva. En efecto, todo a ∈ A
cumple que σ(a) 6= ∅. Luego existe algún λ ∈ σ(a). Pero entonces tenemos que
λ 1A − a ∈
/ GA =⇒ λ 1A − a = 0 =⇒ λ 1A = a .
172
6.2 Ejemplos y ejercicios
Ahora que sabemos que el espectro es tan bueno, enumeraremos una serie de propiedeades
facilongas para acostumbrernos a laburar con él. Recomendamos leerlas cuidadosamente,
porque las usaremos seguido, y citaremos poco.
6.2.1. Sea A un AB. Se tienen las siguientes propiedades: Sean a ∈ A y µ ∈ C.
1. σ(0A ) = {0} y σ(1A ) = {1}.
def
2. σ(µ a) = µ σ(a) = {µ λ : λ ∈ σ(a)}. En particular σ(−a) = −σ(a).
def
3. σ(a + µ 1A ) = µ + σ(a) = {µ + λ : λ ∈ σ(a)}.
def
/ σ(a). En tal caso σ(a−1 ) = σ(a)−1 = {λ−1 : λ ∈ σ(a)}.
4. a ∈ GA ⇐⇒ 0 ∈
Eso muestra que σ(a−1 ) = σ(a)−1 . Si vamos al iso Γ : A → B, es fácil ver que
por lo que Γ(GA ) ⊆ GB , con Γ(a)−1 = Γ(a−1 ). Usando el iso Γ−1 : B → A que es tan
bueno como Γ, sale la otra inclusión. En resumen, Γ(GA ) = GB . Con esto la igualdad de los
espectros se demustra sin dificultades. La de los polinomios sale por la Prop. 6.1.7. 4
Ejercicio 6.2.2. Sea A un AB. Ahora va otra porpiedad que es mucho menos facilonga:
Veamos los espectros de elementos de las AB’s conocidas. En la mayorı́a de los casos alcanza
caracterizar el grupo GA de un álgebra A para poder calcular el espectro de sus elememtos.
173
6.2.3. Sea K un compacto-H y A = C(K) = {f : K → C : f es continua }. Entonces
GC(K) = {g ∈ C(K) : 0 ∈
/ g(K)} y σ(f ) = f (K) = {f (x) : x ∈ K}
para toda f ∈ C(K). En efecto, como el producto en C(K) es punto a punto (y por ello
conmutativo), podemos caracterizar a los elementos de GC(K) de la siguiente forma:
g ∈ GC(K) ⇐⇒ existe h ∈ C(K) tal que g(x) h(x) = 1(x) = 1 para todo x ∈ K .
1
O sea que h(x) = g(x) para todo x ∈ K. Pero tal función existe (y en tal caso es continua)
⇐⇒ g(x) 6= 0 para todo x ∈ K. Ahora la caracterización σ(f ) = f (K) sale con fritas.
En el caso de que K sea Hausdorff pero no compacto, se puede considerar el espacio de
funciones complejas continuas y acotadas Cb (K), que es otra AB con la k · k∞ . En tal caso
lo arriba expuesto sigue valiendo siempre que uno reemplace f (K) por f (K) en todas sus
apariciones. La falta de compacidad deja de garantizar que son la misma cosa. 4
6.2.4. Sea ahora A = L∞ = L∞ (X , Σ , µ). Dada f ∈ L∞ definamos su rango esencial
n o
Re (f ) = λ ∈ C : µ y ∈ X : |f (y) − λ| < ε 6= 0 para todo ε > 0
n o (6.14)
λ ∈ C : µ f −1 BCa (λ , ε)
= 6= 0 para todo ε>0 .
GL∞ = {g ∈ L∞ : 0 ∈
/ Re (g)} y σ(f ) = Re (f ) para toda f ∈ L∞ .
La prueba es similar al caso continuo: Como el producto es punto a punto, tenemos que
ctp 1
g ∈ GL∞ ⇐⇒ existe g −1 = ∈ L∞ ⇐⇒ 0 ∈
/ Re (g) ,
g
donde el ⇐⇒ de la derecha sale porque tenemos la siguiente igualdad
1 1
µ y ∈ X : | g(y) | < ε =µ y∈X: >M = .
|g(y)| ε
Que el de la derecha se anule para algún M grande (eso es que 1/g ∈ L∞ ) equivale a que el
de la izquierada se anule para un ε chico (eso es que 0 ∈
/ Re (g) ).
Observar que si X tiene una topologı́a Hausdorff tal que la medida de los abiertos (no vacı́os)
nunca es nula, entonces podemos considerar la subálgebra de Banach Cb (X) ⊆ L∞ (X). Un
buen ejercicio para entender qué es el Re es mostrar que si h ∈ Cb (X), entonces se cumple
que Re (h) = h(X). Eso dice que el espectro de h en las dos álgebras en las que vive es el
mismo. De hecho, es casi lo mismo que probar que las dos k · k∞ coinciden en Cb (X).
El caso paradigmático es cuando X es un compacto dentro de Rn y la medida es la de
Lebesgue. En tal caso C(X) ⊆ L∞ (X), las normas coinciden y los espectros también. 4
174
Ejercicio 6.2.5. En el caso discreto de `∞ (I), donde también multiplicamos “ i a i ” y queda
un AB con su k · k∞ , probar que
1. GB ⊆ GA ∩ B, pero la inclusión puede ser estricta (mirar la función e1 del el Ejem. 6.2.6).
σB (a) = {λ ∈ C : λ − a ∈
/ GB } y σA (a) = σ(a) = {λ ∈ C : λ − a ∈
/ GA } .
Se tiene que σA (a) ⊆ σB (a), pero que la inclusión puede ser estricta.
def
3. Sin embargo, ρ(a) = ρB (a) = sup |λ|.
λ∈σB (a)
4. Más aún, mostrar que (en cualquier AB, pongamos ahora A) una sucesión (an )n∈ N en
GA converge al borde ∂ GA de GA ⇐⇒ ka−1 n k −−−→ ∞, lo que no depende del álgebra
n→∞
en donde vivan.
5. Deducir que ∂ GB ⊆ ∂ GA .
175
6. Interpretar lo anterior como que σB (a) consiste de tomar el conjunto σA (a) y “llenar”
algunos de sus “agujeros”. Estos se pueden ver como las componentes conexas y
acotadas del abierto C \ σA (a) . Cotejar esto con el Ejem. 6.2.6.
7. Deducir que los elementos a ∈ B que tienen su espectro σB (a) “chatito” (i.e., sin
interior) cumplen que σB (a) = σA (a).
6.2.2 Gelfand
Ejercicios 6.2.8. Sea A un AB y sea I ⊆ A un ideal (si no se aclara es bilátero) cerrado.
1. Probar que el anillo A/I con la norma cociente vista en la Prop. 1.7.1 es un AB.
XA = {ϕ ∈ A∗ : ϕ es multiplicativa y unital }
6. Deducir que todo caracter ϕ ∈ XA tiene kϕk = 1 (porque |ϕ(a)| ≤ ρ(a) ≤ kak).
a (ϕ) = ϕ(a)
b para ϕ ∈ XA y a∈A
kΓ(a)k∞ = kb
ak∞ = ρ(a) (el radio espectral) . (6.15)
176
10. Probar que ker Γ = Rad(A) el radical de Jacobson de A, que es la intersección de los
ideales maximales de A. Deducir que Rad(A) = {a ∈ A : σ(a) = {0} }, los elementos
denominados cuasi-nilpotentes de A. Adivinen de dónde sale el nombre. 4
donde ϕx (f ) = f (x) para f ∈ C(K). Eso da una prueba por el camino más largo de que
cosa que ya habı́amos visto en el Ejem. 6.2.3. Deducir que, identificando K con XC(K) como
se hizo arriba, la transformada de Gelfand de C(K) es la identidad: fb(ϕx ) = ϕx (f ) = f (x) .
Esto significa que toda AB conmutativa A se “representa” vı́a Gelfand en un C(K) (ambas
con el mismo espectro K), y que esa representación es la natural si A ya era un C(K). 4
Ejercicio 6.2.10. Sea ahora Y un ET que es de Tychonoff. El AB conmutativa que nos
interesa es A = Cb (Y ), o sea las funciones complejas actadas y continuas en Y . Llamemos
β(Y ) al espacio compacto de caracteres XCb (Y ) . Probar que
3. Antes de seguir, mostrar que en este caso Γ es un morfismo isométrico sobre. Para ello
comparar norma con radio espectral en Cb (Y ), y usar S-W 3.6.3.
177
Ejemplo 6.2.11. Este va a tı́tulo de divulgación y propaganda, pero sigue siendo ejercicio
para lectores con muchos años de análisis. Consideremos el espacio L1 (R) con la Lebesgue.
Es un AB sin uno, cuando uno le pone el producto de convolución
Z
f ∗ g (t) = f (t − s) g(s) ds para f , g ∈ L1 (R) y t ∈ R .
R
Sea A = C 1 + L1 (R), como en el Ejer. 6.1.3. Nos queda un AB conmutativa con uno.
Se puede ver que XA es la compactación de Alexandrov (un punto) de R, donde el ∞ es el
caracter que tiene nucleo L1 (R) y los demás se verán en la siguiente fórmula. El hecho notable
es que con estas identificaciones, la restricción de la transformada de Gelfand Γ : A → C(XA )
al ideal L1 (R) toma valores en el álgebra C0 (R) y miren quién es:
Z
1
Γ : L (R) → C0 (R) está dada por Γf (s) = f (s) = b f (t) e−i s t ds ,
R
Observar que la serie que define a cada fa (ω) converge absolutamente porque a ∈ `1 (Z). La
imagen Γ(`1 (Z) ) se llama el álgebra de Wiener (continuas en T con coeficientes de Fourier
sumables), y tiene apariciones fulgurantes en análisis armónico. Hay una gran cantidad
de detalles que no justificamos, pero vale la pena chamuyar sobre qué dan las cosas, para
enterarse de que la de Gelfand es una transformada pulenta (ver el Ejer. 6.7.24). 4
178
pero no sobre (de esos suele haber muchos cuando dim E = ∞), entonces 0 no es autovalor
porque T es mono, pero sı́ está en el espectro de T porque T no es epi.
Más adelante dividiremos al σ(T ) en distintas clases (las distintas posibles causas de la no
invertibilidad de los λ I −T ). Pero antes veamos algunas propiedades más genéricas y muchos
ejemplos. Empecemos por la adjunta de un operador:
Antes de enunciar las cosas aclaremos un eventual malentendido. Si H es un EH y A ∈ L(H),
entonces A∗ ∈ L(H) opera en H (es el del Teo. 4.1.6) y no es (exactamente) lo mismo que
el adjunto de A que opera en H∗ (según la Def. 2.6.2 para EN’s generales). Hay en el medio
una identificación (vı́a el Teor. de representación de Riesz) entre H∗ y H que es antilineal.
Esto produce un cambio en el cálculo del espectro de A∗ , como veremos ahora:
Proposición 6.3.1. Sean E un EB y H un EH.
1. Si T ∈ L(E), entonces T ∗ ∈ L(E ∗ ) cumple que σ(T ∗ ) = σ(T ).
2. En cambio, si A ∈ L(H), vale que σ(A∗ ) = { λ : λ ∈ σ(A)}.
Demostración. El tema clave es que un S ∈ Gl (E) ⇐⇒ S ∗ ∈ Gl(E ∗ ), como asegura la
Prop. 2.6.12. Además (λ S)∗ = λ S ∗ para cada λ ∈ C (porque S ∗ ϕ = ϕ ◦ S para las ϕ ∈ E ∗ ).
Luego, dado λ ∈ C tenemos que (λIE −T ) ∈ Gl (E) ⇐⇒ (λ IE −T )∗ = λ IE ∗ −T ∗ ∈ Gl(E ∗ ).
En cambio, si trabajamos en L(H) sigue valiendo que B ∈ Gl (H) ⇐⇒ B ∗ ∈ Gl (H), pero
ahora tenemos que (λ B)∗ = λ B ∗ para los λ ∈ C (Teo. 4.1.6). Por lo tanto, ahora vale que
λ IH − A ∈ Gl (H) ⇐⇒ (λ IH − A)∗ = λ IH − A∗ ∈ Gl (H) .
Como siempre, esto implica que σ(A∗ ) = { λ : λ ∈ σ(A)}.
Corolario 6.3.2. Sea H un EH. Si U ∈ U(H), entonces σ(U ) ⊆ T = {λ ∈ C : |λ| = 1}.
Demostración. Por un lado, la Prop. 6.1.7 dice que
ρ(U ) ≤ kU k = 1 =⇒ σ(U ) ⊆ {λ ∈ C : |λ| ≤ 1} .
Pero al mismo tiempo tenemos que U ∗ = U −1 ∈ U(H) y tiene kU −1 k = 1, por lo que
6.2.1 (4)
{λ−1 : λ ∈ σ(U )} = σ(U −1 ) ⊆ {λ ∈ C : |λ| ≤ 1} .
Juntando ambas cosas sale que λ ∈ σ(U ) =⇒ |λ| = 1.
Observación 6.3.3. Sea T ∈ L(H). Está claro que los λ ∈ σ(T ) no tienen porqué ser
autovalores. Sin embargo una propiedad del estilo deben cumplir: Para todo λ ∈ σ(T )
existe una sucesión (xn )n∈ N en BH tal que
kT xn − λ xn k −−−→ 0 o sinó kT ∗ xn − λ xn k −−−→ 0 . (6.16)
n→∞ n→∞
179
6.3.4. Pensemos en el Banach Lp = Lp (X , Σ , µ) para 1 ≤ p ≤ ∞. Dada una f ∈ L∞ ,
en 1.8.2 estudiábamos el operador Mf ∈ L(Lp ) dado por Mf g = f g para g ∈ Lp . Tenı́a
kMf k = kf k∞ . Pero ahora queremos ver su espectro. Vale que
2. Ahora daremos una prueba más directa aunque algo cuentosa de lo mismo. La idea
es tomar un ω ∈ T y construir un elemento w = (ω n )n∈Z ∈ `∞ (Z). Es fácil ver que el
multiplicador Mw ∈ U(`2 (Z )) (no cambia los tamaños de las entradas). Una cuenta
directa (algo pastosa) muestra que al conjugar a U con este Mw queda que
180
La idea es que si primero multiplicamos y después corremos, al volver a multiplicar
nos sobra (en todas las coordenadas) una potencia de ω. La igualdad σ(U ) = ω σ(U )
vale para todo ω ∈ T. Como σ(U ) 6= ∅, podemos elegir un u ∈ σ(U ). Ası́ llegamos a
que ω = (ω u) u ∈ (ω u) σ(U ) = σ(U ) para todo ω ∈ T.
N es AI ⇐⇒ N ∈ Gl (H) . (6.18)
Demostración. Sabemos desde 2.6.11 que la flecha ⇐ se cumple. Para la otra tenemos que
ser AI =⇒ ser mono y que R(N ) v H. Pero como N es normal, se tiene que
4.2.2 P rop. 4.1.7 Cor. 3.2.7 ⊥
{0} = ker N = ker N ∗ = R(N )⊥ =⇒ R(N ) = R(N )⊥ =H.
1. Su espectro σ(A) ⊆ R.
3. Ambos extremos mA , MA ∈ σ(A). A veces se los nota λnim (A) y λmax (A) .
181
Demostración. Sea λ = a + i b ∈ σ(A). Abreviemos B = A − aI ∈ A(H). Luego
Como todos los xn eran unitarios, deducimos que B 1/2 no es AI, por lo que B 1/2 ∈
/ Gl (H).
Es fácil ver que eso implica que B = A − mA I ∈
/ GA , lo que prueba que mA ∈ σ(A). La
prueba de que también MA ∈ σ(A) sale usando al operador C = MA I − A ∈ L(H)+ .
Si tomamos ahora un T ∈ L(H), el primer ⇐⇒ de la Ec. (6.20) sale con fritas. Pero si
estamos asumiendo que T ∈ A(H) (se lo hace de ambos lados), la equivalencia de las otras
condiciones mT ≥ 0 ⇐⇒ σ(T ) ⊆ R+ se deduce de los items 2 y 3 de arriba.
Definición 6.4.3. Dado un T ∈ L(H), su radio numérico se define como el número
w(T ) = sup hT y , yi .
kyk=1
Es fácil ver que la flecha T 7→ w(T ) define una norma en L(H). Se usa la Ec. (4.3). 4
Ejercicio 6.4.4. Sea H un EH. Probar las siguientes afirmaciones:
1. Si T ∈ L(H), entonces hT x , xi ≤ w(T ) kxk2 para todo x ∈ H.
182
Proposición 6.4.5. Sea H un EH. Relacionemos los radios y la norma:
Otra es que exista un x ∈ R(B)⊥ unitario. En este caso también vale que hB x , xi = 0 y
se sigue igual. La última posibilidad es que B sea mono y con rango denso. Pero entonces
sabemos por 2.6.11 que B no serı́a AI, y existirı́a una sucesión (xn )n∈ N de unitarios tal que
B xn −−−→ 0 =⇒ hT xn , xn i − λ = hB xn , xn i −−−→ 0 =⇒ |λ| ≤ w(T ) .
n→∞ n→∞
En resumen,
|λ| ≤ w(T ) para todo λ ∈ σ(T ), por lo que ρ(T ) ≤ w(T ). Si tomamos la matriz
0 1
T = ∈ L(C2 ), se ve que las desiguadades pueden ser estrictas. En efecto,
0 0
1
ρ(T ) = 0 , w(T ) = y kT k = 1 .
2
La cuenta sale fácil porque T (x1 , x2 ) = (x2 , 0) para (x1 , x2 ) ∈ C2 y porque σ(T ) = {0}.
Sea ahora A ∈ A(H). La igualdad ρ(A) = w(A) se deduce de la Prop. 6.4.2 que decı́a que
σ(A) ⊆ [mA , MA ] pero toca los dos bordes. Por otro lado el hecho de que A ∈ A(H) permite
hacer una cuenta muy parecida a la polarización real vista en la Ec. (3.3), que dice ası́ :
4 Re hA x , yi = A (x + y) , (x + y) + A (x − y) , (x − y) ,
para todo par x , y ∈ H. Pero el paralelogramo (3.4) da que si x , y son unitarios, entonces
4 Re hA x , yi ≤ w(A) kx + yk2 + kx − yk2 = 2 w(A) kxk2 + kyk2 = 4 w(A) .
Cambiando x por algún ei θ x sale que hA x , yi ≤ w(A). Luego llegamos a que
kAk = sup hA x , yi ≤ w(A) =⇒ kAk = w(A) .
kxk=kyk=1
183
Por último, dado T ∈ L(H) podemos escribirlo como T = A + i B, donde A , B ∈ A(H)
∗
(por ejemplo se tenı́a que A = T +T
2
). Con eso sale la desigualdad
donde se usa que hA x , xi = Re h T x , xi para todo x ∈ H, por lo que w(A) ≤ w(T ) y algo
parecido para mostrar que también w(B) ≤ w(T ).
La igualdad ρ(A) = kAk que acabamos de ver que verifican los autoadjuntos, en realidad
también se cumple para todo A que sea normal. La prueba va por otro camino:
Teorema 6.4.6. Si N ∈ L(H) es normal, también se verifica que
Demostración. Recordar del Teo. 4.1.6 que kT ∗ T k = kT k2 para todo T ∈ L(H). En partic-
ular, si A ∈ A(H) (por lo que A∗ A = A2 ), uno puede mostrar inductivamente que
n n−1 n−1 n
kAk2 = kA2 k2 = · · · = kA2 k2 = kA2 k para todo n∈N.
Pero ahora veremos que eso se extiende a nuestro normal N : Como N ∗ N ∈ A(H), entonces
n n 1/2 n normal n n n
kN k2 = kN ∗ N k2 = k(N ∗ N )2 k1/2 = k(N ∗ )2 N 2 k1/2 = kN 2 k , (6.23)
siempre para todo n ∈ N. Pero por la fórmula del radio espectral (6.10) vemos que
n (6.23)
ρ(N ) = lim kN m k1/m = lim kN 2 k1/2n = kN k .
m→∞ n→∞
Ejercicio 6.4.9 (Algo menos jodido). Probar que la norma w(·) cumple que
184
6.5 Cálculo funcional continuo
6.5.1. Sea H un EH y sea A ∈ L(H). Sabemos evaluar polinomios de C[X] en A. De hecho
eso se puede hacer en cualquier álgebra (con polinomios a coeficientes en el cuerpo que le
actúa). Fijado el A, uno tiene entonces un morfismo de álgebras
EA : C[X] → L(H) dado por EA (p) = p(A) , para cada p ∈ C[X] .
En álgebra este EA se llama morfismo de evaluación, pero acá lo llamaremos cálculo polino-
mial en A. Es importante Q que recordemos que EA es morfismo de álgebras.
Q Por ejemplo eso
significa que si p(X) = a (X − λk ) ∈ C[X], entonces p(A) = a (A − λk I) ∈ L(H).
k∈In k∈In
La idea de lo que viene es asumir que A ∈ A(H) (esto es esencial) y extenderlo a un nuevo
cálculo que permita hacer la evaluación f (A), pero ahora para todas las funciones f que
sean continuas en el espectro de A. Las herramientas clave que ya hemos desarrollado son:
2. σ(p(T ) ) = {p(λ) : λ ∈ σ(T )} para todo p ∈ C[X] y todo T ∈ L(H). (Prop. 6.1.7)
Llamemos K = σ(A) ⊆ R. El Teo. 3.6.3 nos asegura que el álgebra de polinomios C[X]
(actuando en K) es k · k∞ -densa en C(K). En otras palabras, la subálgebra
def
P (K) = {g ∈ C(K) : g(t) = p(t) para un p ∈ C[X] y todo t ∈ K}
es k · k∞ -densa en C(K). Fijemos una f ∈ C(K). Dada una sucesión (pn )n∈ N en P (K) tal
k · k∞
que pn −−−→ f , intentaremos definir el valor de f en A por la fórmula
n→∞
def
f (A) = lim pn (A) ∈ L(H) . (6.24)
n∈N
Para que esto tenga sentido (buena definición), hay que verificar dos cosas:
En realidad ambas cosas son lo mismo, porque tanto los pn solos como las restas pn − qn son
sucesiones de polinomios que convergen uniformemente en K (una a f , la otra a 0).
Lema 6.5.2. Sea A ∈ A(H) y (pn )n∈ N una sucesión en C[X] que es uniformemente de
Cauchy en σ(A). Entonces existe un B ∈ L(H) que cumple lo siguiente:
185
2. El lı́mite B es normal.
3. La norma de B se calcula ası́: kpn k∞ −−−→ kBk , con normas supremo en σ(A).
n→∞
Demostración. Antes que nada, observar que los operadores pn (A) − pm (A) son normales
para todo par n , m ∈ N (no están en A(H) porque los coeficientes pueden no ser reales).
Por lo tanto, podemos aplicarles el Teo. 6.4.6. Ası́ llegamos a que
6.4.6 6.1.7
kpn (A) − pm (A)k = ρ pn (A) − pm (A) = sup |pn (λ) − pm (λ)| −−−−→ 0 .
λ∈ σ(A) n,m→∞
La convergencia final no es otra cosa que decir que los pn eran uniformemente de Cauchy en
σ(A). La conclusión es que la sucesión pn (A) es de Cauchy en L(H). Como L(H) es un EB,
existe el lı́mite B ∈ L(H). Y él es normal al ser lı́mite de normales. Para probar lo de las
normas, se vuelve a usar que kpn (A)k = ρ(pn (A) ) = kpn k∞ para todo n ∈ N.
Con el Lema anterior se subsanan las dos objeciones anteriores. Ası́ que ahora ya podemos
afirmar que la definición de f (A) dada en (6.24) es consistente. Es lo que se llama el cálculo
funcional continuo (CFC) para operadores autoadjuntos.
Observar que si A ∈ L(H)+ , entonces el operador A1/2 definido en el Teo. 4.3.6 no es otra
cosa que f (A) para la f (λ) = λ1/2 , definida para todo λ ∈ R≥0 . Para convencerse de ello
basta mirar la Ec. (4.25), o bien acordarse de la unicidad que aseguraba el Teo. 4.3.6. 4
Definición 6.5.3. Sea A ∈ A(H). Llamemos K = σ(A) ⊆ R. Definimos el CFC en A:
(6.24)
ΦA : C(K) → L(H) dada por ΦA (f ) = f (A) para toda f ∈ C(K) .
La gracia de este CFC es que, aunque Magoya calcula quien es f (A), igual es re-util porque
tiene propiedades magnı́ficas. Empecemos con un listado de las más grosas:
Teorema 6.5.4. Sea A ∈ A(H). Luego el cálculo ΦA : C(K) → L(H) verifica que:
186
k·k
5. Si fn −−−→ f uniformemente en K, entonces fn (A) −−−→ f (A).
n→∞ n→∞
Probado esto, la caracterización de la positividad sale por las Ecs. (6.20) y (6.26).
Observación 6.5.5. El Teo. 6.5.4 suele enunciarse diciendo que “existe un único morfismo
(de AB’s) continuo ΦA : C(K) → L(H) que exitende el cálculo polinomial”, o bien tal que
ΦA (1) = IH y ΦA (X) = A. Y que el tal ΦA cumple todas las propiedades del Teo. 6.5.4.
Esto ahora es evidente si uno mira la fórmula (6.24).
Es interesante observar que una prueba alternariva del item 7 sobre el espectro de los f (A)
se puede hacer vı́a el Ejer. 6.2.7. El tema es que se puede pensar que C(K)“ ⊆ ”L(H) por
el incruste isométrico ΦA . Luego se usa de ambos lados que dada f ∈ C(K), vale que la f
es inversible ⇐⇒ |f |2 = f f es inversible. Idem con f (A) vs. f (A)∗ f (A) en L(H).
187
Y nuestro nuevo elemento |f |2 , que está en la subálgebra, tiene su espectro de C(K) en R,
por lo que no tiene “agujeros” y debe conicidir con “su” espectro σ(f (A)∗ f (A) ) en L(H).
Este camino usando la teorı́a de AB’s es en realidad el mejor para definir el CFC. Por ejemplo
permite extender el Teo. 6.5.4 (con todos sus items) a operadores normales N ∈ L(H). La
idea clave es definir el álgebra de Banach C ∗ (N ) ⊆ L(H) generada por N , N ∗ y IH . Observar
que la normalidad de N asegura que C ∗ (N ) es conmutativa.
Luego se aplica la “transformada de Gelfand”, cuyos preliminares vimos en el Ejer. 6.2.8,
que exhibe un isomorfismo natural Γ entre las álgebras conmutativas C ∗ (N ) y C(σ(N ) ), a
través de una identificación (hómeo) de los caracteres de del álgebra C ∗ (N ) con el compacto
σ(N ) (haciendo XC ∗ (N ) 3 ϕ 7→ ϕ(N ) ∈ σ(N ), lo que caracteriza a ϕ). Observar que el
Teo. 6.4.6 y la Ec. (6.15) aseguran que en este caso Γ es isométrica. Que es sobre sale por
Stone-Weierstrass 3.6.3. Luego uno define el CFC en N simplemente como la inversa de Γ.
Una versión detallada de todo esto se verá en el Ejer. 6.7.16.
Observar que todo lo de arriba (pero ahora para normales) incluye, entre otras cosas, el
Ejer. 6.4.8. Los detalles, ahora mucho menos jodidos que entonces, siguen para el lector. 4
Observación 6.5.6. En el Ejer. 6.1.9 vimos otra versión de un cálculo funcional. Se puede
aplicar a todo T ∈ L(H) (no hace falta ni que sea normal), pero solamente funciona para
funciones holomorfas definidas en una bola BCa (0 , M ) que contenga al σ(T ).
Hay que decir dos cosas al respecto: Primero que si N ∈ L(H) es normal y f es una holomorfa
como las de arriba, entonces el operador f (N ) es siempre el mismo, ya sea que lo calculemos
con el CFC en N o con la serie del Ejer. 6.1.9. Esto es evidente del hecho que las sumas
parciales de la serie sirven como polis que aproximen a la f uniformemente en σ(T ). Que
ambos cálculos extienden al polinomial es claro.
Observar que el “cálculo holomorfo”, también llamado CF de Riesz, es viable en toda AB,
lo que ya es decir mucho más que L(H). Esto de por sı́ es importante porque si E es un EB,
no tenemos la noción de operador autoadjunto o normal en L(E), por lo que no disponemos
en L(E) de otro CF que el de Riesz.
Por otro lado, la versión dada en el Ejer. 6.1.9 de este CF no es todo lo general que pudiera ser.
El tema es que para poder definir f (T ), basta que la f sea holomorfa en un entorno cualquiera
de σ(T ) (no hace falta que sea una bola centrada en cero). Esto amplı́a notablemente el
conjunto de funciones que uno puede evaluarle a T . Claro que para esas nuevas f , el operador
f (T ) no se calcula con un serie tan amigable como la que se usó en el Ejer. 6.1.9.
La idea base es usar la fórmula integral de Cauchy a lo largo de una curva cerrada γ que
“rodee” a σ(T ) dentro del dominio de f pero sin tocar al espectro, dando una sola vuelta
contra el reloj. La fórmula que queda es
Z Z
1 −1 1
f (T ) = f (λ)(λ − T ) dλ = f (λ)RT (λ) dλ .
2πi γ 2πi γ
El problema es que el desarrollo de este cálculo, lo que incluirı́a ver que existe tal curva
γ, que f (T ) está bien definida, pero sobre todo ver que tiene propiedades razonables, es
188
una tarea larga y complicada. Por ello no lo incluiremos en este texto. El lector interesado
pordrá encontrar una excelente exposición de este cálculo en el libro de Conway [2]. 4
Sd
Proposición 6.5.8. Sea A ∈ A(H) y supongamos que σ(A) = K = K1 K2 dos mitades
compactas clopen no vacı́as. Sea f = 1K1 la caracterı́stica de K1 dentro de σ(A). Luego:
donde los espectros se calculan en las álgebras L(Si ) en las que viven los Ai .
Sd
Es decir que en la situación σ(A) = K = K1 K2 se puede “dividir” al operador A y al
espacio H en “autoespacios” ortogonales donde se realizan las dos mitades de σ(A).
189
Demostración. La continuidad de f = 1K1 es obvia por la clopenidad. Si ahora uno observa
que f = f 2 = f pensandolas como funciones de C(K), saca el item 2 usando el Teo. 6.5.4,
cuyo item 5 también asegura que P A = AP , lo que muestra el item 3 de acá. Notar que
0 6= P 6= IH porque, al ser los Ki no vacı́os, sus caracterı́sticas no son nulas en C(K).
Si llamamos B = AP vemos que B = g(A) donde g(λ) = λ 1K1 (λ), para λ ∈ K. Aplicando
nuevamente el Teo. 6.5.4 podemos calcular que σ(B) = g(K) = K1 ∪ {0}. Si les aplicamos
a estos operadores la representación matricial vista en (4.36), nos queda que
A1 0 IS1 0 A1 0 S1
B = AP = = . (6.29)
0 A2 0 0 0 0 S2
Ya sea por el Ejer. 6.5.7 o haciendo las cuentas (si no creen en matrices háganlas), sale que
(6.29)
K1 ∪ {0} = σ(B) = σ(A1 ) ∪ {0} .
Por lo tanto, solo falta ver si 0 ∈ σ(A1 ) o no. Podemos asumir que 0 ∈ / K (cambiando A
por A + λIH si hace falta). En tal caso, para mostrar que σ(A1 ) = K1 sólo nos hace falta
probar que A1 ∈ Gl(S1 ). Pero fijensé que ahora tenemos que la función h(λ) = λ−1 1K1 (λ)
vive en C(K) y cumple que g h = 1K1 = f . Llamemos C = h(A). Luego
Como h(A) conmuta con P = f (A), la Prop. 4.5.8 nos aseguraba que S1 ∈ Latr (C) y que
C1 0 A1 0 C1 A1 0 IS1 0
CB = = = =P .
0 C2 0 0 0 0 0 0
2. La función 1{λ} ∈ C(σ(A) ). Sean Pλ = 1{λ} (A) y Sλ = R(Pλ ). Luego Sλ ∈ Latr (A).
190
Demostración. El hecho de que λ sea aislado significa que K2 = σ(A) \ {λ} es también un
clopen compacto dentro de σ(A). Si llamamos K1 = {λ} estamos en las condiciones de la
Prop. 6.5.8. Con las notaciones de ella, tenemos que Sλ = R(Pλ ) v H es no nulo y que
A1 0 Sλ
A= ⊥ donde A1 = AS ∈ A(Sλ ) tiene σ(A1 ) = K1 = {λ} .
0 A2 Sλ λ
El hecho de que A1 ∈ A(Sλ ) sale por la vieja Ec. (4.39). Por el Cor. 6.4.7 uno deduce que
A1 = λ ISλ y de ahı́ que Sλ ⊆ ker(λIH − A). Pero vimos arriba que Sλ 6= {0}.
La segunda parte del enunciado sale directo de la Prop. 6.5.8. Observar que de ahı́ uno saca
fácilmente que en realdad R(Pλ ) = Sλ = ker(λIH − A), porque en caso contrario deberı́a
pasar que ker(λIH − A) ∩ Sλ⊥ 6= {0}. Y eso no está permitido porque λ ∈/ σ(A2 ).
En la prueba hay un pequeño gap. El caso en que σ(A) = {λ} harı́a que K2 = ∅. Pero en
ese caso todo lo que se postula es trivial, porque A = λIH (Cor. 6.4.7).
Corolario 6.5.10. Toda matriz autoadjunta tiene una BON de vectores propios.
Demostración. Sale por un argumento inductivo a partir del Cor. 6.5.9. Notar que como el
espectro de las matrices es finito, todos sus puntos son aislados.
Corolario 6.5.11. Si A ∈ A(H) tiene espectro finito, entonces
Q
2. Si p(X) = (X − λk ) ∈ C[X], entonces p(A) = 0.
k∈ Ir
Es decir que un A ∈ A(H) es “algebráico” ⇐⇒ σ(A) es finito. Ojo que esto no vale para
todos los demás operadores T ∈ L(H).
Demostración. Nuevamente sale haciendo inducción en el Cor. 6.5.9. De hecho hay que
definir a cada Pk = 1{λk } (A). Con ellos Plas tres partes de la Ec. (6.31) salen sin mucha
dificultad. Con la representación A = λk Pk , también es una cuentita directa la
P k∈ Ir
verificación de que q(A) = q(λk ) Pk para todo q ∈ C[X].
k∈ Ir
Ejercicio 6.5.12. Usando la Obs. 6.5.5, probar que todos los resultados anteriores, desde
la Prop. 6.5.8 hasta el Cor. 6.5.11, siguen siendo válidos si uno reemplaza en enunciados y
pruebas la frase “A ∈ A(H)” por “N ∈ L(H) es normal”.
Ya que estamos, si el lector leyó sobre el CF de Riesz en el Conway, le proponemos extender
esos mismos resultados para cualquier álgebra de Banach A y cualquier elemento a ∈ A.
La idea es que, en realidad, la caracterı́stica de una mitad clopen de σ(a) es una función
holomorfa en un entorno de σ(a). Todos los resultados a extender se basan en ese hecho. 4
191
Ejercicio 6.5.13. Sea N ∈ L(H) un operador normal. Notemos K = σ(N ). Fijemos una
f ∈ C(K) y llamemos J = f (K) ⊆ C que es compacto. Dada ahora una g ∈ C(J), vale que
B ∗ = −B y U = eB .
Esto último significa que U = exp(B) vı́a en CFC en B, donde exp(z) = ez es la función
exponencial. Más aún, probar que existe un A ∈ L(H) tal que cumple lo siguiente:
La idea es definir B = log(U ) con alguna rama holomorfa del log que “salte” en nuestro
puntito ω ∈/ σ(U ). De hecho más adelante veremos que el requerimiento de que σ(U ) no
llene a T no es imprescindible para obtener (6.33), pero sólo es posible hacerlo con el CFC
si asumimos eso. El caso general que anunciamos será una consecuencia del futuro CFBA
(CF Boreliano acotado), del que ésta disgresión es un márketing previo.
Observar que tal resultado implicarı́a que U(H) es conexo (por arcos), conectando a U con
IH con la curva continua [0, 1] 3 t 7→ ei t A ∈ U(H). Haciendo la DP y usando que L(H)+ es
convexo, se podrı́a deducir que todo el grupo Gl (H) es también arconexo. Ojo que ambas
cosas sólo valen porque K = C. Notar que en el caso real (y finitodimensional) el signo del
determinante da dos componentes conexas de U(H) y de Gl (H). 4
Otra aplicación directa del CFC es la posibilidad de definir las “partes” positiva y negativa
de un A ∈ A(H):
192
Proposición 6.5.15. Sea A ∈ A(H). Entonces existen únicos
0 ≤ S ∗ S = S 2 = (A+ − C) (A− − D) = − A+ D + A− C ≤ 0 .
Se usó que el producto de positivos que conmutan queda positivo (si no saben porqué vale
va como ejercicio). Es claro que S ∗ S = 0 =⇒ S = 0, ası́ que C = A+ y D = A− . Lo de la
CL de 4 positivos pasa por esctibir cada T ∈ L(H) como T = Re T + i Im T .
Ejercicio 6.5.16. Sea A ∈ A(H). Probar que
193
3. A cualquier A ∈ A(H) se lo ensangucha con múltiplos de la identidad:
6.6.1. Veamos ahora algunas cosas nuevas de este tema: En principio observar que
Las =⇒ son claras. Pero ρ(A) ≤ 1 =⇒ σ(A) ⊆ [0, 1], y allı́ la función f (t) = t es menor
que g(t) ≡ 1. Por el CFC eso nos da que A = f (A) ≤ g(A) = I.
Va otra: Dado T ∈ L(H), se tiene las siguientes dos propiedades:
0 ≤ T ∗ T ≤ kT ∗ T k I y T ∗ T ≤ I ⇐⇒ kT k ≤ 1 . (6.39)
4.1.6
La primera es fácil y la segunda sale de (6.38), porque kT ∗ T k = kT k2 . 4
Lema 6.6.2. Dados A ∈ L(H)+ y B ∈ Gl (H)+ , se tiene que
Luego se aplican (6.38), (6.39) y el hecho de que ρ(B −1/2 AB −1/2 ) = ρ(AB −1 ), igualdad que
se deduce del Ejer. 6.13 en el álgebra de Banach L(H).
Corolario 6.6.3. Dados A , B ∈ Gl (H)+ tales que A ≤ B, se tiene que B −1 ≤ A−1 .
Proof. Por (6.40) tenemos que ρ(AB −1 ) ≤ 1. Pero el Ejer. 6.13 nos asegura que
(6.40)
ρ(B −1 A) = ρ(AB −1 ) ≤ 1 =⇒ B −1 ≤ A−1 .
Ya se habia dado una prueba de esto en la Prop. 4.3.10, pero esta es mucho más corta.
Recordemos que si A ∈ L(H)+ , entonces el operador A1/2 definido en el Teo. 4.3.6 no es otra
cosa que f (A) para la f (λ) = λ1/2 , definida para todo λ ∈ R≥0 . Sale fácil por la unicidad
que da el Teo. 4.3.6. Ahora viene un resultado importante: tomar raı́z cuadrada es lo que se
suele llamase “una función monótona de operadores”. Eso significa lo siguiente:
Proposición 6.6.4. Sean A , B ∈ L(H)+ tales que A ≤ B. Entonces también A1/2 ≤ B 1/2 .
194
Demostración. Supongamos que B ∈ Gl (H)+ . Usando dos veces (6.40) sale que
6.13
1 ≥ kA1/2 B −1/2 k ≥ ρ(A1/2 B −1/2 ) = ρ(B −1/4 A1/2 B −1/4 ) =⇒ I ≥ B −1/4 A1/2 B −1/4 .
Por lo tanto B 1/2 ≥ A1/2 . Si B no es inversible, para cada ε > 0 se toma B + εI ∈ Gl (H)+ .
Luego A1/2 ≤ (B + εI)1/2 para todo ε > 0. Como (t + ε)1/2 − t1/2 ≤ ε1/2 para todo t ≥ 0,
D E (6.25)
1/2 1/2
hA x, xi ≤ (B + εI) x, x −−−−→ hB 1/2 x, xi , para todo x∈H.
ε→0
La función raı́z cuadrada se usa además para definir el módulo de operadores. Estudiémoslo
un poquito mejor: Dados S , T ∈ L(H), se tiene que
Esto no es nada fácil de verificar. Para probarlo veamos antes un par de resultados:
Corolario 6.6.5. Sean S , T ∈ L(H). Entonces tenemos la desigualdad
|S T | ≤ kSk |T | . (6.41)
(ST )∗ ST = T ∗ S ∗ ST ≤ kSk2 T ∗ T .
Tomando raı́ces y usando la Prop. 6.6.4 llegamos a que |ST | ≤ kSk |T | como operadores.
Proposición 6.6.6. Sea I ⊆ R un intervalo cerrado (valen semirrectas o todo R). Sean
porque cada hAn x , xi ∈ hA x , xi + (−ε , ε) siempre que kA − An k < ε. Lo mismo pasa con
los máximos Mn respecto de MA = máxkxk=1 hA x , xi. Por el Teo. 6.4.2, hay un n0 tal que
195
Por el teorema de Weierstrass (en el intervalo cerrado J), existe un P ∈ C[X] tal que
kf − P kJ , ∞ < ε . Comparando f (An ) con P (An ) para n ≥ n0 , vemos que
De ahı́ saldrı́a que kf (A) − f (Am )k −−−→ 0 y que la f “de operadores” quedarı́a continua
m→∞
en el espacio AI (H). En lo de arriba se usó que
6.5.4
kf (B) − P (B)k = kf − P kσ(B) , ∞ ≤ kf − P kJ , ∞ < ε para todo B ∈ AJ (H) ,
que tanto A como los An están ahi (desde n0 ), y que el polinomio P que está fijo cumple
que P (An ) −−−→ P (A) (suma finita de potencias).
n→∞
Ahora van un par bastante más difı́ciles. Si no salen al menos recordar que valen:
CF C
3. Si f es “suave” en I, también es suave la flecha AI (H) 3 A −→ f (A) ∈ L(H).
def
4. Si U ⊆ C es abierto, entonces L(H)U = {T ∈ L(H) : σ(T ) ⊆ U } es abierto en L(H).
Esto es lo mejor que hay sobre “continuidad espectral” en todo el álgebra L(H). 4
196
6.7 Ejercicios del Cap. 6 - Espectro
Ejercicios aparecidos en el texto
6.7.1. Sea A0 una AB sin uno. Consideremos entonces un 1 virtual y definamos el álgebra A = C · 1 + A0
con los siguientes datos: Dados λ1 + a y µ1 + b ∈ A,
Probar que entonces A es un álgebra de Banach con uno (adivinen quien), de la que A0 es un ideal bilátero
cerrado y maximal (y las nuevas operaciones coinciden con las viejas). 4
6.7.2. Sea A un AB. Dados a, b ∈ A, probar que
si ab = ba y además ab ∈ GA =⇒ a y b ∈ GA .
Sugerimos mostrar que tanto a como b conmutan con ab, y por ello con (ab)−1 . 4
6.7.3. Sea A un AB y sea a ∈ A. Dado un λ ∈ C tal que |λ| > kak, sabemos que λ ∈ Res(a). Usando las
Eqs. (6.2) y (6.8) probar que:
∞
a −1 X −n−1 n
Ra (λ) = (λ − a)−1 = λ−1 1− = λ a siempre que |λ| > kak . 4
λ n=0
∞
αn an converge en A.
P
Luego, para todo a ∈ A con kak ≤ M , la serie f (a) =
n=0
∞
αn z n en BM , entonces tenemos que
P
La idea es que si f (z) =
n=0
∞
X ∞
X
f (λ) − f (a) = αn (λn − an ) = (λ − a) αn Pn−1 (λ , a) ,
n=0 n=1
donde los polinomios Pn−1 (λ , a) se pueden calcular y acotar para que la serie converja a un b ∈ A que
conmuta con a. Observar que σ(a) ⊆ BM . Ası́ que todas estas cuentas que involucran series, convergen
bien en todo λ ∈ σ(a). 4
6.7.5. Sea A un AB. Se tienen las siguientes propiedades: Sean a ∈ A y µ ∈ C.
197
def
2. σ(µ a) = µ σ(a) = {µ λ : λ ∈ σ(a)}. En particular σ(−a) = −σ(a).
def
3. σ(a + µ 1A ) = µ + σ(a) = {µ + λ : λ ∈ σ(a)}.
def
/ σ(a). En tal caso σ(a−1 ) = σ(a)−1 = {λ−1 : λ ∈ σ(a)}.
4. a ∈ GA ⇐⇒ 0 ∈
7. Sea P ∈ C[X] y supongamos que P (a) = 0. Entonces σ(a) ⊆ { raı́ces de P }. En particular, en ese
caso (bastante poco común) vale que σ(a) es finito.
6.7.6. Sea A un AB. Ahora va otra porpiedad que es mucho menos facilonga:
λ−1 1 + b (λ − ab)−1 a ∈ A
el elemento es util . 4
GC(K) = {g ∈ C(K) : 0 ∈
/ g(K)} y σ(f ) = f (K) = {f (x) : x ∈ K}
Traduciendo, λ ∈ Re (f ) si la f “ronda” cerca de λ con medida positiva para toda cercanı́a prefijada.
Esta noción sirve como el rango común (o su clausura) en el ejemplo anterior:
GL∞ = {g ∈ L∞ : 0 ∈
/ Re (g)} y σ(f ) = Re (f ) para toda f ∈ L∞ .
3. Si X tiene una topologı́a Hausdorff tal que la medida de los abiertos (no vacı́os) nunca es nula,
podemos tomar la subálgebra de Banach Cb (X) ⊆ L∞ (X). Probar que si h ∈ Cb (X), entonces
khk∞ (la de L∞ (X) ) = sup |f (x)| = khk∞ (la de Cb (X) ) y Re (h) = h(X) = σ(h) ,
x∈X
198
5. En el caso discreto de `∞ (I), donde también multiplicamos “ i a i ” y queda un AB con su k · k∞ ,
6.7.8. Sea A un AB y sea B ⊆ A una subálgebra que también es de Banach (mismo uno y misma norma).
Probar lo que sigue:
1. GB ⊆ GA ∩ B, pero la inclusión puede ser estricta (mirar la función e1 del el Ejem. 6.2.6).
σB (a) = {λ ∈ C : λ − a ∈
/ GB } y σA (a) = σ(a) = {λ ∈ C : λ − a ∈
/ GA } .
Se tiene que σA (a) ⊆ σB (a), pero que la inclusión puede ser estricta.
def
3. Sin embargo, ρ(a) = ρB (a) = sup |λ|.
λ∈σB (a)
4. Más aún, mostrar que (en cualquier AB, pongamos ahora A) una sucesión (an )n∈ N en GA converge
al borde ∂ GA de GA ⇐⇒ ka−1 n k− −−−→ ∞, lo que no depende del álgebra en donde vivan.
n→∞
Sug: Si ka−1
n k estuviera acotada, pasarı́a que k1 − a−1
n ak −
−−−→ 0.
n→∞
5. Deducir que ∂ GB ⊆ ∂ GA .
6. Interpretar lo anterior como que σB (a) consiste de tomar el conjunto σA (a) y “llenar” algunos de sus
“agujeros”. Estos se pueden ver como las componentes conexas y acotadas del abierto C \ σA (a) .
Cotejar esto con el Ejem. 6.2.6.
7. Deducir que los elementos a ∈ B que tienen su espectro σB (a) “chatito” (i.e., sin interior) cumplen
que σB (a) = σA (a).
8. Generalizar todo lo anterior al caso en que B 6⊆ A, pero existe un morfismo unital de anillos Γ : B → A
que es isométrico (aunque no sobre). 4
6.7.9 (Transformada de Gelfand). Sea A un AB y sea I ⊆ A un ideal (si no se aclara es bilátero) cerrado.
1. Probar que el anillo A/I con la norma cociente vista en la Prop. 1.7.1 es un AB.
XA = {ϕ ∈ A∗ : ϕ es multiplicativa y unital }
199
6. Deducir que todo caracter ϕ ∈ XA tiene kϕk = 1 (porque |ϕ(a)| ≤ ρ(a) ≤ kak).
a (ϕ) = ϕ(a)
b para ϕ ∈ XA y a∈A
kΓ(a)k∞ = kb
ak∞ = ρ(a) (el radio espectral) . (6.42)
10. Probar que ker Γ = Rad(A) el radical de Jacobson de A, que es la intersección de los ideales maximales
de A. Deducir la siguiente caracterización del radical: Rad(A) = {a ∈ A : σ(a) = {0} }, los elementos
denominados cuasi-nilpotentes de A. Adivinen de dónde sale el nombre. 4
6.7.10. Sea K un compacto Hausdorff. Probar que si I ⊆ C(K) es un ideal cerrado, entonces el conjunto
cerrado FI = {x ∈ K : f (x) = 0 para toda f ∈ I} cumple que
I = g ∈ C(K) : g(x) = 0 para todo x ∈ FI .
donde ϕx (f ) = f (x) para f ∈ C(K). Eso da una prueba por el camino más largo de que
cosa que ya habı́amos visto en el Ejem. 6.2.3. Deducir que, identificando K con XC(K) como se hizo arriba,
la transformada de Gelfand de C(K) es la identidad: fb(ϕx ) = ϕx (f ) = f (x) .
Esto significa que toda AB conmutativa A se “representa” vı́a Gelfand en un C(K) (ambas con el mismo
espectro K), y que esa representación es la natural si A ya era un C(K). 4
6.7.11. Sea ahora Y un ET que es de Tychonoff. El AB conmutativa que nos interesa es A = Cb (Y ), o
sea las funciones complejas acotadas y continuas en Y , con la norma supremo. Llamemos β(Y ) al espacio
compacto de caracteres XCb (Y ) . Probar que
1. Se puede “incrustar” Y ,→ β(Y ) con la flecha Y 3 y 7−→ ϕy , donde ϕy es el caracter dado por la
“evaluación” de las f ∈ Cb (Y ) en el punto y.
2. Usar que Y era CR para ver que la incrustación de arriba es en ralidad un embbeding, o sea un hómeo
de Y con su imagen dentro de β(Y ) con la topologı́a inducida.
Interpretar esto como que la función fb “extiende” la continua y acotada f a una continua en el
compacto β(Y ) que “contiene” a Y .
4. Antes de seguir, mostrar que en este caso Γ es un morfismo isométrico sobre. Para ello comparar
norma con radio espectral en Cb (Y ), y usar S-W 3.6.3.
200
5. Deducir que la imagen de Y por el embbeding de 1 es densa en β(Y ) (acá tb se usa que Y era CR).
6. Como lo sugerı́a la notación, β(Y ) = XCb (Y ) no es otra cosa que la compactificación de Stone Čech
del espacio Y definida en la sección A.16, mientras que la trnasformada Γ es la extensión de funciones
continuas acotadas que da su propiedad universal.
6.7.12. Sea ω ∈ T y construir un elemento w = (ω n )n∈Z ∈ `∞ (Z).
1. Probar que el multiplicador Mw ∈ U(`2 (Z) ) (o sea que es unitario).
2. Sea U ∈ U(`2 (Z) ) el shift (a derecha). Mostrar que al conjugar a U con este Mw queda que
−1 ∗
Mw U Mw = Mw U Mw = ω U =⇒ σ(U ) = σ(Mw U Mw ) = σ(ω U ) = ω σ(U ) .
3. Cuando A ∈ A(H), se tiene la igualdad w(A) = máx { MA , −mA }, donde mA y MA son los números
de la Prop. 6.4.2. 4
6.7.14. Probar que la norma w(·) cumple que
2. Recordando el Ejer. 6.7.9, probar que la flecha XC ∗ (N ) 3 ϕ 7→ ϕ(N ) ∈ σ(N ) es un hómeo entre el
espectro maximal XC ∗ (N ) de C ∗ (N ) (con su topologı́a w∗ que lo hacı́a compacto) y σ(N ).
3. Componiendo con este hómeo, identificar (como AB’s) a C XC ∗ (N ) con C(σ(N ) ).
201
10. Extender el Teo. 6.5.4 (con todos sus items) a operadores normales N ∈ L(H).
11. Repasar a la luz de todo esto aquel viejo Ejer. 6.4.8 - 6.7.15. 4
6.7.17. Sea N ∈ L(H) un operador normal. Notemos K = σ(N ). Fijemos una f ∈ C(K) y llamemos
J = f (K) ⊆ C que es compacto. Dada ahora una g ∈ C(J), vale que
1. La composición h = g ◦ f ∈ C(K), por lo que podemos evaluar
h(N ) = g ◦ f (N ) ∈ L(H) .
En resumen, podemos usar el CFC para M = f (N ) y obtener g(M ) = g(f (N ) ) ∈ L(H), y por otro lado
hacer CFC en N y obtener h(N ) = g ◦ f (N ). El ejercicio es probar que
g ◦ f (N ) = g(M ) = g(f (N ) ) , (6.43)
o sea que las dos maneras plausibles de evaluar la composición coinciden.
Sug: Probarlo primero para funciones g ∈ C(J) que sean polinómicas. 4
6.7.18. Sea U ∈ U(H), por lo que en particular es normal. La Prop. 6.3.2 nos dice que σ(U ) ⊆ T. Asumamos
que no lo llena, o sea que existe un ω ∈ T \ σ(U ).
Probar que en esas condiciones siempre existe un B ∈ L(H) tal que
202
6.7.21. Sea H un EH. Sea I ⊆ R un intervalo abierto. Probar que
def
1. El conjunto AI (H) = {A ∈ A(H) : σ(A) ⊆ I} es abierto en A(H).
Ahora van un par bastante más difı́ciles. Si no salen al menos recordar que valen:
CF C
3. Si f es “suave” en I, también es suave la flecha AI (H) 3 A −→ f (A) ∈ L(H). 4
Ejercicios nuevos
def
6.7.22. Sea A un AB. Si U ⊆ C es abierto, probar que AU = {a ∈ A : σ(a) ⊆ U } es abierto en A. En
otras palabras, si a ∈ A y σ(a) ⊆ U , entonces existe ε > 0 tal que
si ab ∈ GA y también ba ∈ GA =⇒ a y b ∈ GA .
Probar que nos queda un AB unital (con 1 = e0 , la delta de Dirac discreta). Probar además que
1. Antes de empezar, hay que ver que ka ∗ bk1 ≤ kak1 kbk1 para que sea AB.
203
9. Interpretar que la transformada de Gelfand se puede ver como
X
Γ : A → C(T) dada por Γa (z) = a
b(z) = an z n para a = (an )n∈ N ∈ A y z∈T.
n∈Z
10. Luego la imagen de Γ son las f ∈ C(T) tales que sus coeficientes de Fourier (fb(n) )n∈Z ∈ `1 (Z). Esas
funciones f forman la llamada álgebra de Wiener W(T).
11. Un famoso (y difı́cil) teorema del mismo Wiener dice que si f ∈ W(T) y f −1 ∈ C(T) entonces también
su inversa es de Wiener: f −1 ∈ W(T). Probarlo con toda la data anterior. La facilidad de esta prueba
le dió prensa mundial a la T de G, mostrando que es un “abstract nonsense” que tiene mucho sentido.
Sug: Se asume que 0 ∈ / σ(a) por lo que a−1 ∈ A y f −1 = ad
b sale que 0 ∈
/ f (T). Si f = a −1 ∈ W(T). 4
6.7.25. Sea N ∈ L(H) un operador normal. Demostrar que se verifica la siguiente propiedad:
−1
Dado un λ ∈ C \ σ(N ) se tiene que k(N − λ)−1 k = d (λ , σ(N ) ) .
1. A ∈ L(H)+
204
Capı́tulo 7
Operadores compactos
Recordemos que en el Cor. 5.8.2 mostramos que si T ∈ L(H) entonces T (BH ) es siempre
cerrada en norma dentro de H. Se usa que los EH son todos reflex.
Cabe preguntarse qué operadores cumplirán que T (BH ) sea compacta en H. Ahora bien,
si la dim H = ∞ y T (BH ) tiene interior no vacı́o, ya sabemos que no puede pasar porque
las bolitas nunca son compactas en H. Sin embargo hay muchos operadores que sı́ cumplen
lo pedido arriba, y por ello se los llama operadores compactos. Una teorı́a muy similar se
puede desarrollar en el contexto más general de operadores entre EB’s. Pero en este texto
nos limitaremos al caso Hilbertiano.
Con el lenguaje del Lema anterior ya podemos dar la serie de condiciones equivalentes que
anunciábamos. Para cada Hilbert H, denotaremos por K(H) a la clausura en norma de los
rango finito LF (H). En la prueba del siguiente teorema usaremos libremente las caracteri-
zaciones de los espacios (topológicos o métricos) compactos vistas en A.12.3 y A.13.3.
205
Teorema 7.1.2. Sean H un EH y T ∈ L(H). Las suguientes condiciones son equivalentes:
def
1. T ∈ K(H) = LF (H).
w k·k
2. Si xi −−→ x (todos en BH ), entonces T xi −−→ T x. En otras palabas, estamos diciendo
i∈ I i∈ I
que la restricción T : BH → H es w → k · k continua.
BH
3. T (BH ) es k · k- compacta en H.
4. Dada una red x = (xi )i∈ I en BH , existe un z ∈ H y una subred y = (yj )j∈ J de x tales
k·k
que T yj −−→ z.
j∈ J
A los T ∈ L(H) que cumplen estas cosas se los llama operadores compactos.
w
Demostración. Fijemos la red convergente xi −−→ x. Observar que como la red x = (xi )i∈ I
i∈ I
vive en BH , entonces automáticamente su lı́mite x ∈ BH , porque la bola es convexa y cerrada
en norma (se usa la Prop. 5.5.2). Si asumimos que T ∈ K(H), existirá un S ∈ LF (H) tal
que kT − Sk < 3ε . Luego la cuenta de siempre dice que
2ε
kT xi − T xk ≤ kT xi − S xi k + kS xi − S xk + kS x − T xk < + kS xi − S xk ,
3
Por otra parte, la Prop. 5.8.1 decı́a que el S debe ser w → w continuo, por lo que podemos
w
afirmar que S xi −−→ S x. Finalmente, como la dim R(S) < ∞, allı́ adentro la topologı́a de
i∈ I
la norma coincide con la w (basta productear contra una BON del R(S) y convergen las
k·k
coordenadas). Luego tenemos que S xi −−→ S x. Con la desigualdad de arriba podemos
i∈ I
k·k
concluir que T xi −−→ T x como afirma el item 2.
i∈ I
Como
H es reflex, el Teo. 5.7.1 asegura que BH es w- compacta. Si ahora aceptamos que
T B es w → k · k continuo, sale al toque que T (BH ) es k · k- compacta en H. Como sabemos
H
que T (BH ) es cerrada (Cor. 5.8.2) y por ello completa, eso equivale a que T (BH ) sea TA.
Vimos que 1 ⇒ 2 ⇒ 3 ⇔ 5. La relación 3 ⇔ 4 es casi tautológica (vı́a A.12.3). El baile
k·k
es 5 ⇒ 6: Queremos probar que PF T −−−−−→ T . Por la Ec. (7.1) del Lema 7.1.1 aplicada
F∈ PF (I)
a y = T x, sabemos que hay convergencia puntual. Pero estamos asumiendo que T (BH ) es
a
TA. Ello nos permite, dado un ε > 0, cubrila con n bolas Bk = BH (T xk , 3ε ), para k ∈ In .
206
Fijemos un F0 ∈ PF (I) tal que kPF T xk − T xk k < 3ε para todo F ⊇ F0 y todo k ∈ In .
Usando que todas las kPF k ≤ 1, vemos que los F ⊇ F0 cumplen que
ε
< 2 kT x − T xk k + 3
< ε siempre que T x ∈ Bk .
Como las Bk cubren T (BH ), si F ⊇ F0 nos queda que kPF T x − T xk < ε para todo x ∈ BH ,
k·k
es decir que kPF T − T k ≤ ε para tales F. Eso mustra que PF T −−−−−→ T .
F∈ PF (I)
Finalmente notemos que PF ∈ LF (H) para todo F ∈ PF (I). Luego todos los productos PF T
están también en LF (H). Ası́ que 6 ⇒ 1 es gratis.
La definición usual de que un operador T ∈ L(E , F ) entre espacios de Banach sea compacto
pasa por el hecho de que T (BE ) sea “relativamente compacto”. En tal contexto no es cierto
simpre que los compactos K(E, F ) ⊆ L(E, F ) sean la clausura de los rango finito.
En cambio vimos que sı́ pasa con los compactos de L(H). A partir de ese hecho pueden
probarse muchas propiedades del espacio K(H), y con el Teo. 7.1.2 ya tenemos muchas
adentro. Las enumeramos a continuación:
Corolario 7.1.3. Sea H un EH. El conjunto K(H) de operadores compactos cumple:
Demostración. Al fin y al cabo K(H) era la clausura en norma e LF (H). De ahı́ se deducen
en forma trivial los items 1 al 4. Lo del módulo sale porque si T = U |T | es la DP de T , en
el Teo. 4.4.4 vimos que |T | = U ∗ T , por lo que T ∈ K(H) ⇐⇒ |T | ∈ K(H). De ahı́ sale que
T ∗ = |T |U ∗ ∈ K(H) si T era compacto. Lo de Re T e Im T va como ejercicio. Finalmente,
207
si estamos en la situación de (7.2), entonces existe un SON {xn : n ∈ N} ⊆ BN . Luego se
w
tiene que xn −−−→ 0 pero kT xn k ≥ ε para todo n ∈ N.
n→∞
Los compactos parecen tan buenos que uno sospecharı́a que tal vez haya muy pocos de ellos.
Sin embargo son una clase bastante respetable, e incluyen muchas familias importantes de
ejemplos, como los integrales y las “inversas” de muchos operadores diferenciales. De más
está decir que si dim H < ∞, entonces K(H) = L(H), o sea que todas las matrices son
compactas. De hecho, la gracia de todo esto es estudiar operadores que se parezcan más a
ellas. Listemos a continuación cuándo son compactos nuestros ejemplos amigos:
Ejemplo 7.1.4. Sea H = `2 (N) y fijemos un a = (an )n∈ N ∈ `∞ (N). Entonces
Ma ∈ K( `2 (N) ) ⇐⇒ a ∈ c0 , es decir que an −−−→ 0 .
n→∞
208
Ejemplo 7.1.7 (Operadores integrales). Recordemos el ejemplo visto en 1.8.3: Se labura
en L2 = L2 (X, Σ, µ). Dado un núcleo k ∈ L2 (X × X) con la medida producto µ × µ, el
operador Tk ∈ L(L2 ) estaba dado por la fórmula
Z
(Tk f )(x) = k(x, y) f (y) dµ(y) para cada f ∈ L2 y casi todo x ∈ X . (7.5)
X
La idea es probar primero que es un SON (eso sale fácil), y después ver que su ortogonal es
hx
cero, usando que dada una h ∈ L2 (X × X), casi todas las funciones X 3 y 7−→ h(x, y) viven
en L2 (X). Laburo para la casa. De paso observar que los operadores asociados
donde φi φj son los operadores de rango uno definidos en (4.42). En efecto, si f ∈ L2 (X),
Z
Tφi ⊗φj f (x) = φi (x) φj (y) f (y) dµ(y) = hf , φj i φi (x) para todo x ∈ X .
X
EB (M T ) = M EB (T ) y EB (T M ) = EB (T ) M .
209
(d) Si T ∈ K(H), entonces EB (T ) ∈ K(H).
Tomando ahora el ı́nfimo sobre los elementos de a = a + I, nos queda que ka bk ≤ kak kbk.
Con esta ya podemos decir que A/I es una señora AB. 4
7.2.2. Sea H un EH. Como K(H) es ideal bilátero cerrado de L(H) podemos definir
def
el álgebra de Calkin Cal (H) = L(H)/ K(H)
que por lo viste recién es un AB con la norma cociente kT + K(H)k = d (T, K(H) ). La
proyección se denotará PK(H) : L(H) → Cal (H). Ella es un epimorfismo (acotado) de AB’s.
En general se abrevia PK(H) T = T ∈ Cal (H).
Las propiedades de un T ∈ L(H) que dependen de su clase T se suelen llamar propiedades
esenciales. Tı́picamente la versión esencial de una propiedad P significa cambiar la frase
“T cumple P ” por “T cumple P módulo un compacto”.
def
Por ejemplo, el espectro esencial de T es σe (T ) = σCal (H) ( T ). Como PK(H) es morfismo
se ve que PK(H) (Gl (H) ) ⊆ GCal (H) . De ahı́ se deduce fácil que σe (T ) ⊆ σ(T ). La inclusión
puede muy bien ser estricta, como se puede ver en el caso del shift S ∈ L(`2 (N) ). Un lindo
ejercicio es mostrar que σe (S) = T, mucho más chico que σ(T ) = D.
−1
En cambio los operadores esencialmente inversibles F (H) = PK(H) (GCal (H) ) tienen nombre
propio, se los conoce como operadores de Fredholm y ahora veremos sus propiedades. 4
Teorema 7.2.3. Sea T ∈ L(H). Las suguientes condiciones son equivalentes:
210
2. Existe un S ∈ L(H) tal que
ST − I ∈ K(H) y también T S − I ∈ K(H) . (7.6)
dimensión finita, porque también B ∗ ∈ LF (H) y (ker B)⊥ = R(B ∗ ). Juntándolos, por el
Cor. 1.7.2 queda lo que nos faltaba:
1.7.2
ker B ⊕ (ker B)⊥ = H =⇒ R(T ) = T (ker B) + T (ker B)⊥ v H.
Ya probamos que 2 implica el abc del item 3. Asumamos que T cumple los tres de 3.
def
Llamemos N = (ker T )⊥ y M = R(T ) v H. Observar que T0 = T |N es un iso entre los
Hilberts N y M. Luego existe T0−1 = S0 ∈ L(M , N ) (usamos el TFI 2.3.4 entre Banach’s).
Extendamos S0 a un T † ∈ L(H) haciendolo actuar como cero en M⊥ = R(T )⊥ = ker T ∗ . Es
acotado porque cumple que T † x = S0 PM x para todo x ∈ H. Y por eso mismo,
T T † x = T0 S0 PM x = PM x y T † T x = T † PM T0 PN x = S0 T0 PN x = PN x ,
para todo x ∈ H. Luego I − T T † = Pker T ∗ y I − T † T = Pker T viven en LF (H) ⊆ K(H).
Fijensé que construimos al T † de la Ec. (7.7), la seudoinversa de Moore Penrose de T .
7.2.4. El Teo. 7.2.3 es conocido como el Teorema de Atkinson. El permite desarrollar una
teorı́a muy profunda, que es la del ı́ndice de operadores de Fredolm: Si T ∈ F (H),
es el ı́ndice de T . Del Teo. 7.2.3 vemos que se tienen las siguientes propiedades:
211
1. Gl (H) ⊆ F (H), y si G ∈ Gl (H) entonces Ind G = 0 − 0 = 0.
2. El conjunto F (H) es abierto en L(H), por serlo GCal (H) en Cal (H).
A partir de ahora asumamos que T ∈ F (H).
5. Pero si G ∈ Gl (H) =⇒ Ind GT = Ind T G = Ind T (porque vale para sus α y β).
Por otro lado, las potencias de S ∗ cambian el signo del ı́ndice de las de S. Por lo tanto
Fm (H) 6= ∅ para todo m ∈ Z. Al menos cuando dim H = |N|. 4
PT − QT = T S − S T = (I + F ) S − S (I + F ) = F S − S F . (7.9)
212
Consideremos un ambiente finitodimensional donde operan tres de ellos: Sean
Luego el proyector PM funciona como una identidad en L(M) para los tres:
PM PT PM = PT , PM QT PM = QT y PM F PM = F
Hemos usado que la traza de un proyector es igual a su rank (sale eligiendo una BON que
empiece generando su imagen) y que tr AB = tr BA para todo par A , B ∈ L(M).
Lema 7.3.2. Sea T ∈ K(H). Entonces I + T ∈ F (H) y también vale que Ind (I + T ) = 0.
Demostración. Sea F ∈ LF (H) tal que kT − F k < 1. Luego, por el Teo. 6.1.4
En efecto, como S −1 F ∈ LF (H) el Lema 7.3.1 asegura que I + S −1 F ∈ F0 (H). Pero vimos
que multiplicarlo por un S ∈ Gl (H) no le cambiaba el ı́ndice.
Proposición 7.3.3. Sea T ∈ K(H). Dado λ ∈ σ(T ) tal que λ 6= 0, se tiene que
1. El tal λ es un autovalor.
λ ∈ σ(T ) ⇐⇒ Bλ ∈
/ Gl (H) ⇐⇒ α(Bλ ) = β(Bλ ) 6= 0 ,
porque sabemos que R(Bλ ) v H. En resumen, si λ ∈ σ(T ) \ {0}, entonces ker Bλ 6= {0} y
encima tiene que cumplirse que dim ker Bλ = dim ker Bλ∗ = dim R(Bλ )⊥ < ∞.
Observación 7.3.4. El resultado anterior se llama la “alternativa de Fredholm” (descubierta
a principios del siglo pasado para el caso de operadores integrales). La alternatividad consiste
en que si nos planteamos la ecuación T x = λ x + b
213
con la incógnita x y los datos b ∈ H , T ∈ K(H) y λ ∈ C \ {0} ,
entonces se tienen las dos posibilidades conocidas:
• O bien λ ∈ σ(T ) \ {0} y caemos en la Prop. 7.3.3. En tal caso tenemos la igualdad
dim ker(λ I − T ) = dim R(λ I − T )⊥ < ∞, que es parecido a lo que sabemos de los
sistemas de ecaciones del álgebra lineal: La dimensión del espacio de soluciones es
finita, e igual a la del ortogonal del espacio de los b ∈ H para los que hay solución. 4
Proposición 7.3.5. Sea T ∈ K(H) con dim H = ∞. Luego σ(T ) tiene dos posibilidades:
En ambos casos, todos los λn ∈ σ(T ) \ {0} son autovectores de multiplicidad finita.
Demostración. Dado m ∈ N, consideremos el conjunto σ(T )m = {λ ∈ σ(T ) : |λ| ≥ m1 }. Para
probar todo loSenunciado bastarı́a ver que σ(T )m es finito para todo m ∈ N. En efecto, como
σ(T ) \ {0} = m∈N σ(T )m , si todos fueran finitos la unión quedarı́a numerable, y cualquier
enumeración de σ(T ) \ {0} harı́a que sus elementos tiendan a cero (o que se terminen). Los
comentarios finales sobre las propiedades de los λn son un refrito de la Prop. 7.3.3.
Supongamos entonces que algún σ(T )m fuese infinito. Luego existirı́a una sucesión (µk )k∈N
en ese σ(T )m tal que µk 6= µr si k 6= r. Por la Prop. 7.3.3, para cada k ∈ N podrı́amos elegir
un vector unitario xk ∈ ker (T − µk I), y un subespacio Sk = span {x1 , . . . , xk } v H.
Como los xk son autovectores de autovalores distintos, ellos son un conjunto LI, por lo que
Sk ⊂ Sk+1 en forma propia para todo k ∈ N. Luego, por la el Lema de Riesz 1.4.4, podemos
ir eligiendo vectores unitarios yk+1 ∈ Sk+1 tales que d (yk+1 , Sk ) ≥ 21 para todo k ∈ N.
Setiemos y1 = x1 . Una cuenta directa muestra que se deberı́an cumplir dos cosas:
(a) T (Sk ) ⊆ Sk para todo k ∈ N, porque sus generadores xj son autovectores.
(b) Si k > 1, como xk ∈ ker (T − µk I) entonces (T − µk I) yk ∈ Sk−1 , porque le tachamos su
componente en xk y las anteriores no se mueven de Sk−1 . Luego, si r < k,
porque el bodoque T µyrr − (T −µk I) µykk ∈ Sr +Sk−1 ⊆ Sk−1 . Como todos los |µk | ≥ m1 , la
sucesión µykk k∈N vive en m · BH . Pero (7.10) dice que al aplicarle T no tiene subsucesiones
214
Observación 7.3.6. En las cuentas de la prueba de la Prop. 7.3.5, en forma deliberada no
se usó que H sea un Hilbert, salvo en el hecho de que los λ ∈ σ(T ) \ {0} de un T ∈ K(H)
debı́an ser autovalores. Este hecho sigue siendo cierto si E es un EB y T ∈ L(E) es compacto
(eso significaba que T (BE ) tenga clausura compacta). La prueba de la Prop. 7.3.3 en este
contexto es bastante más costosa que para elementos de K(H), y la omitiremos. Pero al
menos informamos que eso vale, y por lo tanto también la Prop. 7.3.5. 4
Ejemplo 7.3.7. Sea H = L2 [0, 1] y tomemos v ∈ L2 [0, 1]2 el núcleo dado por
def
la mitad de abajo de [0, 1]2 . Luego el operador V = Tv ∈ L(L2 ) está dado por
Z 1 Z x
V f (x) = v(x , y) f (y) dy = f (y) dy para f ∈ L2 y x ∈ [0, 1] . (7.11)
0 0
Este operador V se llama “el Volterra”. Observemos que para cada f ∈ L2 , la función V f
es la única primitiva F de f que cumple F (0) = 0. Por otro lado, como v ∈ L2 [0, 1]2 , en
el Ejem. 7.1.7 mostramos que el Volterra V = Tv ∈ K(L2 ), o sea que es compacto.
Es un hecho famoso que σ(V ) = {0}. La prueba usual consiste en hacer trabajosas acota-
ciones con integrales. Pero ahora, en vista de la Prop. 7.3.3, para mostrar que σ(V ) = {0}
nos alcanza con ver que V no puede tener autovalores, porque al ser un operador compacto
sabemos que si hubiera un λ ∈ σ(V ) \ {0} deberı́a ser uno de ellos.
Sea entonces λ ∈ C \ {0}. Si una f ∈ L2 cumple que F = V f = λ f , como F ∈ C[0, 1],
sabemos que f es continua y por ello F (y también f ) es derivable en todos los puntos.
Iterando, sale que f es muy suave (C ∞ ). Por otro lado, aplicando ahora la fórmula (7.11)
sabemos que f = F 0 = λ f 0 . Luego, de un curso básico de ED’s podemos deducir que nuestra
f (x) = k eλ x para cierta constante k ∈ C.
Pero también sabemos que λ f (0) = F (0) = 0. Esto obliga a que k = 0 por lo que f ≡ 0 y
minga autovector. Ni siquiera λ = 0 puede ser autovalor, porque es fácil ver que V es mono.
Resumiendo, V no tiene ningún autovector, ası́ que aplicando la Prop. 7.3.3 ya podemos dar
por demostrado que σ(V ) = {0}. 4
215
Teorema 7.4.1. Sea A ∈ K(H) tal que A = A∗ y σ(A) es infinito. Entonces existen
A la tal B se la llama una BON de autovectores de A (aunque hay que agregarle una BON
de ker A, que bien puede ser infinita, para que generen todo H).
d
Demostración. Podemos representar a σ(A) = {0} ∪ {λn : n ∈ N} con los λn −−−→ 0
n→∞
como en la Prop. 7.3.5. Luego todos esos λn son puntos aislados de σ(A). Consideremos
ahora los proyectores Pn = P{λn } = 1{λn } (A) del Cor. 6.5.9. Allı́ se vió que los subespacios
def
Sn = R(Pn ) = ker(λn I − A) para todo n ∈ N. Observar que, por las propiedades del CFC,
Pn Pm = 1{λn } (A) 1{λm } (A) = 1{λn } · 1{λm } (A) = 0 siempre que n 6= m .
Como los Sn son ortogonales 2 a 2, podemos construir una BON de S pegando sendas
BON’s de cada Sn (todas ellas finitas). Llamémosla B = {xk : k ∈ N}. Al mismo tiempo
construyamos la sucesión (µk )k∈ N en R repitiendo dim Sn veces cada λn . En ambos casos
respetando el orden de los n ∈ N (por los λn repetidos y por los vectores de cada BONcita).
Como cada A|Sn actúa multiplicando por λn y las numeraciones fueron hechas coherente-
mente, vale que cada A xk = µk xk . Luego la fórmula (7.12) se cumple para todo y ∈ S :
(3.18) X X
y ∈ S = span {B} =⇒ y = hy , xk i xk =⇒ A y = µk hy , xk i xk . (7.14)
k∈N k∈N
De esto podemos deducir que A(S) ⊆ S. Como A = A∗ , el Cor. 4.5.4 dice que S ∈ Latr (A),
o sea que A(S ⊥ ) ⊆ S ⊥ . Consideremos entonces A0 = A|S ⊥ ∈ L(S ⊥ ). Observar que
• También vale que A0 ∈ A(S ⊥ ) como hemos visto otras veces (por ejemplo por (4.39) ).
• Pero además tenemos que σL(S ⊥ ) (A0 ) = {0}, porque no le quedan autovectores libres
para ningún λ 6= 0 (de haberlos lo serı́an también de A, pero están todos en S).
216
Usando estas tres cosas, por el CFC en A0 (o el Cor. 6.4.7) vemos que A0 = 0.
Finalmente, si descomponemos a un vector y = y0 + y1 ∈ S ⊥ ⊕ S = H, entonces tenemos
que hy , xk i = hy1 , xk i para todo k ∈ N. Como vimos que A y0 = A0 y0 = 0, queda que
X X
µk hy , xk i xk = µk hy1 , xk i xk = A y1 = A y ,
k∈N k∈N
ahora para todo y ∈ H. Finalmente, mirando fijo la Ec. (7.14) y lo que se dijo después vemos
que S ∩ ker A = {0} mientras que S ⊥ ⊆ ker A. De ahı́ se deduce que S ⊥ = ker A. Esto
justifica la afirmación de que B era una BON de (ker A)⊥ = S.
Observaciones: 7.4.2. Sigamos en el caso de A ∈ K(H) ∩ A(H). Manteniendo las nota-
ciones del Teo. 7.4.1, se tienen las siguientes propiedades extra:
1. En el caso que faltaba en el que σ(A) es finito, una cuenta más fácil que la de arriba
muestra que A ∈ LF (H) y también tiene una BON de autovectores de (ker A)⊥ , que
ahora será finita. Y con ella sale una Ec. (7.12) con sumas finitas.
3. Por otra parte, podemos usar los proyectores P{λn } = 1{λn } (A) para obtiener otra linda
representación de A, que describe mejor su comportamiento:
X X
A = λn P{λn } = λn Pker (λn I−A) , (7.16)
n∈N n∈N
que son únicos aún sin pedrles que sean compactos. En particular, todo T ∈ K(H) es CL
de 4 positivos compactos.
217
Demostración. Sabemos que existen (y son únicos) por la Prop. 6.5.15. Pero para ver que
son compactos hagamos esto: Sea σ(A) = {0} ∪ {λn : n ∈ N} ⊆ R. Escribamos
(7.16) X
Pn = Pker (λn I−A) , n ∈ N y A = λn P n .
n∈N
d
Sean I = {n ∈ N : λn ≥ 0} y J = {n ∈ N : λn < 0}. Luego I ∪ J = N y los operadores
X X
A+ = λ n Pn y A − = − λn Pn ∈ L(H)+ ∩ K(H)
n∈I n∈J
1. Dada f ∈ C(σ(A) ) tal que f (0) = 0, con las notaciones del Teo. 7.4.1 se tiene que
♣ X X
f (A) = f (µk ) xk xk = f (λn ) P{λn } , (7.18)
k∈N n∈N
con convergencia en la norma de L(H). Para probarlo basta fijarse que anda bien
para los polis p ∈ C[X] tales que p(0) = 0 (aproximan a esas f ’s). Sale usando que
?
X X
An y = hAn y , xk i xk = µnk hy , xk i xk para todo par k , n ∈ N ,
k∈N k∈N
?
donde = se debe a que todos los R(An ) ⊆ R(A) y B es BON de R(A). Para los lı́mites
se usa que los operadores a comparar son diagonalizables en la misma BON, ası́ que
la Ec. (7.4) da que su distancia es la infinito de las “diagonales”. Eso demuestra la
♣
igualdad = de (7.18). Para probar = se usa el mismo argumento que en (7.16).
2. En cambio, para las funciones f ∈ C(σ(A) ) tales que f (0) 6= 0 nos queda que
P
f (A) = f (0) IH + (f (λn ) − f (0) ) P{λn }
n∈N
P (7.19)
= f (0) IH + (f (µk ) − f (0) ) xk xk
k∈N
218
3. Otra manera de escribir la Ec. (7.19) es ésta: Para toda f ∈ C(σ(A) ),
X X
f (A) = f (0) Pker A + f (λn ) P{λn } = f (0) Pker A + f (µk ) xk xk . (7.20)
n∈N k∈N
Sin embargo, ahora la convergencia no es en norma sino puntual. Esto significa que
las series convergen recién después de evaluar en un y ∈ H. Por ejemplo
X
f (A) y = f (0) Pker A (y) + f (µk ) hy , xk i xk para todo y ∈ H ,
k∈N
Observación 7.4.5. Como siempre los normales quedan para los remarks. Si N ∈ K(H)
es normal, entonces el Teo. 7.4.1 y las Ec’s. (7.15), (7.16), (7.18), (7.19) y (7.20) valen tal
cual, slavo el hecho de que ahora los µk ∈ C y no necesariamente a R. La prueba es igual,
dado que usa el CFC, que también camina para los normales.
Otra sutileza es que, si S es el subespacio definido en la Ec. (7.13), ahora hay que probar a
mano que S ∈ Latr (N ), sin la ayuda del Cor. 4.5.4. Esto no se deduce de que S ∈ Lat (N )
como en el caso en que N ∈ A(H), pero sale usando que el proyector PS es lı́mite puntual
de las sumas finitas de los proyectores PSn = 1{λn } (N ) , que conmutan con N . 4
Definición 7.4.6. Usemos las notaciones del Teo. 7.4.1, pero ahora para un A ∈ K(H)
que sea positivo, o sea A ∈ L(H)+ . Se vió que la sucesión (µk )k∈ N se construye con los
autovalores de A contados “con multiplicidad” (tantos como la dimensión de su espacio de
autovectores), y sabemos que ella converge a cero.
Como ahora todos los µk ≥ 0 (Prop. 6.4.2), la sucesión puede ser reordenada para que quede
decreciente, y en tal caso es unı́voca. A tal sucesión decreciente se la denotará por
Pot otro lado, si T ∈ K(H) sabemos que |T | ∈ K(H) y que es positivo. Definimos
• Además f es no decreciente.
219
En tal caso se tiene la siguiente data sobre f (A): Con las notaciones de (7.21),
+
f (A) ∈ L(H) ∩ K(H) y tiene su µ(f (A) ) = f (µk (A) ) . (7.23)
k∈N
con la misma BON de autovectores que A. Para que f (A) ∈ K(H) alcanzaba con que
f (0) = 0, sin pedirle las otras cosas.
Demostración. Antes que nada hay que ver que f (0) = 0 =⇒ f (A) ∈ K(H). Esto sale
porque σ(A) es una sucesión que tiende a cero, por lo que σ(f (A) ) = f (σ(A) ) (esto era el
Teo. 6.5.4) es otra del mismo tipo. Después uno mira la fórmula (7.18) en su versión con
proyectores, y deduce que f (A) es lı́mite en norma de las sumas finitas que viven en LF (H).
Asumamos ahora que f cumple también las otras dos cosas. El hecho de que f (A) ∈ L(H)+
ya fue probado en la Ec. (6.27) del Teo. 6.5.4. Tenı́amos que σ(f (A) ) = f (σ(A) ), o sea
que tan solo los f (µk (A) ), y eventualmente el 0, pueden ser autovectores de f (A). Pero las
multiplicidades son las correctas y la BON es la misma
por laEc. (7.18). Finalmente, el hecho
de que f sea creciente asegura que la sucesión f (µk (A) ) sigue siendo decreciente, y
k∈N
por ello coincide con µ(f (A) ).
Teorema 7.4.8. Sea T ∈ K(H) \ LF (H). Luego existen dos SON’s :
1. B1 = {xk : k ∈ N}, que es BON de (ker T )⊥ , y
220
Ejercicio 7.4.9. Dado T ∈ K(H), probar que s1 (T ) = k |T | k = kT k. 4
Ejercicio 7.4.10. Probar que si T ∈ LF (H), entonces tiene una representación del tipo
(7.24) pero con sumas finitas. De paso mostrar que, si ahora T ∈ K(H) \ LF (H), truncando
en (7.24) obtenemos una sucesión posta en LF (H) que le converge a T . Posta significa que
minimiza la distancia de T a los operadores del rango de cada truncado. 4
Ejercicio 7.4.11. Sea T ∈ K(H). Probar que ese T es diagonalizable (c.f. Ejem. 7.1.4) si
y sólo si T es normal. En tal caso vale que sk (T ) = |µk (T )| para todo k ∈ N (o hasta donde
sea que lleguen si T era rango finito), siempre que uno enumere los µk (T ) para que tengan
módulos decrecientes (se puede porque van hacia cero). 4
α(T ) = dim ker T < ∞ , β(T ) = dim ker T ∗ = dim R(T )⊥ < ∞ y R(T ) v H .
Luego definı́amos el ı́ndice de Fredholm como la función Ind : F (H) → Z dada por
En la Obs. 7.2.4 vimos que, entre otras, se tienen las siguientes propiedades: Si me dan dos
operadores T , M ∈ F (H), se tenı́a que M T y T M ∈ F (H). También vale que
221
Demostración. Sean N = ker T y M = R(T ) v H. El hecho de que Ind (T ) = 0 significa
que dim N = α(T ) = β(T ) = dim M⊥ < ∞. Luego existe un operador F0 ∈ L(N , M⊥ ) que
es un iso. Podemos extender F0 a un F ∈ LF (H) haciendolo actuar como cero en N ⊥ . Es
acotado porque F x = F0 PN x para todo x ∈ H y porque F0 era automáticamente continuo.
Ahora una cuenta directa muestra que T + F ∈ Gl (H) como se anunció. La idea es que
T = T PN ⊥ = T (I − PN ) =⇒ (T + F ) x = T (I − PN ) x + F PN x ∈ M ⊕ M⊥
para todo x ∈ H. Luego las acciones de T y de F son independientes entre sı́. Como T
def
también es iso entre N ⊥ y M v H, sale que G = T + F ∈ Gl (H).
Tomemos ahora un A ∈ K(H), y llamemos B = A − F ∈ K(H). Por lo tanto tenemos que
T + A = G + B = G (I + G−1 B). Calculando ı́ndices terminamos el laburo:
(7.25) 7.3.2
Ind (T + A) = Ind (G + B) = Ind G (I + G−1 B) = Ind (I + G−1 B) = 0 .
Para probar las propiedades más interesantes de la teorı́a de Fredholm hay una herramienta
especialmente útil: La suma directa de operadores. Todo lo referente a esas sumas es muy
elemental, pero son muchas cosas. En el siguiente ejercicio enumeramos exhaustivamente
los hechos que nos interesarán de estos operadores. La mayor parte de los enunciados que
siguen ya habı́an aparecido en el viejo Ejer. 4.7.1. Lo novedoso va con ∗.
Ejercicio 7.5.2. Sean H y K dos EH’s. Luego el espacio H ⊕ K con la estructura usual de
C-EV (sumando y multiplicando por escalares en cada coordenada) y el PI dado por
(x1 , y1 ) , (x2 , y2 ) = hx1 , x2 iH + hy1 , y2 iK para (x1 , y1 ) , (x2 , y2 ) ∈ H ⊕ K
S ⊕T =S ⊕T y (S ⊕ T )⊥ = S ⊥ ⊕ T ⊥ .
para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas:
222
1. Primero hay que verificar que efectivamente M ⊕ N ∈ L(H ⊕ K).
5. Entre estos operadores, las operaciones sumar, multiplicar, adjuntar e invertir (si se
puede), se hacen en cada coordenada.
Ind a : GCal (H) → Z dado por Ind a ( T ) = Ind (T ) para cada T ∈ F (H) . (7.29)
porque A ⊕ 0 es compacto en L(K). Esto prueba (7.28) en el caso Ind (T ) > 0. El caso de
ı́ndice nulo ya lo vimos, y el caso negativo se deduce del positivo cambiando T por T ∗ .
223
Teorema 7.5.4. Sea H un EH. Luego la flecha Ind : F (H) → Z es continua. Esto significa
que los conjuntos Fn (H) son abiertos para todo n ∈ Z.
Demostración. Alcanza con ver que F0 (K) es abierto para todo Hilbert K. En efecto,
observar que si S ∈ L(`2 (N) ) el shift a derecha, entonces para un n > 0 tenemos que
7.5.2
Fn (H) ⊕ S n = F0 H ⊕ `2 (N) ∩ L(H) ⊕ S n , todo en L H ⊕ `2 (N) .
7.6 La traza
Todos sabemos qué es la traza de matrices, y hasta la hemos usado un par de veces en este
texto. En el contexto de un Hilbert H tal que dim H = ∞, la tr de un T ∈ L(H) se define
como siempre (la suma de la “diagonal”), pero la gracia va a ser estudiar a aquellos T tales
que tr T < ∞. Además veremos que sus propiedades se mantienen intactas. Pero definirla
no es tan fácil, porque la diagonal depende en principio de la BON que uno elija. Para hacer
las cosas bien conviene empezar por los positivos.
224
Definición 7.6.1. Sea H un EH. Definiremos la traza de un T ∈ L(H)+ por la fómula
X
tr T = hT ei , ei i ∈ R+ ∪ {+∞} , (7.30)
i∈I
Si ahora fijamos j ∈ I y sumamos los segundos de (7.32) sobre i ∈ I nos queda que
X D E
h T ∗ ej , ei i ei , T ∗ ej = h T ∗ ej , T ∗ ej i = h T T ∗ ej , ej i .
i∈I
Si ahora sumamos tutti en la (7.32), como todos los téminos son positivos da lo mismo el
orden en que lo hagamos. Luego estamos como queremos:
h T ∗ T ei , ei i =
P P P
h T ei , ej i h ej , T ei i
i∈I i∈I j∈I
(7.32)
h T ∗ ej , ei i h ei , T ∗ ej i = h T T ∗ ej , ej i .
P P P
=
j∈I i∈I j∈I
O sea que tr ( T ∗ T ) = tr ( T T ∗ ).
Corolario 7.6.3. Sea T ∈ L(H)+ . Entonces se tienen las siguientes propiedades:
1. Vale la igualdad tr T = tr (U ∗ T U ) para cualquier U ∈ U(H)
2. El valor de tr T es independiente de la BON que se use en la fórmula (7.30).
En resumen, en la Def. 7.6.1 se puede cambiar “una BON fija” por “cualquier BON”.
Demostración. Aplicándole la Ec. (7.31) al operador S = U ∗ T 1/2 nos queda que
(7.31)
tr (U ∗ T U ) = tr (U ∗ T 1/2 T 1/2 U ) = tr (SS ∗ ) = tr (S ∗ S) = tr(T 1/2 U U ∗ T 1/2 ) = tr T .
Fijada B = {ei : i ∈ I}, toda otra BON de H tiene la forma BV = {V ei : i ∈ I} para algún
V ∈ U(H). Por ello, si calculamos la tr T con BV llegamos a que
X X
hT V ei , V ei i = hV ∗ T V ei , ei i = tr (V ∗ T V ) = tr T .
i∈I i∈I
225
7.6.4. La función tr : L(H)+ → R+ ∪ {+∞} cumple algunas propiedades: Si A ∈ L(H)+
P
1. tr A = i∈I hA ei , ei i, ahora para cualquier BON {ei : i ∈ I} de H.
7. Luego podemos afirmar la siguiente caracterización que será util más adelante:
Ahorita veremos que los positivos “traza finita” son siempre de estos. 4
En particular tendremos que an −−−→ 0 y por el Ejem. 7.1.5 ello asegura que Ma , B ∈ K(H).
n→∞
Es un hecho general que los operadores con traza finita (de él o de alguna potencia) tienen
que ser compactos, aunque la “compacidad” no alcanza para asegurar traza finita.
Para decirlo propiamente recordemos que si T ∈ L(H) entonces |T | ∈ L(H)+ por lo que
podemos usar el CFC en |T | y definir f ( |T | ) ∈ L(H) para cualquier función f ∈ C[0, ∞).
Lo usaremos seguido para las f (t) = tp con p > 0.
226
Proposición 7.6.5. Sea T ∈ L(H). Si existe algún p > 0 tal que se cumpla que
tr |T |p < ∞ =⇒ T ∈ K(H) .
Demostración. Sea B = {xi : i ∈ I} una BON de H. Consideremos la red asociada de
proyectores (PF )F∈PF (I) definida en el Lema 7.1.1. Recordemos que R(PF ) = span {xi : i ∈ F}
y llamemos QF = IH − PF para cada F ∈ PF (I). Dado un y ∈ H unitario vale que
7.6.4 X
k |T |p/2 QF yk2 = hQF |T |p QF y , yi ≤ tr QF |T |p QF = h |T |p xi , xi i −−−−−→ 0 ,
F∈PF (I)
i∈F
/
donde la convergencia final se debe a que la tr |T |p < ∞ (calculándola con B). Observar que
k·k
lo que va a cero es independiente del y ∈ BH , o sea que |T |p/2 PF −−−→ |T |p/2 . Aplicando el
n→∞
Teo. 7.4.8 y adjuntando, llegamos a que |T |p/2 ∈ K(H) =⇒ |T |p ∈ K(H) ∩ L(H)+ .
Luego podemos aplicarles el Cor. 7.4.7 a |T |p y a la función f (t) = t1/p para t ∈ [0, +∞).
Deducimos que f (|T |p ) = (|T |p )1/p ∈ K(H). Finalmente, la Ec. (6.32) del Ejer. 6.5.13 nos
Cor. 7.1.3
asegura que |T | = (|T |p )1/p ∈ K(H) =⇒ T ∈ K(H).
7.6.6. Sea H un EH. Consideremos los siguientes subespacios de K(H) asociados a la traza.
• Para empezar sea L1 (H)+ = {A ∈ L(H)+ : tr A < ∞} ⊆ K(H).
def
• Los operadores traza: L1 (H) = span {L1 (H)+ }.
def
• Los Hilbert-Schmit (HS): L2 (H) = {T ∈ K(H) : tr(T ∗ T ) < ∞}.
Queremos extender la traza a una función lineal tr : L1 (H) → C. Vamos por pasos:
Si B ∈ L1 (H) ∩ A(H) entonces B = k∈In αk Ak con los Ak ∈ L1 (H)+ y los αk ∈ R, porque
P
las partes imaginarias se cancelan. Luego definimos
! !
X (7.33) X X
tr B = αk tr Ak = tr αk Ak − tr −αk Ak ∈ R . (7.36)
k∈In αk ≥0 αk <0
X X X X (7.33) X X
αk Ak + −βj Cj = βj C j + −αk Ak =⇒ αk tr Ak = βj tr Cj ,
αk ≥0 βj <0 βj ≥0 αk <0 k∈In j∈Im
porque todos los coeficientes de la izquierda son positivos. Observar que la fórmula (7.36)
hace que la tr sea R-lineal en L1 (H) ∩ A(H). Sigamos extendiendo:
El segundo paso es tomar un T ∈ L1 (H) y ahora la cosa es más fácil. Hay que notar que
L1 (H) = L1 (H)∗ , lo que se deduce directamente de su definición. Este hecho implica que
∗
Re(T ) = T +T
2
∈ L1 (H) y lo mismo para Im(T ). Finalmente basta poner
tr T = tr Re(T ) + i tr Im(T ) .
227
Como la descomposición T = Re(T ) + i Im(T ) es única (ver 4.2.5), ni siquiera hay que
verificar la BD. Encima, como las flechas T 7→ Re(T ) y T 7→ Im(T ) ya eran R-lineales
y multiplicar por i permuta Re con Im, sale sin dificultad que nuestra traza extendida
tr : L1 (H) → C es C-lineal en todo L1 (H). Ahora que sabemos que lo es, podemos dar una
propiedad-definición mucho más satisfactoria: Si T ∈ L1 (H), entonces
X
tr T = hT ei , ei i para cualquier BON {ei : i ∈ I} de H . (7.37)
i∈I
En efecto, ambos términos son lineales en T , y la igualdad se cumple para los generadores
de L1 (H)+ . La Ec. (7.37) tiene dos consecuencias útiles: Si T ∈ L1 (H), entonces
Con respecto a L2 (H), decı́amos que es un subespacio, pero hace falta probarlo. Para ello
sirve observar que dados S , T ∈ L(H), se cumple la siguiente desgualdad paralelográmica:
(S + T )∗ (S + T ) ≤ (S + T )∗ (S + T ) + (S − T )∗ (S − T ) = 2 (S ∗ S + T ∗ T ) . (7.39)
La prueba es tan solo distribuir y simplificar. Mirándola fijo uno descubre que ella muestra
que L2 (H) era nomás un subespacio. Por otro lado, usando la Prop. 7.6.2 (tr T ∗ T = tr T T ∗ )
vemos inmediatamente que L2 (H) = L2 (H)∗ . Para terminar este potpurrı́, veamos que
3
X
4T∗ S = ik (S + ik T )∗ (S + ik T ) para todo par S , T ∈ L(H) . (7.40)
k=0
228
1. Veamos que L1 (H) es ideal. Fijemos un T ∈ L1 (H)+ . En principio, la Prop. 7.6.2
asegura que para cualquier B ∈ L(H) se tiene que
(7.31) 7.6.4
tr B ∗ T B = tr (B T 1/2 )∗ (B T 1/2 ) = tr T 1/2 B ∗ B T 1/2 ≤ kBk2 tr T ,
(7.44)
(6.39)
porque B ∗ B ≤ kBk2 I. Dados ahora otro A ∈ L(H), la Ec. (7.40) dice que
3
4 T A = 4 T 1/2 · T 1/2 A = ik (T 1/2 A + ik T 1/2 )∗ (T 1/2 A + ik T 1/2 )
P
k=0
3 (7.44)
ik (A + ik I )∗ T (A + ik I ) ∈ L1 (H) .
P
=
k=0
Pero como L1 (H)+ genera L1 (H) y L1 (H) = L1 (H)∗ (eso para que A∗ T ∈ L1 (H) ), lo
de arriba alcanza para convencerse de que L1 (H) es ideal bilátero.
Si ahora tenemos un S ∈ L2 (H) y un C ∈ L(H), lo que vimos de L1 (H) hace que
Del hecho de que también L2 (H)∗ = L2 (H) sale que L2 (H) es ideal bilátero.
3. La primera equivalencia de (7.42) de deduce de las Ec’s. (7.41) y (7.35), usando que
s(T ) = µ( |T | ). Para ver la otra se hace esta cuenta, basada en la Ec. (7.23):
T ∈ L2 (H) ⇐⇒ T ∗ T ∈ L1 (H)
(7.35) (7.23)
⇐⇒ s( T ∗ T ) = µ( |T |2 ) =
µk ( |T | )2 k∈N
∈ `1 (N)
⇐⇒ s(T ) = µ( |T | ) ∈ `2 (N) .
229
Teorema 7.6.9. El espacio L2 (H) de operadores de Hilbert Schmit cumple lo siguiente:
3. Con ese PI, el espacio L2 (H) es un Hilbert. O sea que hay completitud con la norma
1/2 1/2
tr T ∗ T
def
kT k2 = hT , T itr = para T ∈ L2 (H) .
Demostración. El item 1 se deduce directamente de la Ec. (7.40). Del hecho de que la traza
es lineal en L1 (H) deducimos sin problemas que el h· , ·itr es sesquilineal. Es conjugadamente
simétrico y semidefinido positivo por la Ec. (7.38). Por ejemplo, dados S , T ∈ L2 (H),
(7.38)
hT , Sitr = tr S ∗ T = tr (T ∗ S)∗ = tr T ∗ S = hS , T itr .
El hecho de que sea definido positivo sale usando el item 3 de 7.6.4, donde se vió que
7.6.4
T ∈ L2 (H) \ {0} =⇒ kT k22 = hT , T itr = tr T ∗ T ≥ kT ∗ T k = kT k2 > 0 . (7.46)
Falta ver que L2 (H) es completo con la k · k2 . Fijemos una sucesión (Tn )n∈ N en L2 (H) que
sea de Cauchy en la k · k2 . Por la desigualdad k · k2 ≥ k · k vista en (7.46), podemos afirmar
k·k
que existe un T ∈ K(H) tal que Tn −−−→ T .
n→∞
Dado ε > 0 sea n0 tal que kTm − Tn k2 < ε para n , m ≥ n0 . Antes de seguir, fijemos
una proyección P ∈ LF (H) y un n ≥ n0 . En este caso concreto podemos afirmar que la
convergencia en la norma usual implica que k(Tm − Tn )P k2 −−−→ k(T − Tn )P k2 , porque
m→∞
gracias a P la traza se hace con una suma finita. Ahora sı́ podemos ver que
(7.38)
sup tr (Tm − Tn ) (Tm − Tn )∗ = sup k(Tm − Tn )k22 ≤ ε2 .
≤
m≥n0 m≥n0
230
1. Dado un M ∈ L2 (H) y cualquier A ∈ L(H) sabemos que A M ∈ L2 (H), pero además
kA M k2 ≤ kAk kM k2 . (7.47)
kA M k22 = tr (M ∗ A∗ A M ) ≤ tr M ∗ ( kA∗ Ak I ) M
C−S (7.47)
≤ kU |S|1/2 k2 k |S|1/2 k2 ≤ kU k k |S|1/2 k22 = tr |S| .
En un momento se usó que kB ∗ k2 = kBk2 para B ∈ L2 (H). Eso sale de la Ec. (7.31). Para
probar la (7.48) general recordemos que la Ec. (6.41) mostraba que |AT | ≤ kAk |T | como
operadores. Tomando traza deducimos que tr |A T| ≤ kAk tr |T |. Finalmente, aplicando la
Ec. (7.49) al operador S = A T sale que tr (A T ) ≤ tr |A T |.
Proposición 7.6.11. La traza cumple su paradigmática propiedad
tr S T = tr T S (7.50)
Demostración. Como ahora sabemos que siempre vale la Ec. (7.37), la prueba es básicamente
la misma que la de la Prop. 7.6.2: Hacer una serie doble y cambiar el orden de las sumatorias.
231
El problema es que en el caso general los términos que hay que sumar no son positivos como
entonces. Ası́ que mejor aplicamos la fórmula (7.40) y recién ahı́ la Ec. (7.37):
3
(7.40) P
4 tr T ∗ S = ik tr (S + ik T )∗ (S + ik T )
k=0
(7.37) 3
ik tr (S + ik T )(S + ik T )∗
P
=
k=0
(7.51)
3
ik tr (S ∗ + i−k T ∗ )∗ (S ∗ + i−k T ∗ )
P
=
k=0
3 (7.40)
ik tr (T ∗ + ik S ∗ )∗ (T ∗ + ik S ∗ ) = 4 tr S T ∗ .
P
=
k=0
Ojo que lo de arriba sólo tiene sentido cuando S y T ∈ L2 (H). Para el otro caso podemos
asumir que T ∈ L1 (H)+ , porque ellos generan. Entonces sabemos que T 1/2 ∈ L2 (H) y por
lo que probamos arriba podemos hacer la siguiente cuenta: Dado S ∈ L(H), vale que
(7.51) (7.51)
tr S T = tr (S T 1/2 ) T 1/2 = tr (T 1/2 S) T 1/2 = tr T 1/2 (T 1/2 S) = tr T S .
Ahora a laburar con la completitud. Es casi lo mismo que para L2 (H): Fijemos una sucesión
(Tn )n∈ N en L1 (H) que sea de Cauchy en la k · k1 . Por la desigualdad k · k1 ≥ k · k vista
k·k
recién, podemos afirmar que existe un T ∈ K(H) tal que Tn −−−→ T . Dado ε > 0 sea n0 tal
n→∞
que kTm − Tn k1 < ε para n , m ≥ n0 . Antes de seguir, fijemos una proyección P ∈ LF (H) y
un n ≥ n0 . Luego podemos afirmar que la convergencia en la norma usual implica que
(7.50)
tr P |Tm − Tn | = tr P |Tm − Tn | P −−−→ tr P |T − Tn | P ,
m→∞
porque P hace que la traza sea una suma finita, y porque el Cor. 6.6.7 aseguraba que
Tm −−−→ T =⇒ |Tm − Tn | −−−→ |T − Tn |. Luego, si n ≥ n0 tenemos que
m→∞ m→∞
(7.50)
tr P |T − Tn | P = lim tr P |Tm − Tn | = lim tr |Tm − Tn |1/2 P |Tm − Tn |1/2
m→∞ m→∞
(7.38)
≤ sup tr |Tm − Tn | = sup k(Tm − Tn )k1 ≤ ε .
m≥n0 m≥n0
232
Como la acotación vale con n ≥ n0 para cualquier proyector P ∈ LF (H), lo podemos
agrandar hasta llegar a que k(T − Tn )k1 ≤ ε para todo n ≥ n0 . De esto deducimos que
T ∈ L1 (H) y que k(T − Tn )k1 −−−→ 0, ası́ que L1 (H) es un EB de ley.
n→∞
Ejercicio 7.6.13. Recordemos la Ec. (7.43): LF (H) ⊆ L1 (H) ⊆ L2 (H) ⊆ K(H). Probar
que cada uno de ellos en denso en los más grandes con sus normas. En otras palabras, probar
que LF (H) es denso en los tres con las normas que les corresponden (1, 2 e ∞). 4
Para lo que nos falta hacer conviene tener como herramientas algunas cuentas más sobre los
tensorcitos x y ∈ LF (H) vistos en la Sección 4.6. En las demostraciones que se vienen
usaremos (sin citar ni aclarar) las múltiples propiedades ya probadas en la Prop. 4.6.4, ası́
que damos una versión retroactiva antes de seguir.
Repaso de la Prop. 4.6.4. Sea H un EH. Fijemos x , y ∈ H. Luego:
2. El adjunto: (x y)∗ = y x.
A · (x y) = (Ax) y and (x y) · B = x (B ∗ y) .
Demostración.
233
x
1. Si x = 0 es trivial. Sinó, sea x1 = kxk . Como R(x y) = span {x1 }, podemos calcular
su traza empezando (y terminando) por x1 :
tr x y = x y (x1 ) , x1 = hx1 , yi hx , x1 i = hx1 , yi kxk = hx , yi .
1/2 1/2
2. |x y| = y x · x y = kxk2 y y = kxk kyk · (y1 y1 )1/2 = kxk kyk · y1 y1 .
3. Es porque tr y1 y1 = tr Pspan{y} = 1. La igualdad con kx yk se vió en la Prop. 4.6.4.
4. También se vió en la Prop. 4.6.4, agregando ahora el hecho de que x y es compacto.
5. Es cuestión de hacer la cuenta. Si nos armamos de paciencia vemos que
D E
xy, z w = tr w z · x y = hx , zi tr w y = hx , zi hw , yi .
tr
O sea que la flecha L2 (X × X , µ × µ) 3 k 7→ Tk ∈ L2 (H) manda una BON en otra BON (los
φi φj por el Teo. 7.6.15), por lo que es una isometrı́a entre esos dos EH’s. Esto se traduce
a que si H = L2 (X, µ), sus operadores de Hilbert Schmit coinciden con los nucleares Tk para
los núcleos k ∈ L2 (X × X , µ × µ), y que la norma 2 de ellos es igual a la kkk2 . 4
Teorema 7.6.17. Sea H un EH. Luego tenemos sendos isomorfismos isométricos
L1 (H) ∼
= K(H)∗ y L(H) ∼
= L1 (H)∗ (7.54)
234
Demostración. Recordemos de la Ec. (7.48) que | tr S T | ≤ kSk tr |T | para S ∈ L(H) y
T ∈ L1 (H) cualesquiera. Eso permite definir sendas flechas
Ahora viene el laburo: Dada una ϕ ∈ K(H)∗ , la podemos restringir a L2 (H) (recordemos que
L2 (H) ⊆ K(H) ). Nos queda una ϕ ∈ L2 (H)∗ y no se agranda su norma (porque k·k2 ≥ k·k).
Pero vimos que L2 (H) es un EH. Luego el TRR 3.3.1 nos provee de un T ∈ L2 (H) tal que
Por otro lado, dado un proyector P ∈ LF (H) y haciendo T = U |T | su DP, vale que
tr P |T | = tr P U ∗ T = |ϕ(P U ∗ )| ≤ kϕk .
La Prop. 4.1.2 (Lax-Milgram) nos produce un S ∈ L(H) tal que kSk ≤ kφk y
7.6.14
φ x y = B(x , y) = hS x , yi = tr S x y = φS x y para x, y ∈ H .
Finalmente, en 4.6.6 vimos que los x y generan LF (H), que a su vez es k · k1 -denso en
L1 (H). Luego lo de arriba dice que φ = φS y que kφS k ≥ kSk. Con ello hemos probado que
la otra flecha de (7.55) es un iso isométrico sobre L1 (H)∗ .
Observación 7.6.18. Las dualidades de arriba son una especie de extención de las viejas
c∗0 = `1 y (`1 )∗ = `∞ . De hecho, fijando una BON (numerable) de H uno contruye operadores
diagonales y se aviva de que un Ma ∈ L(H) dado por una a = (an )n∈ N ∈ CN cumple que
Además es un lindo ejercicio verificar que las dualidades viejas coinciden con tr(Ma Mb ).
Otra manifestación de esta analogı́a se ve en aquel Ejer. 7.1.8. 4
235
Observación 7.6.19. Una consecuencia importante de que L(H) sea el dual de L1 (H)
(Teo. 7.6.17) es que le podemos aplicar Alaoglu para decir que la bola BL(H) es w∗ -compacta.
Claro que acá converger w∗ es traceando contra todo A ∈ L1 (H), lo que no parece fácil de
testear. Sin embargo, en la bola BL(H) hay una manera mucho más concreta de describir esa
topologı́a. Definamos la convergencia WOT, que habı́a aparecido en 5.9.22.
Definición 7.6.20. Fijemos una red T = (Ti )i∈ I y un T , todos en L(H). Decimos que
W.O.T.
Ti −−−→ T (se lee “Ti converge debilmente o WOT a T ”) si se cumple que
i∈I
Esta convergencia proviene de la topologı́a WOT en L(H) dada por la familia de seminormas
Pxy (T ) = | hT x , yi | (para x , y ∈ H y T ∈ L(H) ), que lo hacen ELC. 4
Proposición 7.6.21. Sea H un EH. En la bola BL(H) (o en cualquier acotado de L(H) ) las
topologı́as WOT y w∗ de L(H) coinciden. Por lo tanto BL(H) es WOT compacta.
Proof. Por la Prop. 7.6.14 sabemos que para cualquier T ∈ L(H) valen las igualdades
hT x , yi = tr T x y = tr T (x y) para todo par x , y ∈ H .
Como todos los x y ∈ LF (H) ⊆ L1 (H) tenemos que la convergencia w∗ implica la WOT
en todo L(H), y por lo tanto también en BL(H) .
W.O.T.
Pero la misma igualdad asegura que si Ti −−−→ T , entonces tr Ti F −−→ tr T F para todo
i∈I i∈ I
operador F ∈ LF (H). Al fin y al cabo, en 4.6.6 se vió que tales F son suma de finitos
tensorcitos xk yk . Por otro lado LF (H) es k · k1 denso en L1 (H).
W.O.T.
Asumamos ahora que los Ti −−−→ T y que todos viven en BL(H) . Fijado un A ∈ L1 (H) y
i∈I
un ε > 0, tomemos un F ∈ LF (H) tal que kA − F k1 < ε. Luego
| tr (T − Ti ) A| ≤ | tr (T − Ti ) (A − F )| + | tr (T − Ti ) F |
(7.48)
≤ kT − Ti k kA − F k1 + | tr (T − Ti ) F |
Entonces tr Ti A −−→ tr T A para todo operador A ∈ L1 (H). Ası́ que también vale que la
i∈ I
convergencia WOT implica la w∗ si nos quedamos en BL(H) , por lo que ambas topologı́as
coinciden allı́. La compacidad de BL(H) con la w∗ = WOT es Alaoglu. Listo.
Ejercicio 7.6.22. Sea H un EH separable. Probar que
236
1. Si {xn : n ∈ N} es un denso en BH , entonces la fórmula
X 1
kT kW = h T xn , xm i para cada T ∈ L(H) ,
n,m∈N
2 n+m
Ojo con lo siguiente: Si suponemos que dim H = ∞ (sea o no separable), vale que
237
7.7 Ejercicios del Cap. 7 - Operadores compactos
Ejercicios aparecidos en el texto
7.7.1. Probar los detalles del Cor. 7.1.3: Sea H un EH. El conjunto K(H) de operadores compactos cumple:
3. Los operadores que admiten una representación de este tipo se llaman B-diagonalizables.
Probar que un T ∈ L(H) es B-diagonalizble ⇐⇒ su “matriz” en B es diagonal (se recupera el a ∈ `∞
de la diagonal) ⇐⇒ T conmuta con cada proyector Pxn = xn xn y cada T xn = an xn . 4
238
2. Probar que existe un EB ∈ L(L(H) ) que comprime a los B-diagonales:
EB (M T ) = M EB (T ) y EB (T M ) = EB (T ) M .
Sug: Dado T ∈ L(H), definir dT = hT xn , xn i n∈N ∈ `∞ y poner EB (T ) = MdT , B . Por otro lado, si
Repaso del Teo. 7.4.8: Sea T ∈ K(H) \ LF (H). Luego existen dos SON’s :
B1 = {xk : k ∈ N}, que es BON de (ker T )⊥ y B2 = {zk : k ∈ N}, que es BON de R(T ) ,
tales que el operador T se representa como la serie (que converge en norma) :
X X
T = sk (T ) zk xk =⇒ T y = sk (T ) hy , xk i zk para todo y∈H. (7.57)
k∈N k∈N
De hecho B1 es una BON de autovectores para |T | y B2 lo es para |T ∗ |, donde ninguna de las dos contiene
generadores de los núcleos. Además vale que s(T ∗ ) = s(T ).
7.7.5. Probar que si T ∈ LF (H), entonces tiene una representación del tipo (7.57) pero con sumas finitas.
De paso mostrar que, si ahora T ∈ K(H) \ LF (H), truncando en (7.57) obtenemos una sucesión posta en
LF (H) que le converge a T . Posta significa que minimiza la distancia de T a los operadores del rango de
cada truncado. 4
7.7.6. Sea T ∈ K(H). Probar que ese T es diagonalizable (c.f. Ejer. 7.7.2) con respecto a alguna BON de
H si y sólo si T es normal. En tal caso vale que sk (T ) = |µk (T )| para todo k ∈ N (o hasta donde sea que
lleguen si T era rango finito), siempre que uno enumere los µk (T ) para que tengan módulos decrecientes (se
puede porque van hacia cero). 4
def −1
7.7.7. Sea T ∈ F (H) = PK(H) GCal (H) . Vı́a el Teo. 7.2.3 podemos definir su ı́ndice por
def
Ind T = α(T ) − β(T ) = dim ker T − dim ker T ∗ ∈ Z ,
4. Pero si G ∈ Gl (H) =⇒ Ind GT = Ind T G = Ind T (porque vale para sus α y β).
239
6. También T † ∈ F (H) y cumple que Ind T † = −Ind T .
• O bien λ ∈ σ(T ) \ {0}, en cuyo caso tenemos la igualdad dim ker(λ I − T ) = dim R(λ I − T )⊥ < ∞,
que es parecido a los sistemas de ecaciones del álgebra lineal: La dimensión del espacio de soluciones
es finita, e igual a la del ortogonal del espacio de los b ∈ H para los que hay solución. 4
La mayor parte de los enunciados que siguen ya aparecieran en el viejo Ejer. 4.7.1. Lo nuevo va con ∗.
7.7.9. Sean H y K dos EH’s. Dados M ∈ L(H) y N ∈ L(K), sea
para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas:
def
L(H) y L(H) ⊕ N = {M ⊕ N : M ∈ L(H)} ,
si a este le consideramos la topologı́a inducida de la de L(H ⊕ K). Más aún, las métricas coinciden.
5. Entre estos operadores, las operaciones sumar, multiplicar, adjuntar e invertir (si se puede), se hacen
en cada coordenada.
240
10. * Además M y N son Fredholms ⇐⇒ M ⊕ N ∈ F (H ⊕ K). En tal caso vale que
7.7.10. Probar que la función tr : L(H)+ → R+ ∪ {+∞} cumple algunas propiedades: Si A ∈ L(H)+
P
1. La tr A = i∈I hA ei , ei i, para cualquier BON {ei : i ∈ I} de H.
3. La traza es monótona: A ≤ B =⇒ tr A ≤ tr B.
donde los µk (A) son su sucesión decreciente de autovectores, como en la Ec. (7.21). 4
7.7.12. Recordemos la Ec. (7.43): LF (H) ⊆ L1 (H) ⊆ L2 (H) ⊆ K(H). Probar que cada uno de ellos en
denso en los más grandes con sus normas. En otras palabras, probar que LF (H) es denso en los tres con las
normas que les corresponden (1, 2 e ∞). Se sugiere actualizar el Ejer. 7.7.5. 4
7.7.13. Sea H un EH separable. Probar que
Ojo con lo siguiente: Si suponemos que dim H = ∞ (sea o no separable), vale que
241
Ejercicios nuevos
7.7.14. Sea LF (H) el espacio de todos los operadores de rango finito definidos sobre el espacio de Hilbert
H. Demostrar que LF (H) es minimal en el sentido que no posee un ideal propio.
Sug: Demostrar primero que LF (H) interseca todo ideal no nulo de L(H). 4
7.7.15. Probar que todo operador T : H → H continuo desde (H , w) hacia (H , k · k ) pertenece a LF (H).
Recordar que los compactos lo son sólo desde la bola BH , que ahora vemos que es mucho menos pedir. 4
7.7.16. Sea k ∈ L2 [0, 1] × [0, 1] y sea Tk : L2 [0, 1] → L2 [0, 1] el operador definido por:
Z 1
Tk f (x) = k(x, y) f (y) dy para cada f ∈ L2 [0, 1] .
0
1. Probar que Tk ∈ L(L2 [0, 1] ). Más aún, demostrar que kKk ≤ kkk2 .
2. Probar que es compacto.
3. Encontrar condiciones sobre k de modo que K resulte autoadjunto. 4
El siguiente ejercicio es un ejemplo de un método más general utilizada para resolver ciertas ecuaciones
diferenciales ordinarias. Dicho método se lo conoce con el nombre de Strum-Liouville.
7.7.17. Consideremos la siguiente ecuación diferencial con condiciones de contorno:
u00 (x) = f (x)
u(0) = u(1) = 0,
donde f (x) es una función continua.
1. Encontrar dos soluciones de la ecuación homogenea u00 (x) = 0, u0 y u1 , tales que u0 (0) = u1 (1) = 1
y calcular el Wronskiano.
(Recordar que el Wronskiano W (x) = u00 (x)u1 (x) − u0 (x)u01 (x)).
2. Definir la función k(x, y) : [0, 1] × [0, 1] → R
3. ??? 4
Definición 7.7.18 (Weil). Sea A ∈ A(H). Diremos que λ ∈ σe (A), el espectro escencial de A, si existe un
SON {ψn : n ∈ N} ⊆ H talque k (A − λ IH )ψn k −−−−→ 0. 4
n→∞
242
Bibliografı́a
[3] Douglas R. - Banach Algebra Techniques In Operator Theory, 2nd Ed. Ac. Press
[5] Reed y Simon - Methods of Math Physics Vol 1 (FA) - Ac. Press 1980.
[6] Nagy G., Real analysis, (Kansas State lecture notes, 2001).
Referncias Adicionales
[9] Kelley - General Topology (1955).
243
Parte II
244
Capı́tulo 8
Si A ∈ L(H), su espectro es
σ(A) = λ ∈ C : λI − A ∈
/ Gl (H) ,
245
Si A ∈ L(H1 , H2 ), su adjunto A∗ ∈ L(H2 , H1 ) es el único operador que cumple que
L(H)+ = A ∈ L(H) : hAξ, ξi ≥ 0 para todo ξ ∈ H ⊆ A(H), el cono de los
operadores semidefinidos positivos.
Por otra parte, se usarán sin mayores explicaciones algunas propiedades usuales de los op-
eradores en un espacio de Hilbert H, como por ejemplo:
• Las propiedades de proyectores oblı́cuos P(H) y ortogonales P(H). Por elemplo que,
si Q ∈ P(H) se tiene que Q ∈ L(H) y Q2 = Q,
246
2. Q ∈ P(H) ⇐⇒ Q ∈ A(H) ⇐⇒ Q ≥ 0 ⇐⇒ kQk = 1 ⇐⇒ R(Q) = N (Q)⊥ .
3. Si S v H existe un único proyector ortogonal PS ∈ P(H) tal que R(PS ) = S.
4. Si S, T v H cumplen S ⊕ T = H (suma no necesariamente ortogonal), entonces
el proyector PS/T dado por PS/T (s + t) = s (si s ∈ S y t ∈ T ) es acotado.
• Propiedades básicas de la convergencia f uerte de operadores (SOT):
S.O.T. k·k
An −−−→ A si An x −−−→ Ax para todo x ∈ H .
n→∞ n→∞
En particular, que las topologı́as WOT y w∗ (de L(H) pensado como el dual de L1 (H),
los operadores traza) coinciden en la bola cerrada BL(H) . Luego, por el Teorema de
Alaoglu, sabemos que L(H)1 es WOT compacta.
• También se usará que, si H es separable, entonces la topologı́a WOT de L(H) es
metrizable, por lo que será suficiente operar con sucesiones (en lugar de redes).
No se usará (salvo ocacionalmente, y con aclaraciones) el cálculo funcional boreliano y el
teorema espectral para operadores normales o autoajduntos. Sı́ usaremos el cálculo funcional
continuo (CFC) para esos operadores, pensado como lı́mite de polinomios en z y z (o en la
variable real x, en el caso autoadjunto) evaluados en el operador. Esto se usará, en particular,
para definir A1/2 o más generalmente At , si A ∈ L(H)+ y 0 < t ∈ R.
8.2 Ángulos
Es natural definir el ángulo entre dos subespacios N y M v H como el mı́nimo de los ángulos
entre pares de rectas, una en N y la otra en M. Sin embargo este método tiene problemas si
N ∩M = 6 {0}, porque no estarı́a bien que en ese caso el ángulo sea nulo. Para ello conviene
sacar a cada subespacio la intersección, y quedarse con sus complementos ortogonales
M N = M ∩ (M ∩ N )⊥ y N M = N ∩ (M ∩ N )⊥ .
Sugerimos dibujar dos planos en R3 y convencerse de que esta técnica (que deja tan solo
un par de rectas para elegir) da lo que uno intuitivamente definirı́a como ángulo entre esos
planos.
Las siguientes definiciones están bastante estandarizadas, aunque hay numerosas variaciones
menores en la literatura, y una infinidad de notaciones diferentes. Las propiedades de estos
247
ángulos son muy útiles en dimensión finita (entre otras razones por su relación con normas,
máximos y mı́nimos de matrices), pero es aún más relevante en el caso infinitodimensional,
donde puede pasar que N ∩ M = {0} pero el ángulo entre ellos sea nulo. Veremos que eso
significará que N + M 6v H.
Definición 8.2.1 (Friedrichs). Sean M, N v H.
1. Llamaremos M1 = {ξ ∈ M : kξk = 1}, la cáscara de BM .
π
2. El ángulo entre M y N es el número θ ∈ 0, cuyo coseno está dado por
2
n o
c [ M , N ] = sup | hx, yi | : x ∈ (M N )1 , y ∈ (N M)1 .
248
Esto prueba la desigualdad c [ M , N ] ≥ kPM PN k. Ahora bien, dados y ∈ M1 y x ∈ N1 ,
se tiene (por Cauchy-Schwarz) que
lo que prueba la desigualdad recı́proca. Veamos ahora el caso en que M ∩ N 6= {0}. Usando
3 y el caso anterior, sabemos que c [ M , N ] = c [ M , N M ] = kPM PN M k. Las otras
dos identidades se deducen de que PN M = PN − PN ∩M = PN (I − PN ∩M ).
Observación 8.2.4. La igualdad c [ M , N ] = c [ M N , N ] tiene su lado bueno y su
lado malo. Lo bueno, como decı́amos antes, es que permite calcular ángulos entre pares
arbitrarios de subespacios cerrados, y siempre reducirse al caso en que éstos no se cortan.
Lo malo es que en general, cuando los subespacios son muy especı́ficos (núcleos, sumas, etc),
se hace dificultoso muchas veces calcular efectivamente M N (que es donde hay que hacer
los productos escalares, o calcular distancias como veremos enseguida).
Y además pasan cosas raras, poco intuibles. Un ejemplo de cosa rara es que es falso que
M ⊆ S =⇒ c [ M , N ] ≤ c [ S , N ], como uso supondrı́a si calcula los productos internos
sin tener cuidado. Sin ir más lejos, si S = N + M, entonces c [ S , N ] se hace cero, mientras
que c [ M , N ] era cualquier cosa. En general, al agrandar M puede surgir sorpresivamente
más intersección con N , lo que al ser restado puede generar problemas.
El uso de ángulos y sus propiedades, una vez sistematizadas, simplifica drásticamente muchas
demostraciones en diversos campos de la Teorı́a de operadores. Y al simplificar, permite
también conseguir resultados nuevos. Pero hay que ser cuidadoso, porque la intuición errada
que mencionamos más arriba suele generar excesos de opitimismo en las cuentas.
Un hecho sorprendente es que el subespacio M N que hay que usar para calcular c [ M , N ],
muchas veces coincide “mágicamente” con subespacios que tienen pleno sentido conceptual
en las aplicaciones, y esto hace que las complicaciones que uno teme desaparezcan, o más
bien hasta ayuden. Esto se irá viendo paulatinamente el las diversas aplicaciones que iremos
haciendo de esta teorı́a en los suscesivos capı́tulos de estas notas. 4
249
Demostración. Por la Prop. 8.2.3, podemos asumir que M ∩ N = {0}. Por la definición
del seno y la Prop. 8.2.3, se tiene que s [ M , N ]2 = 1 − kPM PN k2 . Por otro lado, como
d (x , N ) = kPN ⊥ xk (mostrarlo con un dibujo), para todo x ∈ H tenemos que
d (M1 , N )2 = inf{kPN ⊥ xk2 : x ∈ M1 } = inf{1 − kPN xk2 : x ∈ M1 }
es decir que la sucesión (xn ) es de Cauchy. Como M v H, existe x ∈ M tal que xn −−−→ x.
n→∞
Por ello yn −−−→ z − x ∈ N . Entonces z ∈ M + N .
n→∞
Reciprocamente, si M ⊕ N v H, la poryección PM/N de M ⊕ N sobre M dada por
PM/N (x + y) = x , para x∈M e y∈N
es acotada (esto es el Cor. 2.7.2, que necesita que el dominio M ⊕ N v H para que sea
Banach). Por ende, podemos tomar c0 = kPM/N k−1 > 0.
Corolario 8.2.8 (Ljance-Ptak). Sean M, N v H, tales que M ⊕ N = H. Tomemos la
proyección oblicua PM/N ∈ L(H) sobre M con ker PM/N = N . Luego
−1/2 −1/2
kPM/N k = 1 − kPM PN k2 = 1 − c[M, N ] = s [ M , N ]−1 . (8.2)
Demostración. La fórmula (8.2) se deduce de la prueba anterior. Comparar con el Ejer. 2.7.3
en espacios de Banach.
250
8.3 Seudoinversas
Definición 8.3.1. Dados A ∈ L(H1 , H2 ) y B ∈ L(H2 , H1 ), decimos que B es seudoinversa
de A si
ABA = A y BAB = B .
Llamaremos SI(A) = {B ∈ L(H2 , H1 ) : B es seudonversa de A}. 4
Teorema 8.3.2. Sea A ∈ L(H1 , H2 ).
1. Si B ∈ SI(A), entonces
(a) AB es un proyector (oblicuo) con R(AB) = R(A).
(b) BA es un proyector (oblicuo) con ker(BA) = ker A.
2. Se tiene que R(A) v H2 si y sólo si SI(A) 6= ∅.
3. En tal caso, para cada par de proyectores P ∈ P(H2 ), Q ∈ P(H1 ) tales que
Es claro que R(AB) ⊆ R(A). Pero también R(A) = R(ABA) ⊆ R(AB). Por otra
parte, ker A ⊆ ker BA ⊆ ker ABA = ker A.
2. Si B ∈ SI(A), entonces R(A) = R(AB) v H2 , porque es la imagen de un proyector
(eso se vió en aquella Obs. 2.7.1). La recı́proca se deducirá del item 3, aplicado a los
proyectores P = PR(A) y Q = I − Pker A .
3. Si R(A) v H2 , y nos dan dos proyectores oblicuos P ∈ P(H2 ) y Q ∈ P(H1 ) tales que
R(P ) = R(A) y ker Q = ker A, llamemos S = ker P y T = R(Q) v H1 .
Nos queda la descomposición H1 = ker A ⊕ T , y por ende AT ∈ L(T , R(A) ) es
inversible. Llamemos B0 ∈ L(R(A) , T ) a su inversa, que es acotada por el TFI 2.3.4.
Definamos ahora el operador lineal
251
Definición 8.3.3. Dado A ∈ L(H1 , H2 ) con rango cerrado, se llama A† ∈ L(H2 , H1 ) al
único elemento de SI(A) tal que A† A y AA† son proyectores autoadjuntos. A† es conocida
como la seudoinversa de Moore-Penrose de A. 4
Corolario 8.3.4. Dado T ∈ L(H1 , H2 ), se verifican:
3. (T ∗ )† = (T † )∗ .
252
1 0
Observación 8.3.7. Sea Q = ∈ L(C2 ), que es un proyector oblicuo tal que
1 0
⊥ † 1 0
N (Q) = R(Q ) = span {e1 }. Tomemos P = . Como P Q = P y QP = Q, se
0 0
tiene que P ∈ SI(Q), pero no es la seudoinversa de Moore-Penrose de T . Sin embargo,
1 = kP k es menor que la norma de cualquier otro proyector sobre span {e1 }. ¿Qué pasa?
Ejemplos 8.3.8.
5. Si A ∈ L(H) es normal
y R(A) v H, entonces A conmuta con A† . Más en detalle, si
llamamos A0 = AR(A) ∈ L(R(A) ), se tiene que A0 ∈ Gl (R(A) ) ,
A−1
A0 0 R(A) † 0 0 R(A)
A= y A = . (8.4)
0 0 ker A 0 0 ker A
253
Dados A, B ∈ Gl (H), suele ser muy útil (sobre todo para hacer acotaciones) la identidad
Con las seudoinversas de Moore Penrose no vale una fórmula tan linda, pero algo hay:
Proposición 8.3.9. Sean A, B ∈ A(H), ambos con rango cerrado. Entonces:
Demostración. Ejercicio.
−1
−1
= max{ kT zk : kzk = 1} = kT −1 k−1 .
Por otro lado, si ahora B es el inversible, tenemos que N (BT ) = N (T ). Como N (B) = {0},
cualquiera sea el x ∈ N (T )⊥ = N (BT )⊥ (no importa donde caiga T x), tenemos que
254
1. Se tiene la equivalencia R(T ) v H2 ⇐⇒ γ(T ) > 0.
Demostración. La primera parte es una cuenta usual de operadores, y se deja como ejercicio.
Pasa por ver que γ(T ) > 0 ⇐⇒ T |(ker T )⊥ es AI y recordar (2.25). Si ahora asumimos que
R(T ) v H2 y que T 6= 0, la construcción de (6.28) dice que
Pero como ker T † = R(T )⊥ , tenemos que kT † R(T ) k = kT † k. Finalmente, el Cor. 8.3.4 dice
que (T ∗ )† = (T † )∗ , por lo que
Demostración. El hecho de que S = R(A) = R(B) v H dice que S ⊥ = ker A = ker B y que
A0 0 S B0 0 S
A= , B= .
0 0 ker A 0 0 ker B
Además, se tiene que A0 ≤ B0 ambos en Gl(S)+ . Por el Cor. 6.6.3, podemos deducr que
255
Demostración. Sea T = U | T | la DP de T . Recordemos que, como decı́a la Ec. (4.28),
Luego la igualdad γ(T ) = γ( | T | ) se deduce de las definiciones. Por otra parte, la Prop. 6.1.7
asegura que T ∗ T = | T |2 =⇒ σ(T ∗ T ) = σ( | T | )2 . Entonces, si R( | T | ) v H1 , podemos
deducir la igualdad γ(T ∗ T ) = γ( | T | )2 de la Ec. (8.7). En caso contrario ambos dan 0.
Ejercicio 8.4.7.
1. Sea A ∈ A(H) que no es inversible. Usando (6.16) y la Prop. 6.5.8 probar que
En realidad la Ec. (8.8) vale para todo T ∈ L(H) (sin pedir que T ∗ = T ). Pero la
prueba es difı́cil con las herramientas que tenemos acá. Probarlo para T normal. 4
donde T es el operador definido en (8.10). El hecho de que ker T = {0} dice que
M ∩ N = {0}. Por lo tanto,
256
Proposición 8.4.9. Sean M, N v H tales que PM⊥ PN 6= 0 (o sea N 6⊆ M). Entonces
γ(PM⊥ PN ) = s [ M , N ] .
ker(PR PN )⊥ = N ∩ (N ∩ M)⊥ = N M.
c [ M , N ] = c M⊥ , N ⊥ .
Demostración. Sabemos, por la Prop. 8.4.3, que para cada T ∈ L(H) se verifica que γ(T ) =
γ(T ∗ ). Luego, aplicando la Prop. 8.4.9, nos queda que
Demostración.
Si AB = 0 es obvio. Sinó, llamemos M = ker A⊥ y N = R(B). Notar que
AM : M → R(A) v H. Luego, un subespacio S ⊆ M cumple que
es un iso, porque R(A)
S v M ⇐⇒ AM (S) v R(A) ⇐⇒ AM (S) v H. Por lo tanto,
R(AB) = A(N ) = AM (PM (N ) ) v H ⇐⇒ PM (N ) = R(PM B) = R(PM PN ) v M .
6 0 =⇒ PM (N ) 6= {0}),
Pero por la Prop. 8.4.9 (que se puede aplicar porque AB =
257
Proposición 8.4.12. Sean T ∈ L(H1 , H2 ) y M v H1 tales que T PM 6= 0. Entonces
N (T PM )⊥ = M ∩ (M ∩ N (T ) )⊥ = M (M ∩ N (T ) ) = M N (T ) .
kT PM xk = kT xk = kT (PN (T )⊥ x)k
≥ γ(T ) s [ N (T ) , M ] ,
donde la última desigualdad se deduce que s [ N (T ) , M ] = d (M N (T ) )1 , N (T ) , como
asegura la Prop. 8.2.5. Tomando mı́nimo sobre los vectores unitarios de N (T PM )⊥ , deduci-
mos que
γ(T PM ) ≥ γ(T ) s [ N (T ) , M ] .
La otra desigualdad de (8.11) se deduce de que kT yk = kT PN (T )⊥ yk ≤ kT k kPN (T )⊥ yk para
todo y ∈ H1 , de que N (T PM ) = N (PN (T )⊥ PM ) y de la Prop. 8.4.9.
Observación 8.4.13. Con las mismas ideas puede probarse la siguiente fórmula, que gen-
eraliza la Prop. 8.4.12: Dados A ∈ L(H2 , H3 ) y B ∈ L(H1 , H2 ) tales que AB 6= 0,
Antes de leer el siguiente resultado, sugerimos hacer unos dibujos (no en este papel): Primero
dos rectas (por el origen) N y M en R2 . Luego agarrar un punto, e ir aplicándole sucesiva-
mente PN y PM . Se verá que uno se va acercando a cero, más despacito en tanto el ángulo
entre N y M sea más pequeño. Ahora, extrapolar este dibujo al caso en que N y M son dos
planos en R3 . Ahı́ adonde uno se acerca es a la recta N ∩ M, y moviéndose siempre dentro
de un plano ortogonal a ella. Ahora sı́, leamos la siguiente generalización (cuantitativa) de
sus dibujos:
Proposición 8.4.14. Sean P y Q dos proyectores ortogonales en P(H). Entonces
258
Demostración. Sean E = P − P ∧ Q = P (I − P ∧ Q) y F = Q − P ∧ Q. Observar que
I − P ∧ Q comnuta tanto con P como con Q (porque P ∧ Q lo hace). Luego,
Por otro lado, usando la Prop. 8.2.3 y el hecho de que R(E) ∩ R(F ) = {0}, se tiene que
kF EF k = kEF k2 = c [ R(E) , R(F ) ]2 = c [ R(P ) , R(Q) ]2 . Por lo tanto
x = PN ∩M x + PN M x ∈ PN M x + M =⇒ d (x , M) = d (PN M x , M) .
Luego usar la Prop. 8.2.5 para calcular los senos. También debe usarse que
PN M y
V1 3 y 7→ ∈ (N M)1 ,
kPN M yk
259
Capı́tulo 9
Complementos de Schur de
operadores positivos
El siguiente resultado, extraido del trabajo [96] de R. Douglas de 1966, será de una her-
ramienta escencial en todo lo que sigue de estas notas, en las que se lo citará (muchı́simas
veces) como el Teorema de Douglas .
Teorema 9.1.1 (Douglas). Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ). Entonces las siguientes
condiciones son equivalentes:
1. R(A) ⊆ R(B).
260
2 ⇒ 3) La condición AA∗ ≤ λBB ∗ es equivalente a que kA∗ xk ≤ λ1/2 kB ∗ xk para todo
x ∈ H3 . En particular, ker(B ∗ ) ⊆ ker(A∗ ). Por lo tanto, es correcto definir
Es claro que T está bien definido y es lineal. Como kA∗ xk ≤ λ1/2 kB ∗ xk para todo
x ∈ H3 , deducimos que T es acotado (con kT k ≤ λ1/2 ). Extendemos T (manteniendo
su nombre) a R(B ∗ ) por continuidad y luego a todo H2 como cero en R(B ∗ )⊥ . Queda
que T ∈ L(H2 , H1 ), y sigue valiendo que kT k ≤ λ1/2 . Es claro que A∗ = T B ∗ , lo cual
muestra que el operador que estamos buscando es C = T ∗ ∈ L(H1 , H2 ). Notar que
este C que construimos cumple R(C) ⊆ ker T ⊥ ⊆ R(B ∗ ) = ker B ⊥ .
1 ⇒ 3) La condición R(A) ⊆ R(B) permite asegurar que para todo x ∈ H1 existe un único
y ∈ ker B ⊥ tal que Ax = By. Definamos C : H1 → H2 como Cx = y. Para ver que
C ∈ L(H1 , H2 ) basta verificar que su gráfico es cerrado. Sea (xn , yn )n∈N una sucesión
de puntos en el gráfico de C tal que xn −−−→ x e yn −−−→ y . Luego
n→∞ n→∞
261
1. Probar que
R(A) + R(B) = R( (AA∗ + BB ∗ )1/2 ) .
Demostración. Los ı́tems 1 y 2 son inmediatos. Supongamos que R(A) = R(A1/2 ). Fijado
un x ∈ (ker A)⊥ , debe existir un y ∈ (ker A)⊥ tal que A1/2 x = A y = A1/2 (A1/2 y).
Como también A1/2 y ∈ R(A1/2 ) ⊆ (ker A)⊥ y A1/2 es mono allı́, deducimos que A1/2 y = x.
Pero esto implica que R(A1/2 ) = (ker A)⊥ v H. Como asumı́amos que R(A) = R(A1/2 ),
entonces también R(A) v H.
Corolario 9.2.2. Sean A , B ∈ L(H)+ y S v H. Luego si
donde el último ⊆ surge de que R(B 1/2 ) ⊆ R(B) ⊆ S, porque S era cerrado.
262
Proposición 9.2.3. Sea S v H, y consideremos un operador
A B∗
S
M= ∈ L(H)+ .
B D S⊥
A + IS B ∗ IS −(A + IS )−1 B ∗
IS 0
0 ≤
−B(A + IS )−1 IS ⊥ B D 0 IS ⊥
A + IS 0
= =⇒ B(A + IS )−1 B ∗ ≤ D .
0 D − B(A + IS )−1 B ∗
Por el Teo. 9.1.1, deducimos que R(B) = R(B(A + IS )−1/2 ) ⊆ R(D1/2 ). El hecho de que
R(B ∗ ) ⊆ R(A1/2 ) se prueba usando lo anterior para S ⊥ en ves de S.
A B∗
S
Proposición 9.2.4. Sean S v H y M = ∈ L(H)+ . Luego, si
B D S⊥
Más aún, para todo x ∈ S, existe una sucesión (yn )n∈N en S ⊥ tal que
∗
x x
(A − C C) x , x = lim M , . (9.2)
n∈N yn yn
A − C ∗C 0
∗
C C B∗
Demostración. Obsevar que M = + . Recordemos que, por
0 0 B D
ser C la SR de B = D1/2 X, se tiene que R(C) ⊆ R(D1/2 ). Luego, para cada x ∈ S, existe
una sucesión (yn )n∈ N en S ⊥ tal que D1/2 yn −−−→ − Cx . Como
n→∞
C ∗C B∗ 0 C∗
0 0
= ,
B D 0 D1/2 C D1/2
263
El siguiente resultado ya fué visto para el caso de matrices. La prueba para operadores es
algo más complicada:
Corolario 9.2.6. Sea C ∈ L(H1 , H2 ). Luego
IH1 C ∗
kCk ≤ 1 ⇐⇒ M= ∈ L(H1 ⊕ H2 )+ .
C IH2
Demostración. La ida se prueba igual que en dimensión finita: si kCk ≤ 1, entonces para
todo z = (x , y) ∈ H1 ⊕ H2 se tiene que
A B∗ IS C ∗
1/2 1/2
A 0 A 0
M= = ∈ L(H)+ ,
B D 0 D1/2 C IS ⊥ 0 D1/2
264
Corolario 9.2.9. Sean A ∈ L(H)+ y B ∈ A(H) . Entonces
A B
M= ≥ 0 en L(H ⊕ H) ⇐⇒ −A ≤ B ≤ A en L(H) .
B A
Para ver la recı́proca, la cuenta saldrı́a joya su uno pudiera “dividir” por A1/2 . Para safar
esta vez, tomemos An = A + n1 I ∈ Gl (H)+ (para cada n ∈ N). Luego
−An ≤ −A ≤ B ≤ A ≤ An =⇒ −I ≤ A−1/2
n B An−1/2 ≤ I =⇒ kAn−1/2 B A−1/2
n k≤1.
−1/2 −1/2
Ahora les podemos aplicar a todos ellos el Teo. 9.2.7 con Cn = An B An y nos queda
An B 1
0≤ =M+ IH⊕H para todo n ∈ N =⇒ M ∈ L(H ⊕ H)+ ,
B An n
265
Demostración. Sean M = A−1/2 (S) y T = A1/2 PM A1/2 . Claramente T ∈ M(A, S). Por
otra parte, si D ∈ M(A, S), en particular D ≤ A. Por el Teorema de Douglas 9.1.1 (con
constante λ = 1), debe existir una contracción C ∈ L(H) tal que D1/2 = A1/2 C.
Ahora bien, tenemos que A1/2 (R(C) ) = R(D1/2 ) ⊆ R(D) ⊆ S =⇒ R(C) ⊆ M. Esto nos
asegura que PM C = C. Usando que C C ∗ ≤ I, podemos deducir que C C ∗ ≤ PM . Luego
266
Demostración. Denotemos por M = A−1/2 (S) y N = A−1 (S). Consideremos los proyectores
sobre ellos: PM , PN ∈ P(H). Observar que A1/2 (N ) ⊆ M. Por lo tanto, se tiene que
∗
(I − PM ) A1/2 PN = 0 =⇒ PN A1/2 (I − PM ) = 0 .
hA1/2 PN A1/2 x , xi = hPN A1/2 x , PN A1/2 xi = kPN A1/2 xk2 = kPN A1/2 PM xk2
= {D ∈ L(H)+ : D ≤ SC (A , T )
M SC (A , T ) , S y R(D) ⊆ S} .
Probaremos que estos conjuntos son iguales y por ende sus máximos, que son los dos shorted’s
de (9.5) también lo serán. Sea D ∈ M(A , S ∩ T ). Luego tenemos que
R(D) ⊆ T ∩ S ⊆ T D ≤ A =⇒ D ≤ SC (A , T ) y R(D) ⊆ S .
y
Eso nos dice que D ∈ M SC (A , T ) , S . Recı́procamente, si asumimos que
(9.1)
D ∈ M SC (A , T ) , S =⇒ D ≤ SC (A , T ) =⇒ R(D) ⊆ R SC (A , T ) ⊆T .
R SC (A , S)1/2 = R(A1/2 ) ∩ S .
(9.6)
267
Demostración. Sea M = A−1/2 (S). Observar que, volviendo y yendo queda que
Luego, por el Cor. 9.1.2 (decı́a que R(B ∗ ) = R( |B| ) ), sale lo anunciado:
R(A1/2 ) ∩ S = R(A1/2 PM ) = R |PM A1/2 |
(9.4)
= R SC (A , S)1/2 .
1/2 1/2 1/2
= R (A PM A )
R(A) ∩ S ⊆ R SC (A , S) ⊆ R(A1/2 ) ∩ S .
1/2
Demostración. En la Prop. 9.4.1 (aplicada a A2 ) vimos que R(A) ∩ S = R SC (A2 , S) .
2 2
Por otro lado, la Prop. 9.3.4 dice que SC (A , S) ≤ SC (A , S) . A partir de ello, el Teo. de
1/2
Douglas 9.1.1 nos asegura que R(A) ∩ S = R(SC (A2 , S) ) ⊆ R SC (A , S) .
(9.6)
La otra inclusión se sigue de que R SC (A , S) ⊆ R SC (A , S)1/2 = R(A1/2 ) ∩ S.
B −1 ( N ⊥ ) = B ( N )⊥ (9.7)
Demostración.
(9.4)
Por el otro, como SC (A , S) = A1/2 PM A1/2 , vemos que
(4.27)
ker SC (A , S) = ker (A1/2 PM A1/2 ) = ker (PM A1/2 ) = A−1/2 (M⊥ ) .
268
⊥ (9.7)
⊥
= A−1/2 (S) = M, se tiene c l A1/2 (S ⊥ ) = M⊥ . Luego
1/2
2. Dado que A (S )
?
A1/2 (S ⊥ ) v R(A1/2 ) ⇐⇒ M⊥ ∩ R(A1/2 ) = A1/2 (S ⊥ ) .
?
Pero como ambos viven dentro de R(A1/2 ), la igualdad = equivale a que
A−1/2 (?)
ker SC (A , S) = A−1/2 (M⊥ ) A−1/2 A1/2 (S ⊥ ) = ker A + S ⊥ .
=
lo llamaremos la S-compresión de A. 4
Proposición 9.4.6. Sean A ∈ L(H)+ y S v H. Entonces
Luego el ker AS = ker (I − PM ) A1/2 = A−1/2 (M) = A−1/2 A−1/2 (S) = A−1 (S).
269
Demostración. La definición del shorted y la Prop. 9.4.6 nos dicen que si elegimos los oper-
adores F = SC (A , S) y G = AS , ellos cumplen las condiciones de (9.8).
Supongamos ahora que nos dan otro par F y G ∈ L(H)+ que también las satisfacen. Luego
F ∈M(A , S) def
R(F ) ⊆ R(F 1/2 ) ⊆ S y F ≤A =⇒ B = SC (A , S) − F ∈ L(H)+ .
A − C ∗C 0
SC (M , S) = .
0 0
A B∗ A − C ∗C 0 0 C∗
0 0
M= = + =F +G .
B D 0 0 0 D1/2 C D1/2
Para mostrar que F = SC (M , S) bastarı́a verificar que F y G están en las condiciones del
Teo. 9.5.1. Vamos por partes. Es claro que G ≥ 0. Por el Cor. 9.1.2, se tiene que
0 C∗
1/2
R(G ) = R .
0 D1/2
0 C∗ C∗ y
x z
Ahora bien, si 1/2 = 1/2 = ∈ R(G1/2 ) ∩ S, entonces D1/2 y = 0.
0 D y D y 0
Pero observemos que ker(D1/2 ) ⊆ ker(C ∗ ), porque C es la SR de B = D1/2 X. Luego también
z = C ∗ y = 0, y llegamos a que R(G1/2 ) ∩ S = {0}. Por otro lado, la Prop. 9.2.4 nos asegura
que F ≥ 0 y el hecho de que R(F 1/2 ) ⊆ S sale mirando su matriz.
A B∗
S
Corolario 9.5.3. Sean S v H y M = ∈ L(H)+ . Supongamos ahora que
B D S⊥
R(D) v H. Entonces tenemos esta nueva descripción del shorted:
A B∗ A − B ∗ D† B 0
SC ,S = .
B D 0 0
270
? B∗
S
Ejercicio 9.5.4. Sea S v H. Recorderemos la casimatriz M = del
B D S⊥
Ejer. 9.1.5. Consideremos ahora el conjunto de bloques 1,1 adecuados:
X B∗
+
∈ L(H)+ .
P(M , S) = X ∈ L(S) :
B D
El Ejer. 9.1.5 decı́a que P(M , S) 6= ∅ ⇐⇒ R(B) ⊆ R(D1/2 ). Este ejercio consiste en
probar que, en tal caso, existe X0 = min P(M , S) y además identificarlo. 4
Alguien dijo que en un problema de aproximación, todo máximo de algo puede también ser
descrito como un mı́nimo. Eso pasa con las normas de operadores (supremo en la bola, pero
mı́nimo de las cotas superiores). Ahora veremos dos caracterizaciones del shorted (definido
como un máximo) que se obtienen tomando ı́nfimos adecuados:
Proposición 9.5.5. Sean M ∈ L(H)+ y S v H. Dado x ∈ S, se tiene que
x x x x ⊥
SC (M , S) 0 , 0 = inf M y , y : y∈S . (9.9)
271
para todo y = x + z ∈ S ⊕ S ⊥ = H. Luego SC (A , S) = inf N (A, S), en el sentido de que
es cota inferior y debe ser mayor que todas las otras cotas.
9.6 Convergencia.
SOT
Proposición 9.6.1. Sean {An }n∈N una sucesión en L(H)+ tal que An & A y {Sn }n∈N una
n→∞
sucesión decreciente de subespacios cerrados de H. Entonces
∞
SOT \
SC (An , Sn ) & SC (A , S) , donde S= Sn .
n→∞
n=1
∞
\
para todo n ∈ N. Ası́ que R(B) ⊆ Sn = S.
n=1
La Prop. 9.6.1 mata dos pájaros de un tiro. Para entenderla mejor veamos dos casos parti-
culares que son interesantes en sı́ mismos:
Corolario 9.6.2. Trabajaremos en H que es un EH.
SOT
1. Sea S v H. Si nos dan una sucesión {An }n∈N en L(H)+ tal que An & A, vale que
n→∞
SOT
SC (An , S) & SC (A , S) .
n→∞
2. Si ahora fijamos el operador A ∈ L(H)+ y tenemos una sucesión decreciente {Sn }n∈N
de subespacios cerrados de H, ahı́ nos queda que
∞
SOT \
SC (A , Sn ) & SC (A , S) , donde S= Sn .
n→∞
n=1
272
Lema 9.6.3. Sean A ∈ Gl(H)+ y S v H. Entonces
k·k
SC (A + εI , S) −−−→
+
SC (A , S) .
ε→0
Demostración. Dado ε > 0, llamemos λε = 1 + εkA−1 k. Como I ≤ kA−1 kA, deducimos que
A + εI ≤ λε A y por ende SC (A + εI , S) ≤ λε SC (A , S). Por lo tanto,
k·k
SC (A , S) ≤ SC (A + εI , S) ≤ λε SC (A , S) −−−→
+
SC (A , S) ,
ε→0
Ej.
donde el ≤ vale porque en general 0 ≤ B ≤ C =⇒ kBk ≤ kCk. Y usamos que cada An ≥ A
para que lo de adentro de las normas sea siempre positivo.
273
2 2
Como x1 = a −|b|a
≤ a = x0 , uno muestra recursivamente que (xn )n∈N es un sucesión
decreciente. Por lo tanto, su lı́mite x debe cumplir
Veremos que una condición de este tipo es necesaria y suficiente para la positividad de las
matrices Zn (A, B), incluso en el caso de operadores. Tal ecuación serı́a
Esta ecuación es interesante en sı́ misma, dado que tiene aplicaciones en teorı́a de circuitos
eléctricos. Para evitar pedir que nadie sea inversible, se la puede mejorar usando operadores
shorted, usando la fórmula (9.11) del siguiente Teorema. Si X > 0, el Cor. 9.5.3 dice que
(9.11) es equivalente a la ecuación anterior. 4
Teorema 9.7.3. Sean A ∈ L(H)+ y B ∈ L(H). Son equivalentes:
A B∗ A B∗
+ X 0
∈ L(H ⊕ H) y SC , H ⊕ {0} = . (9.11)
B X B X 0 0
B∗
+ A−Y
2. El conjunto M (A, B) = Y ∈ L(H) : ≥ 0 6= ∅.
B Y
En tal caso, existe X = max M (A, B), y es una de las soluciones de la Ec. (9.11).
Demostración. Si existe un X que cumpla la Ec. (9.11), entonces X ∈ M (A, B) 6= ∅.
Supongamos ahora que existe Y ∈ M (A, B). Tenemos que
A − Y B∗ A B∗
0 ≤ Y ≤ A por lo que 0 ≤ ≤ = Z2 (A, B) .
B Y B A
Análogamente,
B∗ 0 B∗ 0
A−Y 0 0 0 A−Y
∗
0≤ B Y 0 + 0 A−Y
B = B A B ∗ ≤ Z3 (A, B) .
0 0 0 0 B Y 0 B Y
274
una columna, o bien Bn = (0n−1 , B) ∈ L(H)n , como vector fila. Entonces, si tomamos
Z0 (A, B) = A, se tienen las igualdades
Bn∗
∗
A 0
A Bn+1
Zn+1 (A, B) = = Bn Zn−1 (A, B) Bn∗ para todo n ∈ N .
Bn+1 Zn (A, B)
0 Bn A
Por la Prop. 9.5.5, para todo x ∈ H y todo n ∈ N,
Bn∗
A x x n
hXn x, xi = inf , :y∈H
Bn Zn−1 (A, B) y y
*
Bn∗
+
A 0 x x
∗ n
≥ inf Bn Zn−1 (A, B) Bn y , y
: (y, z) ∈ H ⊕ H
0 Bn A z z
= hXn+1 x, xi ,
es decir que la sucesión Xn es decreciente. Al tomar el ı́nfimo sobre y ∈ Hn de la ecuación
anterior, si escribimos y = (y1 , y2 ) ∈ H ⊕ Hn−1 nos queda
hXn x, xi = hAx, xi + inf {2 Re hBx, y1 i + hZn−1 (A, B)y, yi} .
y=(y1 ,y2 )∈Hn
275
Observación 9.7.4. El operador X construido en la prueba del Teo. 9.7.3 se puede obtener
recursivamente por la siguiente receta, usando la fórmula (9.12): Tomar X0 = A y, para
n ∈ N, tomar
A B∗
Xn+1 0
= SC , H ⊕ {0} .
0 0 B Xn
S.O.T.
Luego Xn ≥ 0 para todo n ∈ N y Xn −−−→ X decrecientemente. 4
n→∞
A B∗ A B∗
≥ 0 podemos definir Y1 = SC , H ⊕ {0} ,
B Y0 B Y0
pensado en L(H)+ (sin los tres ceros). Del hecho de que Y0 ∈ M (A, B), deducimos que
A B∗
Y0 0
≤ =⇒ Y0 ≤ Y1 y
0 0 B Y0
A − Y1 B ∗ A − Y1 B ∗
0≤ ≤ =⇒ Y1 ∈ M (A, B) .
B Y0 B Y1
A B∗
Definiendo recursivamente Yn+1 = SC , H ⊕ {0} , obtenemos una sucesión
B Yn
creciente en M (A, B) cuyo supremo Y debe cumplir la Ec. (9.11). En principio no se sabe
si la solución Y es la misma del proceso anterior (o del que resulte de empezar con otro
elemento de M (A, B) ).
En efecto, la solución X de la Ec. (9.11) no es necesariamente única, como lo muestra
el caso unidimensional, donde la ecuación x = a − x−1 |b|2 puede producir dos soluciones
positivas: si b 6= 0,
p
−1 2 2 2 a ± a2 − 4|b|2
x = a − x |b| ⇐⇒ x − ax + |b| = 0 ⇐⇒ x= ,
2
siempre que 2|b| ≤ a. Esta condición, que es entonces equivalente al hecho de que Zn (a, b) ≥ 0
para todo n ∈ N, se generalizará a operadores (usando el radio numérico en lugar del módulo)
en el Cor. 10.3.6. 4
Observación 9.7.6. Si en el Teo. 9.7.3 se toman sistemáticamente operadores shorted sobre
el subespacio {0} ⊕ H (es decir, que se trabaja en el lugar 2, 2 de las matrices en cuestión),
se obtiene, bajo las mismas hipótesis (los Zn (A, B) ≥ 0), un operador X2 que es solución de
la Ec. (9.11) con B cambiado por B ∗ . Además,
B∗
+ Z
X2 = max Z ∈ L(H) : ≥ 0 = min M (A, B) ,
B A−Z
276
dado que la aplicación Z 7→ A − Z = Y manda el conjunto del medio sobre M (A, B), e
invierte el orden. En dim H = 1, se tiene que, si 0 < 2|b| ≤ a y 0 < y < a,
a−y b
≥ 0 ⇐⇒ (a − y)y ≥ |b|2 ⇐⇒ y 2 − ay + |b|2 ≤ 0
b y
p p
a − a2 − 4|b|2 a + a2 − 4|b|2
⇐⇒ ≤y≤ .
2 2
Por lo tanto, el mı́nimo y el máximo de M (a, b) son las soluciones de la Ec. (9.11) para
A = a y B = b. Esto sucede porque b es “normal” y porque x y b conmutan. En general,
las ecuaciones
X = A − B ∗ X −1 B y X = A − BX −1 B ∗
no tienen por que tener las mismas soluciones. Pero si B = B ∗ , sı́ sabemos que X2 = A − X
y es otra solución de la Ec. (9.11). 4
Corolario 9.7.7. Sean A ∈ L(H)+ y B ∈ A(H) . Entonces se cumplen las condiciones del
Teo. 9.7.3 si y sólo si
A/2 B A A
A/2 ∈ M (A, B) ⇐⇒ ≥ 0 ⇐⇒ − ≤ B ≤ .
B A/2 2 2
X + (A − X)
Demostración. Observar que M (A, B) es convexo, y = A/2. Luego la primera
2
equivalencia se sigue de la Obs. 9.7.6. La última ecuación equivale a la del medio por el
Cor. 9.2.9.
Nota: Los resultados de esta sección están basados en los trabajos de Ando [92] y Anderson-
Morley-Trapp [88].
9.8 Ejercicios
A11 A∗21
n S
Ejercicio 9.8.1. Sean S v C , y A = ∈ Mn (C)+ .
A21 A22 S⊥
[A, B] = {X ∈ L(H)+ : A ≤ X ≤ B} .
277
a. Los puntos extremales de [0, I] son los proyectores autoadjuntos de L(H).
b. Si A ∈ Gl (H)+ , entonces ext([0, A]) = {SC (A , S) : S v H }, que incluyen a
0 = SC (A , {0}) y A = SC (A , H).
4. Si f : [0, +∞) → R es una función monótona de operadores tal que f (0) ≤ 0, entonces,
f (SC (A , S)) ≤ SC (f (A) , S) .
( )
det A
5. La sucesión 1/m es decreciente, y
det (Am )nn m∈N
det A
µn (A) ≤ lim 1/m .
m→∞
det (Am )nn
278
Capı́tulo 10
alcanza el máximo f (z) = 1 cuando |z|2 = 1/2, podemos deducir que w(A) = 1.
279
4. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A).
6. Si dim H < ∞, entonces W (A) es compacto (por serlo la cáscara de la bola unidad de
H). Esto falla cuando dim H = ∞, donde W (A) puede no ser cerrado, aunque sı́ pasa
que W (A) es compacto. 4
1. γ(A − λI) = 0, con lo que se consigue una sucesión {xn } de vectores unitarios tales
que k(A − λI)xn k −−−→ 0, por lo que hAxn , xn i −−−→ λ .
n→∞ n→∞
2. R(A − λI) es cerrado, pero no todo H. En tal caso, existe un vector unitario x ∈
R(A − λI)⊥ . Luego h(A − λI)x, xi = 0, por lo que hAx, xi = λ .
Observar que los únicos λ ∈ σ (A) pueden no pertenecer a W (A) son aquellos en los que
A − λI es inyectivo con rango denso. Por lo tanto, si dim H < ∞ se tiene directamente que
σ (A) ⊆ W (A).
Ejemplo 10.1.3. Sea A el operador definido en el Ejemplo 8.4.8. Recordar que, para todo
en
n ∈ N, Aen = , donde {en : n ∈ N} es una BON de H. Como A es compacto (o porque
n
γ(A) = 0), se tiene que A ∈/ Gl (H), por lo que 0 ∈ σ (A).
Es fácil ver que A ∈ L(H)+ y que ker A = {0}. Por lo tanto 0 ∈
/ W (A). En efecto, si
1/2 2 1/2 1/2
hAx, xi = kA xk = 0, debe cumplirse que Ax = A (A x) = 0. Observar que, para
todo n ∈ N, 1/n ∈ W (A), por lo que sı́ se cumple que 0 ∈ W (A). 4
280
Lema 10.2.1. Dada A ∈ M2 (C), existe U ∈ U(2) tal que,
∗ c a trA
B = U AU = , con c = .
b c 2
tr A
Demostración. Cambiando A por A − I, podemos suponer que tr A = 0 y tratar de
2
hacer que la diagonal de B sea nula. Si σ(A) = {0}, esto es fácil (por el Teorema de Schur).
Sinó, σ(A) = {λ, −λ} con λ 6= 0. Sean x1 y x2 autovectores unitarios asociados a λ y
−λ, respectivamente. Tomemos la curva x(t) = eit x1 + x2 , para t ∈ [0, 2π]. Observar que
x(t) 6= 0, por que x1 y x2 son LI. Entonces,
Eligiendo t0 ∈ [0, 2π] tal que eit0 hx1 , x2 i ∈ R, tenemos que hAx(t0 ), x(t0 )i = 0, con x(t0 ) 6= 0.
Normalizando a x(t0 ), completando a una BON de C2 , y tomando U ∈ U(2) tal que tenga
a esa BON en sus columnas, obtenemos
∗ 0 a
B = U AU = , con a, b ∈ C ,
b 0
como deseábamos.
281
Teorema 10.2.3 (Hausdorff-Töeplitz). Sea A ∈ L(H). Entonces W (A) es convexo.
Demostración. Sean α, β ∈ W (A) distintos, y sean x, y ∈ H unitarios tales que hAx, xi = α
y hAy, yi = β. Tomemos B0 = {v1 , v2 } una BON de S = span {x, y}. Consideremos la
compresión AS ∈ L(S). La matriz de AS en la base B0 es B = (hAvj , vi i)i,j∈I2 ∈ M2 (C).
Dado z = (z1 , z2 ) ∈ C2 , se tiene que
por lo que α, β ∈ W (B) y, para probar que las combinaciones convexas de α y β están en
W (A), basta verificar que están en W (B). En otras parabras, alcanza con probar el teorema
en el caso de que A ∈ M2 (C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que
0 a
A= , con a≥0 y b≥0,
b 0
podemos suponer que z = (t, (1 − t2 )1/2 eiθ ) para t ∈ [0, 1] y θ ∈ [0, 2π]. En tal caso, cuentas
elementales muestran que
Observar que los números t(1−t2 ) recorren el intervalo [0, 1/2] cuando t ∈ [0, 1]. Esto prueba
la fórmula (10.2).
Corolario 10.2.4. Sea A ∈ L(H).
Demostración. La inclusión σ (A) ⊆ W (A) ya fué vista en la Prop. 10.1.2. Pero por el
Teo. 10.2.3, sabemos que esa incusón arrastra a la cápsula convexa. Si A es normal, pro-
baremos la inclusión recı́proca sólo en el caso de que dim H = n < ∞. Sea {x1 , . . . , xn } una
282
BON de H formada por autovectores de A asociados a sus autovalores λ1 , . . . , λn . Si x ∈ H
tiene kxk = 1, entonces
* n n
+ n
X X X
hAx, xi = A hx, xk i xk , hx, xk i xk = | hx, xk i |2 λk ∈ conv [σ (A) ] ,
k=1 k=1 k=1
Pn
porque k=1 | hx, xk i |2 = kxk2 = 1. Por lo tanto W (A) ⊆ conv [σ (A)].
Observación 10.2.5. El caso general (dim H = ∞) del Corolario anterior, sale por un
argumento similar (integrando o aproximando con sumas finitas), pero usando el Teorema
Espectral para operadores normales, que está más allá de los requerimientos pedidos a un
lector tı́pico de este trabajo. Se propone como ejercicio para el lector que lo conozca. 4
Definición 10.2.6. 1. Dados dos espacios de Hilbert H y K, notamos
H ⊕ K = {(x, y) : x ∈ H , y ∈ K} ,
283
Corolario 10.2.8. Sea A ∈ Mn (C). Entonces existe U ∈ U(n) tal que, si B = U ∗ AU , luego
tr A
Bii = para todo i ∈ In .
n
tr A
Demostración. Cambiando A por A − , lo que debemos probar es que, si tr A = 0,
n
entonces podemos conseguir U ∈ U(n) tal que la diagonal de U ∗ AU sea nula. Lo probaremos
por inducción en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si
n > 2, aplicando el Cor. 10.2.4 obtenemos que
tr A
0= ∈ conv [σ (A)] ⊆ W (A) .
n
Luego existe un vector unitario x ∈ Cn tal que hAx, xi = 0. Completando {x} a una BON
de Cn que lo tenga como primer elemento, y tomando U1 ∈ U(n) la matriz con esa BON en
sus columnas, obtenemos que
∗ 0 ∗ 1
C = U1 AU1 = ,
∗ D n−1
porque C11 = hAx, xi = 0. Como D ∈ Mn−1 (C) cumple que tr D = 0, podemos aplicar
la hipótesis inductiva y encontrar V ∈ U(n − 1) tal que la diagonal de V ∗ DV sea nula.
Definiendo U2 = 1 ⊕ V ∈ U(n) y U = U1 U2 ∈ U(n), se ve que
∗ ∗ 1 0 0 ∗ 1 0 0 ∗V
U AU = U2 CU2 = = ,
0 V∗ ∗ D 0 V V ∗ ∗ V ∗ DV
El tal w0 existe (y es único) por la teorı́a usual de espacios de Hilbert, usando que W es
convexo y cerrado. Más aún, si x = z0 − w0 , entonces Re (w0 x) + d = Re (z0 x) y
284
Demostración.
Notemos W = W (A), X = z ∈ C : |z − λ| ≤ w(A − λI) , λ ∈ C e
Y = z ∈ C : |z − λ| ≤ kA − λIk , λ ∈ C . Es claro, por las definiciones, que X ⊆ Y .
Usando que W (A) − λ = W (A − λI), es fácil ver que W ⊆ X. En lo que sigue probaremos
que Y ⊆ W : Supongamos que z0 ∈ / W , y sea w0 la proyección ortogonal de z0 sobre W
(como en la Obs. 10.2.9). Sean
Re (z d ) = d Re z ≤ 0 =⇒ Re z ≤ 0 ,
= kBxk2 + m2 + 2m Re hBx, xi
≤ kBk2 + m2 ,
porque hBx, xi ∈ WB . Es decir que kB + mIk ≤ (kBk2 + m2 )1/2 . Es fácil ver que (kBk2 +
m2 )1/2 − m −−−→ 0. Por lo tanto, debe existir m ∈ N tal que
m→∞
En otras palabras, para ese m se tiene que kB + mIk < d + m = |d + m|, por lo que d ∈/ YB
y entonces z0 ∈
/ Y . Resumiendo, vimos que si z0 ∈
/ W , entonces z0 ∈
/ Y , o sea que Y ⊆ W .
Demostración. Ejercicio.
Lema 10.3.2. Sea A ∈ L(H) tal que w(A) ≤ 1. Sea z ∈ C con |z| < 1. Entonces
285
1. σ (A) ⊆ {λ ∈ C : kλk ≤ 1}.
2. I − zA ∈ Gl (H).
ası́ que también Re(I − zA)−1 ≥ 0. La fórmula (10.4) se deduce de las igualdades
∞ ∞
−1 ∗
X X
−1 n n
z n (A∗ )n ,
(I − zA) = z A y (I − zA) =
k=0 k=0
que valen para todo |z| < 1 (aunque kAk pueda ser mayor que 1) porque son ciertas para
|z| < kAk−1 por la Prop. 10.3.1, y siguen valiendo hasta el mayor disco donde se pueda
calcular la función analı́tica z 7→ (I − zA)−1 , que sabemos que no es menos que |z| < 1 por
lo visto en el item 2.
Lema 10.3.3. Sea Sea T ∈ L(H) tal que w(T ) ≤ 1. Entonces, para todo n ∈ N,
2I T∗ 0 ... 0
T 1
T 2I T ∗ . . . 0
Zn = ... .. .. .. .. ∈ L(Hn+1 )+ .
. . . .
2 2
. . . T 2I T ∗
0
0 . . . 0 T 2I
Demostración. Como w(T ) ≤ 1, por el Lema 10.3.2 sabemos que Re(I −zT )−1 ≥ 0 y tenemos
la expresión en serie (10.4), para |z| < 1. Por lo tanto, si llamamos Q(r, θ) = Re(I −reiθ T )−1 ,
para r ∈ [0, 1) y θ ∈ [0, 2π], tenemos que
∞
1 X k ikθ k
Q(r, θ) = I + r e T + e−ikθ (T ∗ )k ≥ 0 .
2 k=1
286
n
X
Tomemos (h0 , . . . , hn ) ∈ H n+1
. Si llamamos h(θ) = hs eis θ , tenemos que
s=0
Z 2π
1
0 ≤ h Q(r, θ) h(θ) , h(θ) i dθ
2π 0
n
X 1 X s−j
s−j 1 X
khk k2 + rj−s (T ∗ )j−s hj , hs ,
= r T hj , hs +
k=0
2 0≤j<s≤n 2 0≤s<j≤n
mismo para T ∗ . Como esto vale para todo r < 1, haciendo r → 1− obtenemos
n
X 1 X
1 X
I T ∗ . . . (T ∗ )n
I 0 ... 0
.. ..
0 I . . T I ... 0
0 ≤ Wn (T ) = . . Z (−T /2) .. .
n . . .. ...
.. . . . . . T ∗ ..
.
0 ... 0 I Tn ... T I
Como las matrices que conjugan son inversibles (triangulares con I’s en la diagonal), de-
ducimos que Zn (−T /2) ≥ 0. Como w(−T ) = w(T ) ≤ 1, también Zn (T /2) ≥ 0, para todo
n ∈ N.
El siguiente resultado fué probado por T. Ando en [92]:
Teorema 10.3.4 (Ando 1973). Sea A ∈ L(H). Son equivalentes:
1. w(A) ≤ 1.
A∗ /2 A∗ /2
I I
≥0 y SC , H ⊕ {0} =X .
A/2 X A/2 X
287
A∗ /2
+ I −Y
5. Existe Y ∈ L(H) tal que ∈ L(H ⊕ H)+ .
A/2 Y
I + L A∗
7. Existe L ∈ A(H) tal que ∈ L(H ⊕ H)+ .
A I −L
Demostración. La equivalencia entre las condiciones 1 y 2 es bien fácil.
1 → 3 Es el Lema 10.3.3.
3 ↔ 4 ↔ 5 Es el Teo. 9.7.3.
5 ↔ 6 Es el Teo. 9.2.7.
I − Y A∗ /2
5 → 7 Supongamos que ≥ 0. Si llamamos L = I − 2Y ∈ A(H), se tiene que
A/2 Y
I + L = 2(I − Y ) y I − L = 2Y . Por lo tanto,
I + L A∗ I − Y A∗ /2
=2 ≥0.
A I −L A/2 Y
Luego Re(eiθ A) ≤ I.
Demostración. Se puede asumir que w(A) = 1, porque las dos cantidades dependen ho-
mogéneamente de A. En ese caso, la igualdad se deduce de la fórmula (10.5), con algunos
retoques.
Corolario 10.3.6. Sean A ∈ L(H)+ y B ∈ L(H). Son equivalentes:
A B∗ A B∗
+ X 0
∈ L(H ⊕ H) y SC , H ⊕ {0} = .
B X B X 0 0
288
2. Para todo n ∈ N, Zn (A, B) ∈ L(Hn+1 )+ .
1
3. Existe C ∈ L(H) tal que A1/2 CA1/2 = B y w(C) ≤ .
2
Demostración. En el Teo. 9.7.3 se muestra la equivalencia 1 ↔ 2. Llamemos
A1/2 0 ... 0
0 A1/2 . . . 0 1/2 n +
A(n) = .. .. = A ⊗ In ∈ L(H ) , n ∈ N .
. . . .
. . . .
0 ... 0 A1/2
La relación entre las condiciónes 2 y 3 se ve a través de la fórmula
Zn (A, B) = A(n+1) Zn (C)A(n+1) para todo n∈N, (10.6)
y el hecho de que Zn (C) ≥ 0 para todo n ∈ N si y sólo si w(2 C) ≤ 1, por el Teo. 10.3.4.
Esto muestra 3 → 2. Recı́procamente, si Z1 (A, B) ≥ 0, el Teo. 9.2.7 dice que existe una
contracción C ∈ L(H) tal que A1/2 CA1/2 = B, y la Ec. (10.6) tiene sentido. Si P ∈ L(H) es
el proyector ortogonal sobre R(A1/2 ), entonces P CP sirve tanto como C. Luego podemos
asumir que C = P CP . En tal caso, si Zn (A, B) ≥ 0, la Ec. (10.6) dice que hZn (C)y, yi ≥ 0
para y en un denso del subespacio invariante R(P ) n+1 , mientras que en (R(P )n+1 )⊥ =
(ker A)n+1 , el operador Zn (C) actua como la identidad. Podemos concluir que Zn (C) ≥ 0, y
por ende w(C) ≤ 1/2.
Observación 10.3.7. Dado A ∈ L(H), w(A) ≤ 1 si y sólo si existe un espacio se Hilbert
K ⊇ H y U ∈ U(K) tal que, si P ∈ L(K) es la proyección ortogonal sobre H, entonces
An x = 2P U n x , para todo x∈H y n∈N.
Esto es algo más difı́cil que lo anterior, pero puede deducirse de los Lemas 10.3.2 y 10.3.3 (en
particular del hecho de que las matrices Wn (T ) sean positivas). Recientemente, Chi-Kwong
Li y H. Woerdeman plantearon una conjetura que intenta generalizar estos resultados (en
particular el Cor. 10.3.5), en términos del k-ésimo radio numérico
( k )
X
wk (A) = sup |hAxj , xj i| : {x1 , . . . , xk } es un sistema ortonormal .
j=1
289
Demostración. Tomemos partes real e imaginaria: A = Re A + i Im A. Luego
donde la última desigualdad se deduce de que W (Re A) = {Re z : z ∈ W (A)}, por lo que
w(Re A) ≤ w(A), y lo mismo para Im A. La optimalidad de las constantes 1 y 1/2 se ve
tomando las matrices E11 y 2E21 .
Proposición 10.4.2 (Marcus-Sandy 1985). Sea A ∈ Mn (C). Entonces
n n
1X X
si (A) ≤ w(A) ≤ si (A) = kAk1 .
n i=1 i=1
Para ver que las constantes 1 y 1/n son óptimas, tomar las matrices E11 e I.
0 0 0 1
Definición 10.4.3. Llamemos A = ∈ M2 (C) y V = ∈ U(2). Dado
2 0 1 0
n ∈ N, si n = 2m consideremos las matrices diagonales de bloques
m
X
Cn = A ⊕ A ⊕ · · · ⊕ A = 2E2k,2k−1 ∈ Mn (C) y
k=1
m
X
Un = V ⊕ V ⊕ · · · ⊕ V = E2k,2k−1 + E2k−1,2k ∈ U(n) .
k=1
290
Si n = 2m + 1 e I1 denota a la “matriz” [ 1 ] ∈ M1 (C),
m
X
Cn = A ⊕ · · · ⊕ A ⊕ I1 = En,n + 2E2k,2k−1 ∈ Mn (C) y
k=1
m
X
Un = V ⊕ · · · ⊕ V ⊕ I1 = En,n + E2k,2k−1 + E2k−1,2k ∈ U(n) .
k=1
Observar que, como w(A) = w(I1 ) = 1, la Ec. (10.3) asegura que w(Cn ) = 1 para todo
n ∈ N. 4
Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [100] para calcular, para
N una NUI fija en Mn (C), las mejores constantes m y M tales que
Por lo tanto, s(E11 ) ≺w s(A) ≺w s(Cn ). Como N es una NUI, el Teorema de Ky Fan
(Teorema 3.3.8 del Libro 1) dice que que
N (T )
N (E11 ) ≤ N (A) = ≤ N (Cn ) .
w(T )
291
Proposición 10.4.5. Sea N es una NUI en Mn (C). Entonces
se tiene que
1. N0 es una NUI.
Demostración. Los dos primeros items son claros de lo anterior. Fijemos T ∈ Mn (C).
Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir
que T = Σ(T ) = diag (s1 (T ), . . . , sn (T )). Más aún, supongamos que
n s (T ) 1 X n o
1
N0 (T ) = max , si (T ) = 1 .
2 n i=1
Observar que s(B) = vn . Luego, como s(T ) ≺w vn = s(Bn ) y N es una NUI, el Teorema de
Ky Fan (Teorema 3.3.8 del Libro 1) nos dice que que N (T ) ≤ N (Bn ), con lo que bastarı́a
probar que N (Bn ) ≤ 1. Por otra parte, en la Def. 10.4.3 se ve que w(Cn ) = 1 para todo
n ∈ N. Como U ∈ U(n) y N es una NUI, tenemos que
292
Capı́tulo 11
σ(A) = {λ ∈ C : a − λI ∈
/ Gl (H)}
293
11.1 Normas unitariamente invariantes
Una norma |k · |k en Mn (C) era unitariamente invariante si |kU AU ∗ |k = |kA |k para toda
A ∈ Mn (C) y U ∈ U(n). La noción de norma unitariamente invariante puede extenderse a
operadores en espacios de Hilbert. Para verlo, empecemos con algunas definiciones básicas:
Sea A ∈ L0 (H). Luego también |A| ∈ L0 (H). Notaremos por s(A) = (sk (A))k∈N
a la sucesión de autovalores de |A|, tomados con multiplicidad y en orden decreciente. Si
dim R(A) = n < ∞, pondremos sk (A) = 0 para k > n. Los números sk (A) se llaman también
valores singulares de A. Notar que, por el Teorema espectral para operadores compactos,
existe un sistema ortonormal {xn }n∈N de autovectores de |A| asociados a la sucesión s(A).
Si notamos A = U |A| la descomposición polar de A, entonces U es isométrico en R(|A|).
Luego el sistema {yn }n∈N = {U xn }n∈N es también ortonormal. Para ellos vale una versión
infinitodimensional de la descomposición en valores singulares:
X X
A = U |A| = U sn (A) xn ⊗ xn = sn (A) yn ⊗ xn .
n∈N n∈N
En otras palabras, X
Az = sn (A)hz, xn iyn , z∈H.
n∈N
Pm
Observar que los operadores Am = n=1 sn (A) yn ⊗ xn tienen rango finito, puesto que
s(Am ) = (s1 (A), . . . , sm (A), 0, . . . ). Pero tienen la interesante propiedad de que
Repaso de matrices
Recordemos los siguientes nociones y resultados de matrices (ver capı́tulo 3 del Libro I):
Definición 11.1.1. Una norma |k · |k en Mn (C) se dice que es una norma unitariamente
invariante (NUI) , si cumple que
|kU AV |k = |kA |k
para toda A ∈ Mn (C) y U, V ∈ U(n). Notar que, en tal caso, |kA |k = |kΣ(A) |k. 4
Definición 11.1.2. Dada una norma N (·) unitariamente invariante, se define la función
gN : Rn → R como gN (x1 , . . . , xn ) = N (diag (x1 , . . . , xn )). 4
Proposición 11.1.3. Sea N una NUI. Entonces:
1. gN es una norma en Rn .
294
Observación 11.1.4. Una función f : Rn → R que cumple los ı́tems 1, 2 y 3 de la
Proposición anterior se denomina gauge simétrica. 4
Proposición 11.1.5. Si g es una función gauge simetrica, entonces, g es monótona, es decir,
si |xi | ≤ |yi | para todo i ∈ {1, . . . , n}, entonces, g(x) ≤ g(y).
Sucesiones de números
Denotaremos C0 al conjunto de sucesiones complejas a = (an )n∈N tales que an −−−→ 0.
n→∞
Consideremos CF ⊆ C0 , el conjunto de sucesiones a ∈ C0 con finitas entradas no nulas. Dada
a ∈ C0 , notaremos |a| = (|an |)n∈N ∈ C0 . Para cada n ∈ N, llamaremos Pn : C0 → CF a la
función dada por Pn (a) = (a1 , . . . , an , 0, . . . ). En forma similar a las nociones definidas en
el caso finitodimensional en la Proposición 11.1.3, definiremos funciones gauge simétricas en
CF y C0 , y normas unitariamente invariantes en L0 (H):
Definición 11.1.6.
• g es una norma en CF .
• g(a) = g(|a|) para todo a ∈ CF , y
• g es invariante por permutaciones.
2. Si g es una norma simétrica, se tiene que, para toda a ∈ C0 , la sucesión g(Pn (a)) is
creciente. Redefinimos
Observación 11.1.7. Se sabe (ver, por ejemplo, el libro de Simon [109]) que, si
295
1. Para todo ε > 0 y T ∈ I, existe un operador de rango finito S (i.e., dim R(S) < ∞)
tal que |kT − S |k < ε. En efecto, basta encontrar, para cada n ∈ N, operadores Sn
tales que s(Sn ) = Pn (s(T )) y s(T − Sn ) = (sn+1 (T ), sn+2 (T ), . . . ). Tales operadores se
pueden obtener aplicando las observaciones anteriores a la fórmula (11.1). Este hecho
es clave, porque con los resultados conocidos para matrices, uno puede deducir las
siguientes propiedades:
Demostración. By Remark 11.1.7, para todo ε > 0, there exists a finite rank operator S tal
que N (T − S) < ε. On the other hand, para todo A ∈ I y every projección P ∈ L(H), it
holds that N (P AP ) ≤ N (A). In particular, N (PF (T − S)PF ) < ε para todo F ∈ F. Hence,
we can assume that dim R(T ) = n < ∞.
En tal caso, also dim R(PF T PF ) ≤ n, F ∈ F. entonces sm (T ) = sm (PF T PF ) = 0 para todo
m > n y F ∈ F. The symmetric norm g associated with N is a norm on Rn (completing
the n-tuples with zeros) and, in Rn , all norms are equivalent. Hence, in order to show the
296
Proposition, it suffices to verify that sk (PF T PF ) −−−→ sk (T ) para todo 1 ≤ k ≤ n. It is
F ∈F
known (see [94] III.6.6) that, para todo k ∈ N,
k
X Xk
kT k(k) = sj (T ) = max hT xj , yj i ,
j=1 j=1
where the maximum is taken over all orthonormal systems {x1 , . . . , xk }, {y1 , . . . , yk } in H.
Note that hPF T PF x, yi = hT PF x, PF yi −−−→ hT x, yi para todo x, y ∈ H. On the other
F ∈F
hand, by Remark 11.1.7, the net kPF T PF k(k) is increasing, because the norm k · k(k is
unitary invariant, and PG T PG = PG (PF T PF )PG , for F, G ∈ F, G ≤ F . So, we can deduce
that kPF T PF k(k) −−−→ kT k(k) para todo k ∈ N. Por lo tanto
F ∈F
para todo 1 ≤ k ≤ n.
Observación 11.1.9. Let |k · |k be a unitary invariant norm defined on a norm ideal I ⊆
L(H). The space L(H ⊕ H) can be identified with the algebra of block 2 × 2 matrices with
entries in L(H), denoted by L(H)2×2 . Denote by I2 the ideal of L(H⊕H) associated with the
same norm |k · |k (i.e., by using the same symmetric norm g). Then, the following properties
are esasy to see:
297
Capı́tulo 12
298
Definición 12.1.2. Dado un espacio de Hilbert H, llamaremos
PA = {Q ∈ Q : Q∗ A = AQ} ,
P(A, S) = QS ∩ PA = {Q ∈ Q : R(Q) = S, AQ = Q∗ A}
a la clase de proyectores A-autoadjuntos con rango S, que serán nuestro principal objeto de
estudio en este capı́tulo. Diremos que el par (A, S) es compatible si P(A, S) 6= ∅. 4
En los siguientes capı́tulos tenderemos que hacer muchas cuentas con subespacios: sumas,
restas, contraimágenes, sus ortogonales, y otras yerbas. Muchas de esas cuentas son ele-
mentales (hay que probar las dos inclusiones, y salen), pero como esos pasos se mezclan con
otras cuentas y a veces las notaciones confunden, agregaremos ahora un ejercicio para ir
familiarizándose con (y en lo posible memorizando) el tipo de igualdades que luego usaremos
hasta el cansancio:
Ejercicios 12.1.4. Sean S, T , M v H. Recordemos que se usa la notación
S T = S ∩ (S ∩ T )⊥ .
(M ∩ S) ⊕ (M ∩ T ) dé todo M.
299
5. Supongamos que S ⊆ T ⊥ , y nos preguntamos cómo calcular S ⊥ T M. En general
7. Dados A ∈ L(H) y Q ∈ Q , tenemos que ker AQ = N (Q) ⊕ R(Q) ∩ ker A . 4
La herramienta escencial que usaremos para estudiar la compatibilidad, y por lo tanto para
exhibir proyectores adecuados, será el Teorema de Douglas 9.1.1. Veremos a continuación
una versión particular de dicho Teorema, que involucra (y produce) proyectores oblicuos:
Lema 12.1.5. Sean A ∈ L(H) y Q ∈ Q con R(Q) = S y ker Q = T . Entonces
1. R(QA) ⊆ R(A) si y sólo si R(A) = R(A) ∩ S ⊕ R(A) ∩ T .
1. Si R(QA) ⊆ R(A), entonces R(QA) ⊆ R(A) ∩ S. Entonces, si ξ ∈ R(A), nos sale que
La recı́proca es obvia.
2. ker Q ⊆ R(Q)⊥A .
300
3. Q es una A-contracción, i.e. hQξ, QξiA ≤ hξ, ξiA para todo ξ ∈ H.
2. S + S ⊥A = S + A−1 (S ⊥ ) = H.
H = R(Q) ⊕ ker Q ⊆ S + S ⊥A .
Por otra parte, si S + S ⊥A = H, entonces debe existir algún Q ∈ QS tal que N (Q) ⊆ S ⊥A .
Por la Prop. 12.1.6, un tal Q ∈ P(A, S).
301
Proposición 12.2.1. Sean A ∈ L(H)+ y S v H. Entonces las siguientes condiciones son
equivalentes:
1. El par (A, S) es compatible.
2. R(P A) = R(P AP ) o, equivalentemente, R(b) ⊆ R(a).
3. La ecuación ax = b tiene solución.
I y S
En tal caso, todo Q ∈ P(A, S) tiene la forma Q = , donde ay = b.
0 0 S⊥
Demostración. Recordar que, salvo tres ceros, a = P AP y b = P A(1 − P ).
2 ↔ 3: Aplicar el Teo. 9.1.1 y observar que R(P A) = R(a) + R(b).
⊥ ⊥ I y
1 ↔ 3: Pensemos que a ∈ L(S) y b ∈ L(S , S). Si y ∈ L(S , S) sea Q = ∈ PS .
0 0
Entonces
a b I y a ay ∗ ∗ a b
AQ = = y Q A = (AQ) = .
b∗ c 0 0 b∗ b∗ y y a y∗b
∗
Pero las tres igualdades resultantes a que AQ = Q∗ A (o sea que Q ∈ P(A, S) ) equivalen a
que ay = b (porque en tal caso y ∗ b = y ∗ ay ≥ 0).
Ejemplo 12.2.2. Sea A ∈ L(H)+ y consideremos
1/2 1/2
A A1/2 A 0 A I
M= = ∈ L(H ⊕ H)+ .
A1/2 I I 0 0 0
Si S = H ⊕ {0}, la Prop. 9.2.1 nos asegura que el par (M, S) es compatible si y sólo si
R(A) v H. 4
Observación 12.2.3. Sean A ∈ L(H)+ , S v H y P = PS . Entonces
a b
1. Si R(P AP ) v H, el par (A, S) es compatible. En efecto, si A = , por la
b∗ c
Prop. 9.2.3 se tiene que R(b) ⊆ R(a1/2 ). Pero como R(P AP ) = R(a) v H, entonces
R(a1/2 ) = R(a). Por la Prop. 12.2.1, (A, S) es compatible. En particular:
2. Si dim H < ∞, entonces todo par (A, S) es compatible.
3. Idem si dim S < ∞.
4. Si A ∈ Gl(H)+ , sabemos que R(P AP ) = S, por lo que seguro (A, S) es compatible.
En este caso, la única proyección PA,S sobre S que es A-autoadjunta está determinada
por las siguientes fórmulas (ver [110])
!−1
−1
I a b
PA,S = = P (1+P −A−1 P A)−1 = P AP +(1−P )A(1−P ) P A. (12.3)
0 0
302
Cabe observar que, es este caso, (H, h·, ·iA ) es un espacio de Hilbert isomorfo al H
normal (el producto interno nuevo es equivalente al viejo). Por ello no debe sorprender
que haya siempre un único projector ortogonal sobre cada subespacio cerrado S (y que
los subespacios cerrados sean los mismos). 4
Definición
12.2.4.
Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible.
a b
Si A = , sea d ∈ L(S ⊥ , S) la SR de la ecuacuión ax = b. Fijaremos entonces al
b∗ c
proyector PA,S ∈ P(A, S) dado por
def 1 d S
PA,S = .
0 0 S⊥
Teorema 12.2.5. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible.
Notaremos N = A−1 (S ⊥ ) ∩ S = S ⊥A ∩ S. Entonces se tiene que:
1. N = ker a = ker A ∩ S.
2. PA,S ∈ P(A, S) y N (PA,S ) = A−1 (S ⊥ ) N .
3. P(A, S) tiene un sólo elemento (que será PA,S ) si y sólo si si y sólo si N = {0} si y
sólo si S ⊕ A−1 (S ⊥ ) = H.
4. P(A, S) es una variedad afı́n y puede parametrizarse a través de
P(A, S) = PA,S + L(S ⊥ , N ) ,
donde pensamos a L(S ⊥ , N ) como un subespacio de L(H). Una versión matricial de
esta parametrización serı́a:
1 0 d S N
P(A, S) 3 Q = PA,S + z = 0 1 z N , para z ∈ L(S ⊥ , N ) , (12.4)
0 0 0 S⊥
con las notaciones de la Def. 12.2.4.
5. PA,S tiene norma mı́nima en P(A, S):
kPA,S k = min{ kQk : Q ∈ P(A, S)} . (12.5)
Sin embargo, PA,S no es en general el único Q ∈ P(A, S) que realiza la norma mı́nima.
Demostración.
1. Sea ξ ∈ S. Luego Aξ = aξ + b∗ ξ. Recordemos que aξ ∈ S y b∗ ξ ∈ S ⊥ . Por tanto,
Aξ ∈ S ⊥ si y sólo si ξ ∈ ker a. Por otro lado, si ξ ∈ N , entonces
kA1/2 ξk = hAξ, ξikA1/2 ξk = 0 .
Por ello Aξ = 0. Es evidente que ker A ⊆ A−1 (S ⊥ ), asi que tenemos demostrada la
igualdad N = ker a = ker A ∩ S.
303
2. Como ya vimos, PA,S ∈ P(A, S) por la Prop. 12.2.1. Además, por la Prop. 12.1.6,
ker PA,S ⊆ A−1 (S ⊥ ). Pero como S ⊕ (A−1 (S ⊥ ) N ) = H, bastarı́a ver que ker PA,S ⊆
N ⊥ . Sea ξ ∈ ker PA,S y pongamos ξ = ξ1 + ξ2 , con ξ1 ∈ S y ξ2 ∈ S ⊥ . Entonces
0 = PA,S ξ = ξ1 + dξ2 . Ahora pordemos ver que
4. Tenemos que ver que cada Q ∈ P(A, S) se escribe en forma única como
Q ∈ P(A, S) ⇐⇒ ay = b ⇐⇒ a(y − d) = 0 .
Con respecto a la representación matricial, observar que el Teo. 9.1.1 asegura que
0 0 d
2
0 0 z
= 1 + kd∗ d + z ∗ zk2 ≥ 1 + kd∗ dk2 = 1 + kdk2 = kPA,S k2 .
kQk2 = 1 +
0 0 0
Entonces la matriz
dd∗ d
PR(d) d
A= ≥ ≥0.
d∗ 1 d∗ 1
Tenemos que N = ker A ∩ S = S R(d) y que d es la SR de PR(d) x = d. Sea
z ∈ L(ker d, N ) tal que 0 < kzk ≤ √
1. Entonces Q = PA,S + z como en (12.4) cumple
que Q ∈ P(A, S), kQk = kPA,S k = 2 y Q 6= PA,S .
304
12.3 Complementos de Schur
Recordemos que, si A ∈ L(H)+ y S v H, entonces el Teo. 9.5.6 dice que
SC A , S ⊥ = inf{R∗ AR : R ∈ Q, ker R = S } .
Aquı́, la primera inclusión puede ser estricta. Veremos que lo que no pasa en general sı́ pasa
cuando el par (A, S) es compatible:
Proposición 12.3.1. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea
E ∈ P(A, S) y notemos Q = 1 − E. Entonces
1. SC A , S ⊥ = AQ = Q∗ AQ.
3. R(SC A , S ⊥ ) = R(A) ∩ S ⊥ .
4. ker SC A , S ⊥ = ker A + S.
Demostración.
1. En principio, podemos ver que 0 ≤ AQ = Q∗ AQ ≤ A, por la Prop. 12.1.6, y además
el máximo. Por otro lado, dado X ∈ M(A, S ⊥ ), como ker Q = S, tenemos que
0 0 S 0 y S
X= ⊥ y Q=I −E = ⊥ =⇒ XQ = X = Q∗ X .
0 x S 0 I S
305
Corolario 12.3.2. Sean A ∈ L(H)+ y S v H. Entonces las siguientes condiciones son
equivalentes:
1. El par (A, S) es compatible.
T ⊥ = R SC (A , S ⊥ ) ⊆ S ⊥ .
⊥
∈ M(A, T ⊥ ) (el conjunto definido
Pero esto mismo dice que SC A , S en (9.3) ), por lo
⊥ ⊥ ⊥
que SC A , S ≤ SC A , T . Por otra parte, como R SC A , S ⊆ R(A), existe la
⊥
solución reducida Q de la ecuación AX = SC A , S . Por lo tanto, se tiene que
ker Q = ker SC A , S ⊥ = T y AQ = SC A , S ⊥ = Q∗ A .
Para poder concluir que 1 − Q ∈ P(A, T ), alcanzarı́a mostrar que Q ∈ Q. Veamos primero
que, si L = A−1/2 (S ⊥ ) = A1/2 (S)⊥ , entonces Q es la SR de la ecuación A1/2 X = PL A1/2 (lo
que, de paso, muestra que R(PL A1/2 ) ⊆ R(A1/2 ) ). Por la Prop. 9.3.3,
Luego, para todo ξ ∈ H, se tiene que PL A1/2 ξ = A1/2 Qξ + η para algún η ∈ ker A1/2 . Por lo
tanto, como ker A1/2 = R(A1/2 )⊥ ⊆ A1/2 (S)⊥ = L, se tiene que
306
Llegamos a que A1/2 Q = PL A1/2 . Pero, por otra parte, como Q era la SR de la ecuación
AX = SC A , S ⊥ , tenemos que
⊥
= R(A) ∩ S ⊥
Demostración. La ida fue vista en la Proposición 12.3.1. Si R SC A , S
⊥
y ker SC A , S = ker A + S = T , sabemos, por la Proposición 12.3.4, que el par (A, T ) es
compatible, o sea que T + A−1 (T ⊥ ) = S + ker A + A−1 (T ⊥ ) = H. Pero
S⊥ ⊆ R A + λ Q
para algún (y en tal caso para todo) λ > 0 . (12.6)
Demostración. La Prop. 12.2.1 asegura que el hecho de que (A, S) sea compatible sólo
depende de la primera fila P A de A (es decir, de a y b). Por ello podemos cambiar libremente
y la compatibilidad con S ni se entera. Además es fácil ver (por las definiciones) que
Compresiones
Recordemos la Def. 9.4.5 de la S-compresión de A y sus propiedades:
Observación 12.3.7. Sean A ∈ L(H)+ y S v H. El operador
def
AS = A − SC (A , S) ∈ L(H)+
307
se llama la S-compresión de A. En la Prop. 9.4.6 se vió que
ξ ∈ ker SC A , S ⊥
entonces Aξ = AS ⊥ ξ ∈ A(S) .
Si Aξ = Aη con
⊥
η ∈ S, entonces ξ = (ξ − η) + η ∈ ker A + S. Hemos probado que
ker SC A , S ⊆ ker A + S. Por el Teo. 12.3.5, deducimos que (A, S) es compatible.
308
1. El par (A, S) es compatible.
2. R(P AP ) es cerrado.
3. c [ S , ker A ] < 1.
Demostración. La Prop. 12.4.1 muestra que 2 → 1. Que las condiciones 2 hasta 6 son
equivalentes entre sı́ se deduce de las Proposiciones 8.4.10 y 8.4.11, y del hecho de que
R(A) v H (por lo que también R(A1/2 ) v H, cf. Prop. 4.3.6). Finalmente, la Prop. 12.3.1
⊥
dice que, si (A, S) es compatible, entonces S + ker A = ker SC A , S v H.
Ejercicio 12.4.3. Sean A ∈ L(H)+ , S v H y P = PS . Si R(A) v H, probar que
ker SC A , S ⊥ ⊆ S + ker A .
(A, S) es compatible ⇐⇒
Comparar con el Teo. 12.3.5. Y con los rangos ¿qué pasa? Sugerencias:
2. Para todo B ∈ L(H)+ tal que R(B) = R(A), el par (B, S) is compatible.
Más aún, si B ∈ L(H)+ y R(B) = R(A), las variedades afines P(A, S) y P(B, S) son
”paralelas”, i.e.
P(B, S) = (PB,S − PA,S ) + P(A, S). (12.8)
Demostración. Si R(B) = R(A) entonces también ker B = ker A = ker PR(A) . Por el
Teo. 12.4.2, las tres condiciones son equivalentes, porque la compatibilidad solo depende del
ángulo entre S y el núcleo del operador. Usando que
309
12.5 El caso de dos proyectores
En esta sección estudiaremos el caso en el que A es un proyector ortogonal, i.e., A = Q ∈ P.
Por el Teo. 12.4.2 (items 3 y 6), si S v H y P = PS , entonces
2. (P, T ) es compatible.
5. R(P Q) es cerrado.
6. R(QP ) es cerrado.
7. R(1 − P + Q) es cerrado.
8. R(1 − Q + P ) es cerrado.
9. c S , T ⊥ = c T , S ⊥ < 1.
310
Proposición 12.5.3. Sean Q ∈ P y S v H tales que (Q, S) es compatible. Entonces vale
la igualdad
−1
kPQ,S k = s R(Q)⊥ , S = s [ N (Q) , S ]−1 .
Demostración. Por el Cor. 8.2.8, sabemos que kPQ,S k = s [ N (PQ,S ) , S ]−1 . Pero, por las
Proposiciones 12.2.5 y 8.2.3, tenemos que
N (PQ,S ) = Q (S ) Q (S ) ∩ S =⇒ c [ N (PQ,S ) , S ] = c Q−1 (S ⊥ ) , S .
−1 ⊥ −1 ⊥
c Q−1 (S ⊥ ) , S = c [ N (Q) , S ] .
1. El (A, S) es compatible.
2. S ⊕ S ⊥A = H
3. S ⊕ S ⊥A es cerrado.
4. S ⊥ ⊕ A(S) = H
5. S ⊥ ⊕ A(S) es cerrado.
En tal caso P(A, S) = {PA,S }, donde PA,S es el que aparece en la Def. 12.2.4.
311
Demostración. Las sumas de 2 y 3 son directas porque S ∩ S ⊥A = ker A ∩ S = {0}. La
equivalencia entre 1 y 2 esta probada en el Cor. 12.1.7 La equivalencia entre las otras cuatro
condiciones se deduce varios hechos: primero que
h i
S ⊥ ⊕ A(S) v H ⇐⇒ c S ⊥ , A(S) < 1 ⇐⇒ c S , S ⊥A < 1 ⇐⇒ S ⊕ S ⊥A v H ,
(12.9)
−1 ⊥
⊥ ⊥A ⊥
porque A(S) = A (S ) = S , lo que permite aplicar la Prop. 8.4.10. El otro
⊥
hecho significativo es que S ⊕ A(S) es denso en H, porque el ortogonal de la suma es
S ∩ A(S)⊥ = ker A ∩ S = {0}. El último hecho es la equivalencia entre 2 y 4 que es, ahora,
un ejercicio fácil (N ⊕ M = H si y sólo si N ⊥ ⊕ M⊥ = H). Finalmente, la lı́nea de
implicaciones ya probadas es 3 → 5 → 4 → 2 → 3.
Observación 12.6.2. Como en el caso de rango cerrado, en el caso inyectivo también se
tiene una caracterización de la compatibilidad en términos de ángulos. En efecto, obesrvar
que
h i
⇐⇒ c S ⊥ , A(S) < 1 ⇐⇒ c S , S ⊥A < 1 ,
el par (A, S) es compatible
Veremos que PA,S cumple una propiedad de minimalidad algo mejor, que sı́ la caracteriza:
Proposición 12.7.2. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible.
Entonces PA,S es el único elemento de P(A, S) que cumple
312
Demostración. Dado Q ∈ P(A, S), por la Prop. 12.2.5 existe z ∈ L(S ⊥ , N ) tal que
0 0 −d S N
I − Q = I − PA,S − z = 0 0 −z N .
0 0 I S⊥
k(I − Q) ξk2 = kd ηk2 + kz ηk2 + kηk2 ≥ kd ηk2 + kηk2 = k(I − PA,S ) ξk2 .
1. PA, S N + PN = PA,S .
3. P(A, S N ) = {PA, S N }.
313
Demostración. Antes que nada, observar que
S + A−1 (S ⊥ ) = H ⇐⇒ (S N ) ⊕ A−1 (S ⊥ ) = H .
tenemos que PA, S N + PN ∈ P(A, S). Por último, es fácil ver que
La Prop. 12.2.1 muestra que un par (A, S) es compatible si y sólo si R(P A) ⊆ R(P AP ),
donde P = PS . Por lo tanto, si (A, S) es compatible, es natural estudiar a la solución
reducida Q de la ecuación
(P AP )X = P A (12.13)
y su relación con PA,S . Observar que R(Q) ⊆ R(P AP ), que puede estar estrictamente
incluido en S, por lo que, en general, Q 6= PA,S . Sin embargo:
Proposición 12.7.5. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible.
Sea Q la SR de la ecuación (12.13). Sea N = ker A ∩ S. Entonces
Q = PA, S N y PA,S = PN + Q .
Observar que R(Q) ⊆ R(P AP ) = R(a). También ker Q = ker(P A) = A−1 (S ⊥ ). Pero
314
Proposición 12.7.6. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea
P = PS . Si Q es la SR de la ecuación (AP )X = AS ⊥ , entonces
donde N = ker A ∩ S.
Demostración. Sea Q la SR de la ecuación AP X = AS ⊥ . Entonces, por la Prop. 9.4.6,
Aξ = AS ⊥ ξ = A Qξ =⇒ ξ − Qξ ∈ ker A ∩ ( S N ) = {0} .
Esto muestra que Q es la identidad en S N . Como vimos que ker Q = A−1 (S ⊥ ), el Lema
12.7.4 asegura que Q = PA,S N .
Observación 12.7.7. Otra manera de probar la Prop. 12.7.6 es verificar que si Q la SR de
la ecuación AP X = AS ⊥ , entonces Q también
es la SR de la Ec. (12.13). Esto sale usando
⊥
la Ec. (12.14) y el hecho de que P SC A , S = 0. 4
315
Demostración. 1 ↔ 2: Si H = S + S ⊥A , aplicando A1/2 en ambos lados tenemos que
Es decir que
R(A1/2 ) = A1/2 (S) + A−1/2 (S ⊥ ) ∩ R(A1/2 ) = A1/2 (S) ⊕ A1/2 (S)⊥ ∩ R(A1/2 ) .
Pero si R(A1/2 ) = A1/2 (S) ⊕ A1/2 (S)⊥ ∩ R(A1/2 ) podemos ver que
Por la Prop. 12.7.9, (A, S) es compatible si y sólo si R(PM A1/2 ) ⊆ R(A1/2 P ), es decir, si la
ecuación A1/2 P X = PM A1/2 tiene solución. Como en la Prop. 12.7.6, su SR es la misma que
la de (12.13):
Proposición 12.7.10. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea
P = PS . Si Q es la SR de la ecuación A1/2 P X = PM A1/2 , entonces
donde N = ker A ∩ S.
Demostración. Ejercicio. Se sugiere un camino similar al de la Obs. 12.7.7.
Ejercicio 12.7.11. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea P = PS .
Supongamos que R(A) v H. Entonces
PA,S = (P AP )† P A = (AP )† AS ⊥
= I − Pker A − A† SC A , S ⊥
= (A1/2 P )† PM A1/2 ,
316
Por la Prop. 12.2.1 y mirando la Def. 12.2.4, uno deduce que
(A, S) es compatible ⇐⇒ (B, S) es compatible
y, en tal caso, que PA,S = PB,S , porque ambas cosas dependen sólo de a y de b. Usando
estos hechos, podremos en adelante cambiar libremente un dado A ∈ L(H)+ por A + Y para
cualquier Y ∈ L(H)+ tal que P Y = 0. Esto no cambiará la compatibilidad o no con S, ni
la proyección minimal asociada. Observar que esto ya fué usado en la Prop. 12.3.6. 4
Proposición 12.7.13. Sean A ∈ L(H)+ y S, T v Htales que S ⊆ T . Supongamos que T
Z 0 T
que reduce A, es decir PT A = APT . Si A = entonces (A, S) es compatible
0 Y T⊥
si y sólo si (Z, S) es compatible en L(T ). En tal caso,
PZ, S 0 T
PA, S = ,
0 0 T⊥
donde también pesamos PZ, S ∈ L(T ).
PS · Z 0
Demostración. Como S ⊆ T , se tiene que PS A = PS PT A = . Si llamamos
0 0
Z 0
B = PT A = , la Obs. 12.7.12 muestra la equivalencia de la compatibilidad de los
0 0
pares (A, S) y (B, S), y que PA, S = PB, S (si existen). Observar que
B −1 (S ⊥ ) = Z −1 (T S) ⊥ T ⊥ .
Luego
H = B −1 (S ⊥ ) + S ⇐⇒ T = Z −1 (T S) + S ,
lo que muestra la equivalencia con la compatibilidad de (Z, S). Por otro lado, como T ⊥
es ortogonal tanto a S como a Z −1 (T S), podemos aplicar el Ejer. 12.1.4 (Item 5) para
obtener que N = S ∩ B −1 (S ⊥ ) = S ∩ Z −1 (T S) y además
−1 ⊥
−1
⊥ PZ, S 0
ker PB, S = B (S ) N = Z (T S) N ⊥ T = ker ,
0 0
PZ, S 0
lo que muestra la igualdad PA, S = PB, S = .
0 0
317
Por la Prop. 9.2.1, R(A) ⊂ R(A1/2 ) en forma estricta (no son iguales). Luego existe ξ ∈
R(A1/2 )\R(A). Sea S = H⊕0 v H⊕H. Entonces S ⊥ = 0⊕H. Veremos que B es inyectivo,
ker SC (B , S) = S, más aun B(S) es cerrado en R(B) (una condición necesaria para la
compatibilidad y que implica que ker SC (B , S) = S). Pero el par (B, S) es incompatible.
En principio, es claro que B no cumple la condición 2 de la Prop. 12.2.1, por lo que el
par (B, S) es incompatible. Sea D la SR de la ecuación Pξ = A1/2 X. Entonces
⊥
0 0
SC B , S = .
0 A − D∗ D
B(ω ⊕ η) = 0 ⊕ 0 =⇒ Aω + Pξ η = 0 = Aη + Pξ ω =⇒ Aω = Aη = 0 =⇒ ω = η = 0 ,
B(η ⊕ ω) = Aη + Pξ ω ⊕ Pξ η + Aω ∈
/ H ⊕ span {ξ} .
entonces λ = hAξ, ξi =
6 0 y η 6= 0, porque sino valdrı́a que ξ ∈ R(A). Luego
Si sucediera que η ∈ R(a), i.e. que exista ν ∈ S tal que aν = bξ, entonces
318
Como ξ ∈ / R(A), tendrı́amos que ν = ξ, una contradicción. Ası́ que R(b) 6⊆ R(a) y el par
(A, S) es incompatible, aunque dim S ⊥ = 1. Sea d ∈ L(S ⊥ , S) la SR de la ecuación a1/2 x = b.
Como η ∈ / R(a) y a1/2 es inyectivo en S, podemos deducir que R(a1/2 ) ∩ R(d) = {0}.
Consideremos ahora el operador
a b
B= ∈ L(H)+ .
b∗ dd∗
B es inyectivo. En efecto,
1/2 1/2 1/2
a a1/2 d a 0 a d a d
B= = =⇒ ker B = ker = {0} ,
d∗ a1/2 dd∗ d∗ 0 0 0 0 0
319
2. Llamemmos C = A1/2 . Dado G ∈ Gl(H)+ , el Cor. 9.1.2 dice que
Veremos que se puede encontrar un G tal que R(A) 6= R(CGC). En efecto, tomemos
Este último paso es algo más complicado (porque le pedimos a G que sea positivo).
Pero la hipótesis de que hη, ρi > 0 (lo que dará que hGρ, ρi > 0) permite construir un tal
positivo invertible que opere sólo en Z = span {ρ, η} (ejercicio) y después completarlo
como uno guste en Z ⊥ . Hecho todo esto, tenemos que
320
Ejemplo 12.8.7. Sea A ∈ L(H)+ y tomemos
1/2 1/2
A A1/2 A 0 A I
M= = ∈ L(H ⊕ H)+
A1/2 I I 0 0 0
A1/2 I
como en el Ejem. 12.2.2. Sean S = H ⊕ {0} y N = . Como M = N ∗ N , entonces
0 0
ker M = ker N = {ξ ⊕ −A1/2 ξ : ξ ∈ H} que es el gráfico de −A1/2 . Observar que
Probar que
321
Capı́tulo 13
Proyectores escaleados
sup kPD, S k ,
D∈Γ
Ax = b .
Sin embargo, muchas veces es necesario reescalear el producto escalar, de modo que las
coordenadas de un vector dado respecto a la base canónica de Cm posean distintos pesos.
Este proceso se lleva a cabo perturbando el producto escalar por medio de un matriz D
322
diagonal respecto a la base canónica, positiva e inversible. El nuevo producto interno se
define del siguiente modo
hx, yiD = hDx, yi .
Respecto a la norma que induce este producto interno, el problema de minimización (13.1)
se reescribe de la siguiente forma:
kD1/2 (AxD − b)k = minn kD1/2 (Az − b)k2 . (13.2)
z∈C
Se puede incluso perturbar el producto interno con matrices diagonales semidefinidas pos-
itivas, aunque en este caso pueden existir más de una solución del problema (13.2). Un
notable teorema de Ben-Tal y Teboulle establece que las soluciones xD se hallan todas en
la cápsula convexa de ciertas soluciones singulares xI . Para enunciar precisamente este
resultado, necesitamos introducir cierta notación.
Definición 13.1.1. Sean A ∈ Mm,n (C) (con m ≥ n) y b ∈ Cm .
1. Dado un conjunto de ı́ndices I = {α1 , . . . , αn } ⊆ Im (se asume que α1 < . . . < αn ),
escribiremos I ⊆n Im .
2. Si I ⊆n Im , llamaremos AI a la submatriz de n × n de A dada por:
AI = (Aαi , j )i,j∈In ∈ Mn (C) , (13.3)
o sea que AI es es la matriz resultante quedarse con las filas de A con ı́ndice en I.
3. En cambio, si D ∈ Mm (C), DI ∈ Mn (C) denotará la submatriz de D resultante
quedarse con las entradas de D con ı́ndice en I × I.
4. Análogamente, el vector bI denotará el vector de Cn dado por bI = (bα1 , . . . , bαn ).
5. Llamaremos J(A) = I ⊆n Im : AI ∈ Gl (n) . Observar que J(A) 6= ∅ si y sólo si
rkA = n. 4
Observación 13.1.2. Se usarán en esta sección resultados sobre determinantes, que han sido
probados en el Capı́tulo 10 Sección 2 del Tomo I de este libro. A continuación reenunciaremos
dichos resultados. 4
Proposición 13.1.3. Sea A ∈ Gl (n). Entonces se tiene la fórmula siguiente
det A(j|i)
(A−1 )ij = (−1)i+j , i, j ∈ In , (13.4)
det A
donde A(j|i) ∈ Mn−1 (C) es la matriz resultante de sacarle a A la columna i-ésima y la fila
j-ésima. De ella se deduce fácilmente la otra versión del cálculo de A−1 , conocida como la
regla de Cramer: Si b ∈ Cn , entonces
det(A −−→ b)
i∈ I
A−1 (b)i = , i ∈ In , (13.5)
det A
donde A −−→ b denota a la matriz resultante de cambiarle a A la columna Ci (A) por b.
i∈ I
323
Proposición 13.1.4 (Fórmula de Cauchy Binnet). Sean A ∈ Mn,m (C) y B ∈ Mm,n (C) ,
con n ≤ m. Luego, X
det AB = det I A · det BI , (13.6)
I⊆n Im
donde I A ∈ Mn (C) es la matriz resultante quedarse con las columnas de A con ı́ndice en I,
al revés que en la Ec. (13.3) que define BI .
AI = QI A y A−1
I = (QI A)
−1
= (QI A)−1 QI ,
Demostración.
1. Una cuenta directa muestra que A(A∗ DA)−1 A∗ D es un proyector con rango S. Ahora
basta notar que DA(A∗ DA)−1 A∗ D es autoadjunto, pues al ser D inversible, existe una
única proyección D-autoadjunta.
324
3. Claramente, A(QA)−1 Q es una proyección con rango S cuyo núcleo es N (Q). Por otro
lado, por definición R(PQ, R(A) ) = S, y por el Teorema 12.2.1
Corolario 13.1.7. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n. Entonces
Demostración. La fórmula para A†D se deduce del item 1 de la Prop. 13.1.6, porque PD, R(A)
es la única proyección D-autoadjunta sobre R(A), y el otro producto da la identidad. La
segunda identidad es evidente (si AI ∈ Gl (n), toda inversa de un lado es la inversa). Observar
que hay un pequeño abuso de notación, porque se piensa que A∗ QI tiene dominio en CI ,
para poder escribir que A∗ QI A = A∗ QI AI .
Usando estos preliminares, podemos enunciar y probar el teorema de Ben-Tal y Teboulle.
+
Proposición 13.1.8. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n y sea D ∈ Dm .
Entonces,
X det DI | det AI |2
PD, R(A) = A(A∗ DA)−1 A∗ D = A(QI A)−1 QI .
X
2
I∈J(A)
det DJ | det AJ |
J∈J(A)
En particular, PD, R(A) ∈ conv PQ, R(A) : Q ∈ J(A) .
X
Demostración. Fijemos b ∈ Cm . Llamemos M = det DJ | det AJ |2 e y = A∗ Db. La
J∈J(A)
cuenta que sigue se va a la otra página, porque es muy larga:
325
Entonces, por la Prop. 13.1.3, para cada i ∈ Im ,
X
= M −1 det DI det A∗I det(A −−→ b)I
i∈ I
I∈J(A)
X det DI | det AI |2
= A−1
I (bI )i .
M
I∈J(A)
Juntando todos los i ∈ Im y recordando que cada A−1I = (A∗ QI A)−1 A∗ QI = (QI A)−1 QI ,
como los coficientes no dependen de b, tenemos que
X det DI | det AI |2
†D ∗ −1 ∗
A = (A DA) A D = (QI A)−1 QI .
M
I∈J(A)
Por otra parte, de la teorı́a de inversas generalizadas, es bien sabido que la solución del
problema (13.2) está dada por
326
mientras que la solución del sistema reducido AI x = bI puede escribirse del siguiente modo:
1/2 2
X det DI | det AI |2
−1
min kD (Az − b)k está dada por xD = A I bI .
X 2
z∈Cn det DJ | det AJ |
I∈J(A)
J∈J(A)
En particular,
n o
sup kPD, S k ≤ max kPQ, S k : Q ∈ P(Dm ) : R(Q) Y S . (13.9)
+
D∈Dm
La desigualdad (13.9) es en realidad una igualdad. Este hecho fue demostrado por el mismo
Stewart y también es una consecuencia de la siguiente Proposición. Es importante destacar
que si uno no se restringe a matrices diagonales, el supremo de las normas de los PA, S no
está acotado, aún cuando A sea inversible. De aquı́ la importancia del resultado obtenido
por Stewart. 4
+
Proposición 13.1.12. Sea S v Cm y denotemos por medio de D0,m al conjunto de matrices
diagonales, semidefinidas positivas de m × m. Entonces
+
Demostración. Sea D ∈ D0,m y consideremos la sucesión de matrices positivas e inversibles
{Dk }k≥1 definidas por:
1
Dk = D + I.
k
Si N = S ∩ N (D), entonces
A + k1 I 0
A 0 B S N B S N
1
D= 0 0 0 N y Dk = 0 k
I 0 N ,
∗ ⊥ ∗ 1 ⊥
B 0 C S B 0 C + kI S
327
1
donde A, y por lo tanto A + I son inversibles. Luego, por el Teorema 12.2.1,
k
I 0 (A + k1 I)−1 B I 0 A−1 B
PDk , S = 0 I 0 y PD, S = 0 I 0 .
0 0 0 0 0 0
En consecuencia obtenemos
kPD, S k = lim kPDk , S k ≤ sup kPD0 , S k
k→∞ +
D0 ∈Dm
Observación 13.1.15. En su trabajo, Stewart observó que si U ∈ Mm,n (C) es una matriz
cuyas columnas forman una base ortonormal del R(A) y mI denota el menor valor singular
no mulo de la submatriz UI , entonces:
MA−1 ≤ min mI : I ⊆n Im .
(13.12)
Más aún, Stewart conjeturó que valı́a la igualdad en (13.12), lo cual fue demostrado pos-
teriormente por O’Leary. Veamos como esta igualdad se deduce a partir de los resultados
anteriores. Comencemos notando que por el Teorema 13.1.12, el máximo en (13.11) puede
tomarse tanto sobre todas las proyecciones en posición P’ con S = R(A) = R(U ) como sobre
todas la proyecciones diagonales cuyo rango tiene dimensión n. Luego,
n o
MA = sup kPD, S k = max kPQI , S k : I ⊆n Im .
+
D∈Dn
328
13.2 Proyecciones escaleadas en dimensión infinita.
Sea H un espacio de Hilbert separable y S v H. A lo largo de de esta sección, estudiaremos
cantidades del tipo supD∈Γ kPD, S k, donde Γ denota algún subconjunto de L(H)+ .
Más precisamente, fijemos una base ortonormal B = {en }n∈N del espacio de Hilbert
H, y sea D el álgebra abeliana de todos los operadores diagonales con respecto a B, i.e.
C ∈ L(H) pertenece a D si existe una sucesión acotada de números complejos {cn }n∈N tal
que Cen = cn en (n ∈ N). Los subconjuntos Γ que consideraremos serán los siguientes:
1 1
PD, S = h · , Dxi x = x Dx ,
kD1/2 (x)k2 kD1/2 (x)k2
para todo D ∈ D+ . En efecto, una cuenta bastante simple muestra que el operador de
la derecha es idempotente, que proyecta sobre span {x} y que D (x Dx) = Dx Dx es
autoadjunto. Fijado n ≥ 1, sean Qn = en en y, para cada k ∈ N, Dk = Qn + k1 (I−Qn ) ∈ D+ .
1/2
Entonces Dk −−−→ Qn y también Dk −−−→ Qn . Por lo tanto,
k→∞ k→∞
n
1 2− 2 n
PDk , S −−−→ x Qn x = n x e n = 2 2 x e
n .
k→∞ kQn xk2 k2− 2 en k2
329
En esta sección mostraremos que la B-compatibilidad de un subespacio S es equivalente
a que supD∈Γ kPD, S k sea finito, donde Γ denota alguno de los subconjuntos de operadores
diagonales mencionados anteriormente. Comenzaremos demostrando que un subespacio S
es B-compatible si y sólo si el par (Q, S) es compatible para cada Q ∈ P(D) y además
En caso de que el par (Q, S) no sea compatible para alguna proyección Q ∈ P(D) definimos
K[S, D] = ∞. 4
330
Demostración. Sólo demostraremos que dado Q ∈ P(D), entonces el par (Q, S) es compati-
ble. En tal caso, el resto de la demostración seguirı́a las mismas lineas que la demostración
de la Proposición 13.1.12 y la Obs. 13.1.13.
Fijemos Q ∈ P(D) y definamos la sucesión {Dk }k∈N en D+ dados por Dk = Q + k1 I.
Entonces los proyectores PDk , S están bien definidos y, por hipótesis, sabemos que
Por lo tanto, la sucesión {PDk , S } posee un punto lı́mite P respecto a la topologı́a débil
de operadores (WOT), pues la bola unitaria de L(H) es WOT-compacta (Prop. 7.6.21).
Además, como el espacio H es separable, la topologı́a WOT es metrizable en la bola. Luego,
W.O.T.
podemos suponer que PDk , S −−−→ P . De no ser ası́, existe una subsucesión de {PDk , S }k∈N
n→∞
la cual converge, y utilizamos dicha subsucesión.
Demostraremos que P ∈ P(Q, S), es decir, P 2 = P , R(P ) = S y QP = P ∗ Q. Las primeras
dos condiciones surgen de hecho de que para todo k ∈ N,
1 Xk S 1 X S
PDk , S = , luego P = ,
0 0 S⊥ 0 0 S⊥
331
ε
Sea x ∈ H un vector unitario y sea ε > 0. Sea k ∈ N tal que c2k−1 ≤ . Por la Prop. 8.4.14,
2
se tiene que
ε
k
(PS Qn ) − PS ∧ Qn
≤ para todo n ∈ N .
2
S.O.T.
Por otro lado, como Qn PS −−−→ PS y la función f (t) = tk es SOT-continua en conjuntos
n→∞
acotados (ver, por ejemplo, 2.3.2 en [1]), existe n0 ∈ N tal que
h i
ε
k
(Qn PS ) − PS x
< para todo n ∈ N .
2
Luego, para todo n ≥ n0 , tenemos que
h i
k(PS − PS ∧ Qn ) xk ≤
PS − (PS Qn )k x
+
(PS Qn )k − PS ∧ Qn x
< ε .
S.O.T.
Como esto sucede para todo x ∈ H, se tiene que PS ∧ Qn −−−→ PS .
n→∞
El Lema anterior nos permitirá hacer un estudio local del subespacio S en ambientes de
dimensión finita, donde se pueden aplicar los resultados de la sección anterior.
Lema 13.2.6. Si S está incluido en algún Hn , entonces S es B-compatible. Más aún
En particular,
n o
sup kPD, S k ≤ sup kPQ, S k : Q ∈ P(D), Q ≤ Qn y R(Q) Y S = K [ S, D ] .
D∈D+
332
Demostración. Usando el Lema 13.2.6 se tiene que:
K [ Sn , D ] = sup kPQ, Sn k : Q ∈ P(D), Q ≤ Qn y R(Q) Y Sn .
Luego, basta probar la desigualdad kPQ, Sn k ≤ K[S, D] para cada Q ∈ P(D) tal que R(Q)YSn
y Q ≤ Qn . Para una tal Q, consideremos
Q
b = Q + (1 − Qn ) ∈ P(D). Entonces se tiene que
b = N (Q) ∩ Hn y, como N (Q) ∩ Hn ∩ S = N (Q) ∩ Sn = {0},
N (Q)
h i
b ,S .
= c N (Q)
Más aún, también se tiene que K[Sn , D] ≤ sup s [ R(Q) , S ]−1 . En efecto, la demostración
Q∈P0 (D)
del lema anterior muestra que, con la notación allı́ empleada, para acotar a K[Sn , D] basta
considerar las proyecciones E = 1 − Q
b ∈ P0 (D). 4
333
Fijemos ahora un D ∈ D+ . Recordemos que k · kD es la norma definida por kxkD = kD1/2 xk.
Como D ∈ Gl(H)+ , se tiene que k · kD es equivalente la norma usual. Por ende, S0 es densa
en S con respecto a ambas normas k · kD y k · k. Fijemos un vector unitario x ∈ H. Como
PD, S (resp. PD, Sn ) es la proyección D-ortogonal sobre el subespacio S (resp. Sn ), entonces
k ·kD k ·k
PD, Sn x −−−→ PD, S x =⇒ PD, Sn x −−−→ PD, S x ,
n→∞ n→∞
usando nuevamente que k · kD ∼ k · k. Por los Lemas 13.2.7 y 13.2.6, resulta que
Luego kPD, S xk = lim kPD, Sn xk ≤ K[S, D]. Moviendo los vectores unitarios x ∈ H,
n→∞
llegamos a que kPD, S k ≤ K[S, D]. Finalmente, como D es arbitario, la proposición queda
demostrada.
1. S es B-compatible.
2. C(S) = sup c [ S , R(Q) ] : Q ∈ P(D) < 1.
3. CF (S) = sup c [ S , R(Q) ] : Q ∈ P0 (D) < 1.
4. C0 (S) = sup c [ S , R(Q) ] : Q ∈ P0 (D) y R(Q) ∩ S = {0} < 1.
Luego, claramente K[S, D] < ∞ si y sólo si C(S ⊥ ) < 1. La igualdad C(S) = C(S ⊥ ) se
deduce de la Prop. 8.4.10 y del hecho de que la aplicación Q 7→ I − Q es biyectiva en P(D).
Para mostrar las otras igualdades, observemos primero que C0 (S) ≤ CF (S) ≤ C(S).
Veamos que CF (S) ≤ C0 (S) : Llamemos P = PS ⊥ . Sean I ∈ PF (N) y Q = QI ∈ P0 (D)
tales que P Q 6= 0 (si P Q = 0, entonces c [ S , R(Q) ] = 0 y no interesa). Si sucediera que
HI ∩ S =6 {0} (o sea que Q ∈/ P0,S (D) ), consideremos el conjunto {P ei : i ∈ I}, que genera
334
R(P Q), pero no queda LI (porque P H tiene núcleo no trivial). Extraigamos un J ⊆ I
I
tal que {P ei : i ∈ J} sea una base de R(P Q). Entonces HJ ∩ S = {0}. Tomemos ahora
E = QJ ∈ P0,S (D), que verifica que E ≤ Q y R(P Q) = R(P E). Observar que entonces
R(P EP ) = R(P QP ) y 0 ≤ P EP ≤ P QP . Usando el Cor. 8.4.6 y las Proposiciones 8.4.9 y
8.4.4, resulta que
∞
[
Por otro lado, dado que se cumplen sus hipótesis, el Lema 13.2.5 nos asegura que Sn es
n=1
densa en S. Luego, siguiendo la demostración de la Proposición 13.2.9 resulta que
−1/2
Finalmente, de la Proposición 13.2.4 y la identidad kPQ, S k = 1 − c [ N (Q) , S ]2 , se
obtiene que C(S) ≤ CF (S).
Corolario 13.3.2. Sean S v H y B una BON de H. Entonces
Por lo tanto, con las notaciones del Teo. 13.3.1, tenemos que
−1/2 −1/2
⊥ 2 ⊥ 2
sup kPQ, S k = 1 − C(S ) y sup kPQ, S k = 1 − C0 (S ) ,
Q∈P(D) Q∈P0,S ⊥ (D)
335
Proposición 13.3.3. Sean S v H y B una BON de H. Entonces las siguientes condiciones
son equivalentes:
1. S es B-compatible.
∞
[
2. a. Sn es denso en S.
n=1
Demostración.
1 ⇒ 2. Por la proposición anterior sup c [ S , R(Q) ] : Q ∈ P(D) < 1. Luego, esta impli-
cación es una consecuencia de los Lemas 13.2.5 y 13.2.7.
Corolario 13.3.4. Sea S v H tal que dim S < ∞. Entonces S es B-compatible si y sólo
si existe un n ∈ N tal que S ⊆ Hn .
Demostración. Observar que, si S ⊆ Hn , entonces S = Sn . Por otro lado, por la
Prop. 12.7.13, se tiene que K[Sm , D] = K[Sn , D] < ∞ para todo m ≥ n. La recı́proca
se deduce de que, como dim S < ∞, la condición 2. a. de la Prop. 13.3.3 sólo puede
cumplirse si existe un n ∈ N tal que S ⊆ Hn .
Observaciones: 13.3.5.
336
Parte III
Marcos
337
Capı́tulo 14
Frames
Introduciremos algunos hechos básicos sobre marcos (frames) en espacios de Hilbert. Para
una descripción completa de la teorı́a de frames y sus aplicaciones, sugerimos ver el review
de Heil y Walnut [27] o los libros de Young [35] y Christensen [15].
2. Decimos que F es un frame si existen numeros A, B > 0 tales que, para toda f ∈ H,
X
Akf k2 ≤ | hf, fn i |2 ≤ Bkf k2 . (14.2)
n∈N
La ecuación (14.1) significa que T ∗ ∈ L(H, `2 (N) ) (o sea que T ∗ es acotado, con kT ∗ k2 ≤ B).
Y la Ec. (14.2) dice que F es frame si y sólo si T ∗ es, además, acotado inferiormente. Observar
que esto último equivale a la suyectividad (y continuidad) del adjunto de T ∗ ,
X
T ∈ L(`2 (N) , H) dado por `2 (N) 3 c = (cn )n∈N 7−→ T (c) = cn f n .
n∈N
338
En efecto, observar que
hf, T en iH = hT ∗ f, en i`2 (N) = hf, fn i para todo f ∈H y n∈N.
Por ello T en = fn para todo n ∈ N. Esto justifica las siguientes definiciones: 4
Definición 14.1.3. Sea F = {fn }n∈N un frame en H. Sean K y H0 espacios de Hilbert
separables con H v H0 . Sea B = {ϕn : n ∈ N} una BON de K. Luego existe un único
T ∈ L(K, H0 ) tal que
T (ϕn ) = fn , n ∈ N .
Diremos que el triple (T, K, B) es un operador preframe (o de sı́ntesis) de F. De la Obs. 14.1.2
deducimos que R(T ) = H. En particular, si H0 = H, se tiene que T es suryectivo.
La notación con tripletes (T, K, B) omite nombrar el espacio H0 . Esto se debe a que el tal
espacio no es determinante para el frame F. Sin embargo, admitimos que el codominio de
T sea variable porque muchas veces, por razones técnicas, ambientaremos a H en espacios
de Hibert mayores, y ası́ las notaciones usadas serán coherentes. 4
Observación 14.1.4. Sea F = {fn }n∈N un frame en H con operador preframe (T, K, B).
1. Las cotas de frame de F pueden calcularse en términos de T :
AF = γ(T )2 y BF = kT k2 . (14.3)
339
4. A la sucesión de números { f, S −1 fn } se la llama coeficientes de frame de f para F.
Es decir que los coeficientes de frame de f para F dan la reconstrucción óptima para
cada f ∈ H.
2. Notar que, por la Obs. 14.1.4, e(F) no depende del operador preframe elegido. En
particular, n X o
2
e(F) = dim (cn )n∈N ∈ ` : cn f n = 0 ,
n∈N
que es la nulidad del operador preframe inducido por la base canonica de `2 (N).
340
Demostración. Poe ser T suryectivo, tenemos que T T † = I. Pero
kGT † − Ik = k(G − T )T † k ≤ kG − T k kT † k < 1 .
Esto muestra que GT † es invertible. Por lo tanto T † (GT † )−1 es una inversa a derecha de G,
o sea que es una de sus seudoinversas. Por la Prop. 8.3.6, kG† k ≤ kT † (GT † )−1 k y
γ(G) = kG† k−1 ≥ kT † (GT † )−1 k−1 ≥ γ(T ) k(GT † )−1 k−1
∞
!−1
X
≥ γ(T ) kG − T kn kT † kn
n=0
= γ(T ) 1 − kG − T k kT † k = γ(T ) − kT − Gk
como se aseguraba.
Fijemos de ahora en más un frame F = {fn }n∈N en H, con operador de preframe (T, H, B).
Como siempre, notaremos S = SF = T T ∗ al operador de frame de F, que cumple γ(S) = AF
y kSk = BF .
Proposición 14.2.2. Sea G = {gn }n∈N una sucesión de Bessel, con operador de preframe
(G, H, B). Si existe algún B ∈ Gl (H) tal que
R = kT ∗ S −1/2 − G∗ Bk < 1 , (14.6)
entonces G es un frame en H, con constantes
AG ≥ (1 − R)2 kBk−2 y BG ≤ (1 + R)2 kB −1 k2 . (14.7)
Demostración. Tenemos que ver que G es epimorfismo, y que las constantes propuestas
acotan a GG∗ . Observar que S −1/2 T es una isometrı́a parcial (la de la DP de T ). Luego
R = kT ∗ S −1/2 − G∗ Bk = kS −1/2 T − B ∗ Gk < 1 = γ(S −1/2 T ) .
Por el Lema 14.2.1, tenemos que B ∗ G es epimorfismo, por lo que también G lo es. Además,
el mismo Lema asegura que
γ(G) ≥ γ(B −1 )γ(B ∗ G) ≥ γ(B −1 ) γ(S −1/2 T ) − kS −1/2 T − B ∗ Gk = kBk−1 (1 − R) ,
Corolario 14.2.3. Sea G = {gn }n∈N sucesión de Bessel en H. Si existe R < 1 tal que
h f , S −1/2 (fn − gn ) i 2 ≤ R2 kf k2 , para toda f ∈ H ,
X
(14.8)
n∈N
341
Demostración. Observar que (14.8) es equivalente a que
n∈N
que G es frame. Para la acotación de sus cotas, basta observar que
AF (1 − R)2 ≤ AG y BG ≤ BF (1 + R)2 .
342
14.3 Proyecciones y frames
Los frames y las proyecciones se relacionan de varias maneras. Por ejemplo, si F es un
frame en H con operador preframe (T, K, B), como T es suryectivo, cada seudoinversa U
de T produce una proyección U T ∈ L(K). En esta sección estudiaremos el problema de
caracterizar a los frames que admitan algún operador preframe que sea una proyección
(ortogonal u oblı́cua). En toda esta sección usaremos que un subespacio S v H induce una
matrices de bloques de 2 × 2. Ası́, identificaremos un A ∈ L(H)
representaciónde L(H) vı́a
A11 A12 S
con la matriz . Por ejemplo, es fácil ver que Q ∈ L(H) is una projección
A21 A22 S ⊥
I X S
oblicua con R(Q) = S si y sólo si Q tiene la forma Q = , para algún
0 0 S⊥
X ∈ L(S ⊥ , S).
1. F es un frame de Parseval en H.
2. Existe un espacio de Hilbert K w H y una base de Riesz R = {xk }k∈N de K tal que
fn = PH xn , para todo n ∈ N.
Más aún, en tal caso se puede elegir la base de Riesz R de tal modo que
AR = AF y BR = BF . (14.11)
343
Demostración. Supongamos que F es un frame. Sea (T, H, B) un operador preframe de F.
Tomemos K = H ⊕ N (T ). Sea V : H = N (T )⊥ ⊕ N (T ) → H ⊕ N (T ) = K definido por:
γ(V ) = γ(T ) y kV k = kT k ,
El siguiente teorema completa, en algún sentido, los resultados de Casazza, Han y Larson
expuestos en [13, sección 3].
Teorema 14.3.3. Sea F = {fn }n∈N un marco para H, con cotas 1 ≤ AF ≤ BF . Denotemos
K = H ⊕ H. Entonces existe un sistema ortonormal B = {bn }n∈N en K y una proyección
oblicua Q ∈ L(K) con R(Q) = H ⊕ {0}, tales que
344
Demostración. Sea (T, H, E) un operador preframe de F, con E = {en }n∈N una BON del
mismo H donde vive F.
1. Por hipótesis, T T ∗ ≥ AF I ≥ I y podemos definir X = (T T ∗ − I)1/2 ∈ L(H)+ .
2. Sea T0 : H → K el operador definido por T0 x = T x ⊕ 0, x ∈ H. Entonces
TT∗ 0
T ∗
∗ ∗ H
T0 = y T0 = T 0 =⇒ T0 T0 ∼ ∈ L(K) .
0 0 0 H
IH X
3. Sea Q = ∈ L(K). Entonces, es claro que Q es una proyección oblicua tal
0 0
que R(Q) = H ⊕ 0. Más aún,
IH + XX ∗ 0
∗
QQ = = T0 T0∗ =⇒ |Q∗ | = |T0∗ | .
0 0
345
Si e(F) < ∞, se tiene el siguiente teorema:
Teorema 14.3.5. Sea F = {fn }n∈N un marco en H con cotas 1 ≤ AF ≤ BF . Supongamos
que e(F) < ∞. Entonces, las siguientes condiciones son equivalentes:
1. Existe un espacio de Hilbert K tal que H ⊆ K, una proyección Q ∈ L(K), y una base
ortonormal B = {bn }n de K tal que fn = Qbn para todo n ∈ N.
TT∗ 0
∗ H S 0 H
T0 T0 = = ∈ L(K) .
0 0 N (T ) 0 0 N (T )
IH X H
Es fácil ver que debe existir X ∈ L(N (T ), H) tal que Q = . Entonces
0 0 N (T )
IH + XX ∗ 0
S 0 ∗ ∗
= T0 T0 = QQ = .
0 0 0 0
Y Y ∗ = XU U ∗ X ∗ = XPN (X)⊥ X ∗ = XX ∗ .
Luego
I +YY∗ 0 I + XX ∗ 0
∗
QQ = = = T0 T0∗ .
0 0 0 0
El resto de la demostración sigue las mismas ideas que la primer parte de la demostración
del Teorema 14.3.3, pero tomando K = H ⊕ N (T ). Notemos que, en este caso, la isometrı́a
V definida en la ecuación (14.12) resulta un operador unitario de H sobre K. Por lo tanto,
si W es el operador unitario considerado en la primer parte de la demostración del Teorema
14.3.3, la sucesión bn = W ∗ V en , n ∈ N, resulta ser una base ortonormal de K.
346
14.4 Frames de Riesz y de Riesz condicionados
Como observa Christensen en [15] , p.P 65,
dado unframe F = {fn }n∈N , puede se dificil, en la
−1 −1
práctica, usar la decomposición
f = f,
S fn fn , porque se necesita aproximar S o,
−1
al menos, los coeficientes frame f, S fn . Para obtener algunas ventajas usando bases de
Riesz, Christensen introdujo en [16] el método de la projección, que aproxima S y S −1 con
operadores de rango finito, que actúan en ciertos espacios finitodimensionales Hn dentro de
H. Más tarde, Christensen [18] definió dos clases particulares de frames: frmaes de Riesz
y frmaes de Riesz condicionados, que se adaptan bien a los problemas mencionados.
Fijaremos algunas notaciones:
- Notaremos PF (N) = {I ∈ P(N) : |I| < ∞} a las partes finitas y PI (N) = P(N)\PF (N)
a las infinitas.
f, S −1 fn fn .
f=
Con el objeto de hacer uso de las ventajas que poseen las bases de Riesz en este aspecto,
Christensen habı́a introducido en [16] el denominado método proyectivo, el cual aproxima
los operadores S y S −1 por medio de operadores de rango finito, los cuales actúan en ciertos
espacios finitos dimensionales cuya unión es densa en H. Los marcos de Riesz se ajustaban
bién a este método. Más tarde (ver [16]), Christensen caracterizó exactamente que marcos
de adaptan bién al método antes mencionado. A estos marcos los denominó marcos de Riesz
condicionados, por su estrecha conexión con los de Riesz.
347
Definición 14.4.1. 1. Un frame F = {fn }n∈N se denomina frame de Riesz si existen
A, B > 0 tales que, para todo I ⊂ N, la sucesión FI es una sucesión frame con cotas
A y B (uniformes para todo I).
2. F se llama frame de Riesz condicionado si existe una sucesión {In }n∈N en PF (N) (o
sea que son finitos) tal que
(a) In ⊆ In+1 para todo n ∈ N,
[
(b) In = N
n∈N
(c) Existen A, B > 0 que funcionan como cotas para todas las sucesiones frame FIn .
El lector interesado en más detalles sobre marcos de Riesz y marcos de Riesz condicionados
puede ver los artı́culos citados a lo largo de esta sección, como ası́ también [8], [10] y [11]).
Observación 14.4.2. Sean F un frame en H con operador preframe (T, H, B) e I ⊆ N.
1. Se tiene que FI es sucesión frame si y sólo si R(T PI ) v H.
2. Por otra parte, FI es un subframe de F si y sólo si R(T PI ) = H.
3. En ambos casos las cotas frame para FI son
Demostración. Por la Prop. 8.4.12, para todo I ⊆ N tal que T PI 6= 0 se tiene que
γ(T ) s [ N (T ) , HI ] ≤ γ(T PI ) ≤ kT k s [ N (T ) , HI ] .
348
Proposición 14.4.4. Sean F un frame en H con operador preframe (T, H, B). Entonces F
es frame de Riesz condicionado si y sólo si existen una sucesión {In }n∈N en PF (N) y una
constante c < 1 tales que
[
In ⊆ In+1 , In = N y c [ N (T ) , HIn ] ≤ c , n ∈ N (14.15)
n∈N
2. Dada una sucesión {In }n∈N en PF (N), si existe c < 1 tal que se cumple la Ec. (14.15),
entonces por el Lema 13.2.5,
!
[
cl S ∩ H In = S . (14.17)
n∈N
Demostración. Como F es un frame de Riesz condicionado, existen una sucesión {In }n∈N en
PF (N)
S y una constante c < 1 que verifican la Ec. (14.15). Por la fórmula (14.17), sabemos
que n∈N S ∩ HIn es densa in S. SFinalmente, para S cada n ∈ N, existe m ∈ N tal que
In ⊆ Im = {1, 2, . . . , m}. Por ende, n∈N S ∩ HIn ⊆ m∈N S ∩ Hm .
Los resultados de la Obs. 14.4.5 se pueden “traducir” al idioma de frames para conseguir una
caracterización de los frame de Rieszs, similar a la obtenida por Christensen y Lindner en
[19]:
349
Teorema 14.4.7. Sea F un frame en H con operador preframe (T, H, B). Llamemos S =
N (T ). Entonces son equivalentes:
1. F es un frame de Riesz.
2. S es B-compatible.
3. Existe una cota inferior uniforme para toda sucesión frame finita y linealmente
independiente (LI) FJ , J ∈ PF (N).
4. Existe d > 0 tal que γ(T PJ ) ≥ d, para todo J ∈ PF (N) tal que S ∩ HJ = {0}.
Demostración. La equivalencia entre 1 y 2 se deduce de la Obs. 14.4.5 y la Prop. 14.4.4.
Si J ∈ PF (N), entonces HJ ∩ S = {0} si y sólo si FJ es LI. Esto muestra que 3 y 4 son
equivalentes. Por la Obs. 14.4.5 y la Prop. 8.4.12, ambas condiciones son también equivalentes
a la B-compatibilidad de S.
Ahora bien, que exista un d tal que 0 < d ≤ γ(T PI ) para todo I ∈ PF (N) tal que
HI ∩ S = {0}, equivale a decir que exista una constante c < 1 tal que c [ S , HI ] ≤ c para
esos conjuntos I. Por la Obs. 14.4.5, esto equivale a la condición 2.
Proposición 14.4.8. Sea F un frame de Riesz condicionado con e(F) < ∞. Entonces F es
un frame de Riesz. En particular, si (T, H, B) es un operador preframe para F, debe existir
un m ∈ N tal que N (T ) ⊆ Hm .
Demostración. Sea S = N (T ). Por la Prop. 14.4.6, S verifica la Ec. (14.18). Como dim S <
∞, existe m ∈ N tal que S ⊆ Hm . Por otra parte, en la terminologı́a de la Obs. 14.4.5, si
C(Sn ) = sup c [ Sn , HJ ], entonces C(Sn ) = C(Sm ) para todo n ≥ m. En resumen, por la
J⊆In
Obs. 14.4.5, se tiene que S es B-compatible, por lo que F debe ser un frame de Riesz.
Teorema 14.4.9. Sea F un frame de Riesz condicionado con operador preframe (T, H, B).
Para cada n ∈ N, denotemos
1. Sn al operador frame de Fn = {fk }k∈In ,
−1/2
2. Gn = {Sn fk }k∈In , y
3. An el mı́nimo de las cotas inferiores de sucesiones frame no nulas de Gn .
Si se tiene que inf An > 0, entonces F debe ser un frame de Riesz.
n∈N
350
14.4.2 Un contraejemplo:
Hemos visto que el núcleo S de una operador preframeS∞asociada a un frame de Riesz condi-
cionado F satisface la propiedad de “densidad”: c l ( n=1 Sn ) = S, para Sn is S ∩ Hn . En el
siguiente ejemplo veremos que tal desidad no es suficiente para que F sea un frame de Riesz
condicionado.
Para ello usaremos un método indirecto: Dado S v H con dim S ⊥ = ∞, sabemos que existen
frames F con un operador preframe (T, H, B) tal que S = N (T ). Luego construiremos un S
adecuado, en el sentido de la caracterización de frames de Riesz condicionados a través del
núcleo de su operador preframe, dada en Prop. 14.4.4.
Ejemplo 14.4.10. Dada una BON B = {en }n∈N de un espacio de Hilbert H y dado r > 1,
definamos el siguiente sistema ortogonal:
1 1 1 1
x1 = e1 − re2 + e3 + 2 e4 + 3 e5 + 4 e6
r r r r
1 1 1 1
x2 = e5 − re6 + 5 e7 + 6 e8 + 7 e9 + 8 e10
r r r r
..
.
1 1 1 1
xn = e4n−3 − re4n−2 + e4n−1 + e4n + e4n+1 + e4n+2 .
r4n−3 r4n−2 r4n−1 r4n
∞
!
[
Sea S = span {xn : n ∈ N}. Por su construcción, c l S ∩ Hn = S. Además,
n=1
Por los comentarios anteriores, existe un frame F con preframe operator (T, H, B), tal que
S = N (T ). Veremos que F NO es un frame de Riesz condicionado. Por la Prop. 14.4.4,
bastarı́a probar que, para toda sucesión J1 ⊆ J2 ⊆ J3 ⊆ . . . ⊆ Jn . . . % N en PF (N), se
cumple que c [ S , HJk ] −−−→ 1. Fijemos entonces {Jk }k∈N y tomemos un 0 < ε < 1.
k→∞
4
Como kxn k2 ≤ 1 + r2 + para todo n ∈ N, existe n0 ∈ N tal que
r8n−6
1 + r2
1−ε< ∀ n ≥ n0 .
kxn k2
351
xh ∈ (S ∩ HJk )⊥ para todo h > j. En particular, xj+1 ∈ S (S ∩ HJk ) = S HJk . Por otro
lado, existe un y ∈ (S ∩ HJk ) tal que PMj y 6= 0. Por lo tanto, las últimas cuatro entradas
asociadas a xj son no nulas en y, porque y ∈ span {x1 , . . . , xj }, hy, xj i =
6 0 y no esta presente
xj+1 para cambiarlas. Por ende, como y ∈ HJk , entonces esas cuatro coordenadas deben
pertenecer a Jk . Ahora bien, como las dos últimas entradas de xj son las dos primeras de
xj+1 , y deben pertenecer a Jk , tenemos que kPJk xj+1 k2 ≥ 1 + r2 . Luego, como j ≥ n0 ,
1 + r2 kPJk xj+1 k2
1−ε < ≤
kxj+1 k2 kxj+1 k2
xj+1 PJk xj+1 xj+1 PJk xj+1
= , ≤ , ≤ c [ S , HJk ] .
kxj+1 k kxj+1 k kxj+1 k kPJk xj+1 k
s[S , T ]
s [ A(S) , A(T ) ] ≥ >0.
kAkkA−1 k
Demostración. Observar que, dado x ∈ H, se tiene que kAxk ≥ kA−1 k−1 kxk, y si kAxk = 1
entonces kxk ≥ kAk−1 . Por lo tanto, como A(S) ∩ A(T ) = {0},
352
Proposición 14.4.12. Sea T ∈ L(H) tal que 0 6= R(T ) v H. Fijemos una BON fija
B = {en }n∈N de H. Supongamos que S = N (T ) cumple
s = inf{s [ S , HJ ] : J ⊆ N} > 0
(o sea que S es B-compatible). Entonces, dados I, J ⊆ N tales que T (HI ) ∩ T (HJ ) = {0},
se tiene que
γ(T ) s s
s [ T (HI ) , T (HJ ) ] ≥ = .
kT k kT kkT † k
Demostración. Notemos E = PS ⊥ , P = PI y Q = PJ . Supongamos primero que T ∗ T = E,
i.e., T es una isometrı́a parcial. En tal caso, como T |S ⊥ es isometrı́a, tenemos que
c [ T (HI ) , T (HJ ) ] = c [ T E(HI ) , T E(HJ ) ] = c [ E(HI ) , E(HJ ) ] .
La hipótesis T (HI ) ∩ T (HJ ) = {0} implica las siguientes cosas:
a) HI ∩ HJ = HI∩J ⊆ S, por lo que podemos suponer que I ∩ J = ∅, reemplazando J
por J0 = J \ (I ∩ J), ya que E(HJ ) = E(HJ0 ) .
b) En tal caso P ∨ Q = P + Q y además
R(P + Q) ∩ S = (R(P ) ∩ S) ⊥ (R(Q) ∩ S) , (14.20)
porque T (P + Q)x = 0 =⇒ T P x = T Q(−x) ∈ R(T P ) ∩ R(T Q) = {0} .
c) Si P 0 = P − PR(P )∩S = PR(P ) (R(P )∩S) y Q0 = Q − PR(Q)∩S , entonces se tiene que
EP = EP 0 , EQ = EQ0 y, por otra parte,
R(P 0 + Q0 ) = R(P ) (R(P ) ∩ S) ⊥ R(Q) (R(Q) ∩ S)
(14.21)
= R(P + Q) (R(P + Q) ∩ S) = R(P + Q) S .
353
donde la última desigualdad se deduce de la Prop. 8.4.12 aplicada a E y P 0 + Q0 .
El caso general se prueba tomando la DP a derecha T = |T ∗ |U = (T T ∗ )1/2 U . Entonces
U es isometrı́a parcial, y cae en el caso anterior. Luego se aplica la Prop. 14.4.11 para
A = |T ∗ | + PS > 0 con los subespacios U (HI ) y U (HJ ) , que ya sabemos que cumplen
s [ U (HI ) , U (HJ ) ] ≥ s. Notar que kAk = kT k y kA−1 k = kT † k.
Observación 14.4.13. Con las notaciones de la Prop. 14.4.12, si T (HI ) ∩ T (HJ ) 6= {0},
pero existe algún K ⊆ I tal que
T (HK ) ∩ T (HJ ) = {0} mientras que T (HK ) + T (HJ ) = T (HI ) + T (HJ ) = T (HI∪J )
Esto se deduce de una cuenta de ángulos (el primer ≥ de arriba) que se propone como
ejercicio (ver Ejer. 8.4.15).
Otro ejercicio serı́a verificar que la condición anterior (que exista un buen K) siempre se
cumple, si uno supone que F es frame de Riesz. La prueba es del estilo de la Prop. 14.5.16
de más adelante, donde se muestra que los frames de Riesz contienen bases de Riesz.
De ello se podrá deducir que la Prop. 14.4.12 vale para todo par I, J ⊆ N sin más hipótesis.
4
Proposición 14.4.14. Sea A ∈ L(H, K) tal que N (A) = {0}. Fijemos B = {en : n ∈ N}
una BON de H. Entonces A es acotada inferiormente (i.e., γ(A) > 0) si y sólo si se cumplen
las siguientes condiciones:
(1 + r)1/2
En tal caso vale que γ(A) ≥ .
D(1 − r)1/2
Demostración. La ida sale por la Proposición 14.4.11, tomando K = R(A) que es cerrado
(para que A quede inversible). Observar que siempre s [ HI , HJ ] = 1 y que D = γ(A) sirve.
(1 + r)1/2
Supongamos que se cumplen 1 y 2. Sea a = . Veremos que kAxk ≥ akxk
D(1 − r)1/2
para x ∈ H0 , donde H0 = span {B}, que es denso en H. Es fácil ver que eso es suficiente.
Observar que H0 es la unión de todos los HK para K ∈ PF (N). Para un K fijo, definamos
s(K) = {s ∈ HK : sn = ±1 , n ∈ K} .
354
Para s ∈ s(K), pongamos Is = {n ∈ K : sn = 1} y Js = K \ Is . Dado c ∈ HK , definamos
cs = (PIs − PJs )c, que resulta de cambiarle los signos a sus cordenadas de acuerdo a s.
1+r
Paso 1: Veremos que si b = , entonces
(1 − r)
Analogamente,
X
Por lo tanto, debe existir algún s ∈ s(K) tal que kcn · Aen k2 ≤ kAcs k2 .
n∈K
355
(1 + r)1/2
Paso 3: Veremos que a = es cota inferior de A: Dado c ∈ HK ,
D(1 − r)1/2
X X (1 + r)
kck2 = |cn |2 ≤ D−2 kcn Aen k2 ≤ D−2 kAcs k2 ≤ kAck2 ,
n∈K n∈K
D2 (1 − r)
X
para algún s ∈ S(K) tal que kcn · Aen k2 ≤ kAcs k2 , que existe por el Paso 2.
n∈K
2 → 3 Es evidente.
3 → 1 Usando la condición 4 del Teo. 14.4.7, basta probar que existe a > 0 tal que γ(T PK ) ≥
a, para todo K ⊆ PF (N) tal que S ∩ HK = {0}. Es decir, tenemos que ver que
K ∈ PF (N) y ker T PK = {0} implica que γ(T PK ) ≥ a. Pero podemos aplicar la
Prop. 14.4.14 a los operadores inyectivos T PK y deducir de la hipótesis que
(1 + c)1/2
γ(T PK ) ≥ para todo tal K⊆N.
d(1 − c)1/2
Por el Teo. 14.4.7, las cotas γ(T PK ) para estos K son suficientes para acotar cualquier otro
subconjunto de N.
356
Observación 14.4.16. La equivalencia entre 1 ↔ 3 fué demostrada por Christensen y
Lindner en [19]. Se deduce de un resultado muy semejante a la Prop. 14.4.14, que fué probado
por Bittner-Lindner en [6], y de la condición 4 del Teo. 14.4.7 (ver también el theorem 2.1
en [19]).
14.5 Yo me borro
La propiedad más importante de un frame F = {fn }n∈N es que le “sobra” para generar a
los elementos de H. En esa redundancia radica su utilidad, porque le brinda robustez a las
transmisiones de datos f ∈ H usando sus cordenadas (hf, fn i)n∈N .
Por lo tanto, dado un frame F = {fn }n∈N , es natural preguntarse qué tanto le sobra. En
otra palabras, cuántos vectores puedo sacarle sin que deje de ser un frame. Este problema
es importante en teorı́a de la información y en signal processing. Sobre estos temas, sug-
erimos al lector los trabajos recientes de Goyal-Vetterli-Thao [24], Goyal-Kovacevic-Kelner
[23], Casazza-Kovacevic [14], Balan-Casazza-Heil-Landau [3], Benedetto-Fickus [4], Holmes-
Paulsen [28], y Strohmer-Heath [34].
que es la nulidad del operador preframe inducido por la base canonica de `2 (N).
Definición 14.5.1. Dado I ⊆ N notaremos I c = N \ I. Dado un frame F = {fn }n∈N ,
diremos que I puede borrarse de F si FI c = {fk }k∈I c es un subframe de F, i.e. FI c sigue
siendo un frame (para todo H). Denotaremos
El frame F se dice exacto (o sucesión excta) si E(F) = 0, i.e. si span {F \ {fn } } 6= H para
todo n ∈ N . 4
Observación 14.5.2. Sea F un frame en H con operador preframe (T, H, B). Dado I ⊆ N,
tenemos que I se puede borrar de F si y sólo si , R(T PI c ) = H. En tal caso, (T PI c , HI c , BI c )
es un operador preframe para FI c . 4
El siguiente resultado fué probado por Holub [29] y por Balan, Casazza, Heil, Landau [3]:
Proposición 14.5.3. Sea F un frame en H con operador preframe (T, H, B). Entonces
357
2. e(F) < ∞ si y sólo si E(F) < ∞. En tal caso, E(F) = e(F).
3. Si I ∈ PF (N) con |I| = e(F) < ∞ puede borrarse de F, entonces FI c es una base de
a Riesz de H.
En resumen, siempre vale que E(F) = e(F). Y si e(F) es finito, entonces F contiene al
menos una base de Riesz de H.
Demostración. Observar que T ∗ ∈ L(H) es inyectivo con rango cerrado.
1. Supongamos que E(F) = 0. Fijemos n ∈ N y llamamos Pn a la proyección sobre {en }⊥ .
Se tiene que
R(T Pn ) 6= H pero R(T Pn ) v H ,
porque c N (T ) , {en }⊥ = c N (T )⊥ , span {en } < 1. Luego existe xn 6= 0 tal que
porque T ∗ es mono. Como esto pasa para todo n ∈ N, deducimos B ⊆ R(T ∗ ) o sea que T ∗
es epi. Pero entonces N (T ) = R(T ∗ )⊥ = {0} y e(F) = 0. La recı́proca es clara, porque una
base es una base.
2. Si E(F) = m < ∞, borrando algún I con |I| = m, conseguinos una base de Riezs H
(porque no se puede sacar nada más, y aplicamos 1.). Luego N (T ) ∩ HI c = {0}, por lo que
e(F) = dim N (T ) ≤ dim HI c ⊥ = m.
Para ver la recı́proca, usaremos las propiedades del ı́ndice de Fredholm. De hecho, si
e(F) = m < ∞, se tiene que T es de Fredholm con Ind T = dim N (T ) = m. El caso m = 0
ya lo vimos (es P (0) de la inducción). Si m > 0, también E(F) > 0 (por 1.). Sea n ∈ N tal
que a {fn } se lo puede borrar de F. Notemos Fn = F \ {fn }. Sabemos que
Por alguna hipótesis inductiva (e(F) = n =⇒ E(F) = n para n < m), deducimos que
E(Fn ) = m − 1 < ∞. Pero como esto pasa para todo n ∈ N que pueda ser borrado de F,
tiene que valer que E(F) = m.
3. Se deduce de lo visto hasta ahora.
Observación 14.5.4. Sea F = {fn }n∈N un frame en H. Podemos deducir de la Prop. 14.5.3
que, si e(F) = m < ∞, existe I ⊆ N con |I| = e(F) tal que FI c es base de Riesz de H. Esto
fué probado por Holub en [29].
358
Pero si e(F) = ∞, la Prop. 14.5.3 nos asegura que se pueden borrar de F conjuntos
J ⊆ N de cualquier tamaño, siempre que sean finitos (ya que E(F) es un supremo, no
necesariamente un máximo). Cae naturalmente la siguiente pregunta: Cuáles son los frames
a los que sı́ se les puede borrar un conjunto infinito I ⊆ N de ı́ndices?
Esta clase de frames fué caracterizada por Balan, Casazza, Heil y Landau [3]. Presentare-
mos una versión de esa caracterización en términos de núcles de operadores preframe. Antes
de hacerlo, necesitamos un Lemma técnico (ver theorem 5.2 en [3]).
Recordar que, si B = {ek }k∈N una BON de H e I ⊆ N, notamos BI = {ek : k ∈ I},
HI = span {BI } y PI = PHI . 4
Lema 14.5.5. Sean A ∈ L(H)+ y B = {ek }k∈N una BON de H. Si existe a > 0 tal que
hAek , ek i ≥ a para todo k ∈ N, entonces para cada 0 < ε < a, existe I ∈ PI (N) (o sea que I
es infinito) tal que
Esto puede hacerse porque, para todo i ∈ N, la sucesión (cij )j∈I ∈ `2 (I), y a fortiori cij −→ 0.
j→∞
Notar que C es la matriz de PI API ∈ L(HI )+ en términos de la BON BI de HI . Además
cii ≥ a > ε, para todo i ∈ I. Es conocido que un operador no negativo con una tal matriz
debe ser estrictamente positivo. Más aún, por el teorema de los discos de Gersgorin y un
argumento standard de lı́mites (SOT), podemos probar que σL(HI ) (PI API ) ⊆ [a − ε, +∞)
(ver, por ejemplo, el libro de Bhatia [5] VIII.6.3).
Teorema 14.5.6. Sea F un frame en H con operador preframe (T, H, B). Notemos S =
N (T ) y B = {en }n∈N . Supongamos que e(F) = ∞. Entonces existe un J ∈ PI (N) que
puede borrarse de F si y sólo si
PS en −−−→ 0 .
n→∞
0 = hx, yi = hT ∗ T x, yi = hT x, T yi .
359
Por lo tanto T (HJ ∩ S ⊥ ) ⊆ T (HJ c )⊥ = {0}. Y como T S ⊥ es inyectivo, podemos deducir
que HJ ∩ S ⊥ = {0}. Por otro lado, como R(T PJ c ) = H (en particular es cerrado), las
Proposiciones 8.4.12 y 8.2.5 dan que, para todo n ∈ J,
0 < γ(T PJ c ) = s [ S , HJ c ] = s S ⊥ , HJ = d((HJ )1 , S ⊥ ) ≤ d(en , S ⊥ ) = kPS en k ,
por lo que PS en −−−→ 0. Recı́procamente, si existen I ∈ PI (N) y cI > 0 tales que
n→∞
360
Observación 14.5.9. Con las notaciones del Cor. 14.5.7, los números kPS en k tienen una
fuerte relación con las cotas AFn de las sucesiones Fn = F \{fn }. En efecto, por la Prop. 8.2.5,
para cada n ∈ N tal que PS en 6= 0 (o sea kfn k = 6 1),
Recordar que AFn = γ(T Pn )2 . La condición 4 del Cor. 14.5.7, escrita en términos de las AFn ,
es la caracterización dada por Balan, Casazza, Heil y Landau en [3]. En el Ejem. 14.5.15
de más abajo, veremos un frame F de H con e(F) = ∞ que no verifica las condiciones del
Cor. 14.5.7. 4
a. T (HJ ) = H.
b. N (T ) ∩ HJ = {0}.
3. Veremos más adelante (en la Prop. 14.5.16) que todo frame de Riesz contiene bases de
Riesz. Esto fué probado por Christensen en [18]. En particular, un frame de Riesz con
e(F) = ∞ será entonces Rieszible. También los frames con la “subframe property”
(i.e., frames F tales que FI es a sucesión frame para todo I ⊆ N, ver Casazza and
Christensen [10] [12]) son Rieszibles, pero los frame de Riesz condicionados en general
no son Rieszibles, (ver Ejemplo 14.4.10). Por otro lado, por la Prop. 14.5.3, los frames
con exceso finito contienen bases de Riesz , pero no son Rieszibles, porque el conjunto
que se debe borrar es finito.
Proposición 14.5.11. Sea F = {fn }n∈N un frame en H y sea B una BON de H. Entonces
F is Rieszible si y sólo si existe un operador preframe (M, H ⊕ H, B 0 ) para F tal que
361
1. B 0 = B ⊕ {0} {0} ⊕ B.
S
V1 : H → HJ y V2 : H → H J c ,
a los operadores unitarios definido por las biyecciones naturales entre B y BJ (resp. entre B
y BJ c ). Tomando N = T ◦ V1 y U = T ◦ V2 , podemos definir
y
kPS (0 ⊕ en )k2 ≤ 1 − (1 + kU −1 T k2 )−2 para todo n∈N. (14.23)
Demostración. Notar que
S = Gr(−U −1 T ) = {x ⊕ −U −1 T x : x ∈ H} .
S ⊥ = {T ∗ V ∗ y ⊕ y : y ∈ H} .
362
Fijemos N ∈ N. Sea en ⊕ 0 ∈ B y tomemos en ⊕ 0 = (x ⊕ −V T x) + (T ∗ V ∗ y ⊕ y), su
descomposición relativa a S ⊕ S ⊥ . Luego y = V T x, y en = x + T ∗ V ∗ V T x = (I + T ∗ V ∗ V T )x.
Por lo tanto
por lo que
PS (0 ⊕ en ) = −T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en ⊕ V T T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en y
PS ⊥ (0 ⊕ en ) = T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en ⊕ (I + V T T ∗ V ∗ )−1 en .
Como antes, obtenemos que kPS ⊥ (0 ⊕ en )k ≥ (1 + kU −1 T k2 )−1 .
Corolario 14.5.14. Sea F un frame en H con operador preframe (T, H, B). Notemos
S = N (T ) y B = {en }n∈N . Supongamos que J ⊆ PI (N) cumple que FJ c es base de Riesz.
Entonces debe exisitir una constante c ∈ (0, 1) tal que
Sea S = span {C}. Es claro que dim S = ∞ y que también dim S ⊥ = ∞. Notemos que, si
2n−1 ≤ k ≤ 2n − 1, entonces
∞
1−n
X
PS ek = hek , cj icj = hek , cn icn = 2 2 cn .
j=1
Por lo tanto PS ek −−−→ 0 y kPS ⊥ ek k = k(I −PS ) ek k −−−→ 1. Sean T1 , T2 ∈ L(H) suyectivos
k→∞ k→∞
tales que N (T1 ) = S y N (T2 ) = S ⊥ . Consideremos los frames
1. Por el Teo. 14.5.6, F da un ejemplo de frame con e(F) = ∞ para el que no existe
I ∈ PI (N) tal que FI c sea subframe de F. En particular, F no es Rieszible, aunque
existe ε > 0 tal que kfn k ≥ ε para todo n ∈ N, porque
363
2. G da un ejemplo de frame para el que sı́ existe I ∈ PI (N) tal que GI c es frame (nueva-
mente por el Teo. 14.5.6), pero G no es Rieszible. En efecto, como kPS ⊥ ek k −−−→ 1,
k→∞
no se puede cumplir lo dicho por el Cor. 14.5.14.
Se suguiere ver los ejemplos de los siguientes trabajos: Balan, Casazza, Heil, Landau [3] y
Casazza, Christensen [11]. 4
Proposición 14.5.16. Todo frame de Riesz contiene una base de Riesz.
Demostración. Sea F = {fn }n∈N un marco de Riesz. El caso en que e(F) < ∞ es fácil, asi
que podemos suponer que e(F) = ∞. Sea
C = J ⊆ N : FJ c es subframe de F ,
Sea (T, H, B) un operador preframe para F y sea a > 0 tal que γ(T PI ) ≥ a para todo I ⊆ N.
Notemos Iα = N \ Jα , α ∈ Λ, e I = N \ J. Como Jα ∈ C, o sea que FIα es subframe de F,
tenemos que T PIα T ∗ ∈ Gl(H)+ , para todo α ∈ Λ. Por lo tanto a2 IH ≤ T PIα T ∗ para todo
SOT SOT
α ∈ Λ. Por la definición de J, se tiene que PJα −−→ PJ . Entonces PIα −−→ PI y
SOT
a2 IH ≤ T PIα T ∗ −−→ T PI T ∗ .
14.6 Truncaciones
Observación 14.6.1. Sea F = {fn }n∈N un frame en H, con un operador preframe (T, H, B).
Notemos S = T T ∗ . Llamaremos operadores de frame truncados a
N
X
SN (f ) = hf, fn ifn = T PN T ∗ , N ∈N,
n=1
364
† † † SOT
3. Existe SN , y además SN SN = SN SN = PR(SN ) −−−→ I.
N →∞
lo que da una forma finita de aproximar la fórmula de inversión para F. Sin embargo
†
no es cierto en general que los coeficientes h f , SN fn i aproximen a los coeficientes de
−1
frame h f , S fn i. Para esto es necesario que F sea de Riesz: 4
Proposición 14.6.2. Sea F = {fn }n∈N un frame de Riesz en H, con un operador preframe
(T, H, B). Notemos S = T T ∗ . Entonces los operadores de frame truncados
N
X
SN (f ) = hf, fn ifn = T PN T ∗ , N ∈N
n=1
2. Para cada f ∈ H, se puede aproximar uniformemente (para n ∈ N) a los coeficientes
†
frame hf, S −1 fn i n∈N de f con los coeficientes truncados hf, SN fn i n∈N . Es decir que
† −1
hf, S f i − hf, S f i −−−→ 0 .
N n n∈N n n∈N
∞ N →∞
†
SN SN = PN (SN )⊥ = PR(SN ) y R(SN ) = span {fn : n ≤ N } , N ∈ N,
365
podemos concluir que
† † † SOT
SN S = SN SN + SN RN −−−→ I + 0 = I .
N →∞
† SOT † SOT
Es claro que esto implica que SN −−−→ S −1 y que S SN −−−→ I (lo que prueba el item 3).
N →∞ N →∞
Si fijamos f ∈ H, y observamos que kfn k = kT en k ≤ kT k, n ∈ N, deducimos que
† † †
|hf, S −1 fn i − hf, SN fn i| = |hS −1 f − SN f, fn i| ≤ kS −1 f − SN f k kT k −−−→ 0
N →∞
Por otro lado, dado ω ∈ R, el operador de modulación Eω : L2 (R) → L2 (R) se define como
366
Es un hecho bién conocido que estos operadores resultan unitarios, y si bien no conmutan
guardan la siguiente relación:
Eω Ty = e−2πiωy Ty Eω (14.25)
En términos de estos operadores, Ψg (f )(y, ω) = hf, Eω Ty gi.
Al igual que para la transformada de Fourier, existe una fórmula de inversión. Dadas
funciones g1 , g2 ∈ L2 (R) tales que hg1 , g2 i =
6 0, entonces, para toda f ∈ L2 (R)
Z ∞Z ∞
1
f= hf, Eω Ty g1 i Eω Ty g2 dωdy,
hg1 , g2 i −∞ −∞
donde la integral debe interpretarse en cierto sentido débil que no precisaremos. En esta
instancia, uno podrı́a preguntarse si es necesario tener como información Ψg (f )(y, ω) para
todo (y, ω) ∈ R2 , o si basta conocer los valores que esta toma en, por ejemplo, cierto
reticulado de la forma aZ × bZ con a, b ∈ R+ no nulos. De esta pregunta surge la definición
de los marcos de Gabor.
Definición 14.7.2. Un marco de Gabor (regular) para L2 (R) es un marco de la forma
367
x ∈ G. Esto es un preframe para la sucesión de Bessel {Ux g : x ∈ G}. Entonces si
S = M M ∗ ∈ L(L2 (R))+ , se tiene que
En efecto, observar que, si para cada x ∈ G definimos Lx ∈ U(`2 (G)), dado por Lx ey = exy ,
y ∈ G, entonces
Demostración. Notemos k = 2πiab. Recordemos que Emb Tna = e−kmn Tna Emb . Fijemos una
bon B = {en,m : n, m ∈ Z} de un Hilbert H y definamos M em,n = Emb Tna g, obteniendo un
operador preframe para G(g, a, b), por lo que S = M M ∗ . Entonces, para todo par r, s ∈ Z,
se tiene que
(Erb Tsa )M em,n = (Erb Tsa )(Emb Tna )g = ek ms E(r+m)b T(s+n)a g = M (ek ms er+m,s+n ) .
Si Rr,s ∈ U(H) esta dado por Rr,s em,n = ek ms er+m,s+n , entonces (Erb Tsa )M = M Rr,s . Es
∗
fácil ver que Rr,s = ek sr R−r,−s (porque esto manda er+m,s+n en e−k ms em,n ). Por lo tanto
Es claro que entonces (Erb Tsa )S = M Rr,s M ∗ = S(Erb Tsa ). Las otras identidades se deducen
de inmediato, usando que S 1/2 es lı́mite de polinomios en S.
368
Ejercicio 14.7.6. Sea F = {fn }n∈N un frame con constantes A y B. Entonces se tiene que
1. kfn k2 ≤ B para todo n ∈ N.
2. Si kfn k2 = B, entonces fn ⊥ fm para todo m 6= n.
El curro es aplicar la desigualdad que define la framidad de F para f = fn y acotar. 4
Teorema 14.7.7. Dados 0 6= g ∈ L2 (R) y a, b > 0, se tiene que
1. Si G(g, a, b) es un frame, entonces ab ≤ 1.
2. Si G(g, a, b) es un frame y ab = 1, entonces G(g, a, b) es una base de Riesz.
Demostración. Usando el Teorema 14.7.5, podemos suponer que G(g, a, b) es un frame de
Parseval, porque si G(g, a, b) es frame, entonces S −1/2 G(g, a, b) = G(S −1/2 g, a, b) es un frame
de Gabor con los mismos a y b, pero es de Parseval. En este caso, el Teorema se deducirı́a
inmediatamente del siguiente hecho:
kgk2 = kEmb Tna gk2 = ab ,
porque las constantes de G(g, a, b) son uno y, por el Ejercicio 14.7.6, sabemos que 1 mayora
a los cuadrados de las normas de sus elementos (esto dirı́a que ab ≤ 1) y porque los que las
alcanzan son ortogonales a los demás, por lo que en el caso ab = 1 resultarı́a que G(g, a, b)
queda bon, después de Parsevalizarla. Para probar la fórmula, usaremos los ı́tems 2 y 3 de
la siguiente Proposición, que es sumamente interesante por sı́ misma:
Proposición 14.7.8. Sean g ∈ L2 (R) y a, b > 0. Definamos
X
G : R → R+ ∪ {+∞} por G(x) = |g(x − na)|2 . (14.26)
n∈Z
369
1. ∆ ⊆ I, con I un intervalo de |I| = b−1 .
XX
= |hf Tna g, Emb i|2
n∈Z m∈Z
1X
= kf Tna gk2
b n∈Z
Z
1X
= |g(x − na)|2 dx
b n∈Z ∆
Z X Z
1 2 1
= |g(x − na)| dx = G(x)dx
b ∆ n∈Z b ∆
1 ε
≤ (bA − ε)|∆| = (A − )kf k2 ,
b b
lo que contradice que A sea cota inferior para G(g, a, b). El otro caso se hace igual, dado que
en la ecuación anterior todos los pasos son con “igualdad” salvo el que usa la hipótesis.
370
Capı́tulo 15
Marcos de fusión
15.1 Introducción
La teorı́a de marcos de fusión (o de subespacios) es relativamente reciente. P. Casazza y G.
Kutyniok, en [56], los definieron como marcos de subespacios, estudiando posibles construc-
ciones de marcos “pegando” muchas sucesiones marco en un espacio de Hilbert H. Para
que esto pueda hacerse este marco uniendo los submarcos, los subespacios que éstos generan
deben satisfacer (concretamente las proyecciones ortogonales a ellos) una desigualdad similar
a la de los marcos de vectores. De ahı́ el nombre de marcos de subespacios. Enfoques simi-
lares aparecen en los trabajos de M. Fornasier, [66, 67], el trabajo de A. Aldroubi, C.Cabrelli
y U.Molter, [37] y el paper de G. Sun [84].
Los marcos de subespacios, son el modelo adecuado para representar los denominados
procesos distribuidos en los que una señal se estudia en partes, utilizando marcos, para
finalmente reconstruir la señal completa uniendo adecuadamente esas piezas. El ejemplo
que Casazza y Kutyniok usan para graficar una situación de esta ı́ndole es el de una red de
sensores, por ejemplo tomando datos climáticos, distribuı́da a lo largo de un terreno extenso.
Por cuestiones prácticas, por ejemplo para que la transmisión de datos tenga cierta robustez,
los sensores presentan cierto nivel de redundancia, por lo que los podemos considerar como
elementos de un marco. Los sensores se agrupan en subredes redundantes, por ejemplo, para
prevenirse de que fallas en algún sensor o grupo de sensores afecte la información completa
que provee la red completa. Por lo tanto, cada una de esas subredes es un submarco, y
los subespacios generados forman un marco de subespacios. De forma similar, se puede
simular el proceso neuronal tratando a grupos de neuronas como submarcos integrando una
red neuronal mas grande.
Los marcos de subespacios, renombrados marcos de fusión a partir del trabajo de P.
Casazza, G. Kutyniok y S. Li [58]), comenzaron a estudiarse intensivamente en los últimos
años. Se han estudiado técnicas de reconstrucción utilizando marcos de fusión en procesos
distribuidos, comparando reconstrucciones locales y globales. Asimismo, propiedades de
robustez en marcos de fusión para erasures, tanto de subespacios como a nivel local, de
vectores en alguno de los submarcos que integran el marco global (ver P. Casazza y G.
Kutyniok [57]). Recientemente han aparecido además los trabajos de Bodmann, Kribs y
371
Paulsen ([48]) y Bodmann ([47]) en donde se estudian marcos de fusión Parseval (bajo el
nombre de resolución proyectiva pesada de la identidad ) para la transmisión de estados
cuánticos.
para incluir tanto el caso de sucesiones finitas, como numerables. Recordemos que por `∞ + (I)
nos referimos al espacio de sucesiones acotadas de números (estrictamente) positivos que
serán considerados pesos de aquı́ en adelante. El elemento 1 ∈ `∞+ (I) es la sucesión formada
por unos. Sea H un espacio de Hilbert separable de dimensión infinita. Las siguientes
definiciones se basan el el trabajo [56] de Casazza y Kutyniok.
Definición 15.2.1. Sea W = {Wi }i∈I una sucesión de subespacios cerrados de H, todos
ellos distintos de {0}, y sea w = {wi }i∈I ∈ `∞
+ (I).
372
Observación 15.2.2. Los marcos de subespacios pueden interpretarse como una general-
ización de los marcos usuales de vectores. Concretamente, dado un marco F = {fi }i∈I para
H, éste puede pensarse como un marco de subespacios Ww si consideramos los subespacios
de dimensión uno Wi = span {fi } y los pesos wi = kfi k. 4
El siguiente resultado determina una relación entre marcos de subespacios y marcos de
vectores. Desde un punto de vista dice que, bajo determinadas condiciones, uno puede
“unir” sucesiones marco y obtener un marco para el espacio de Hilbert completo. Por otro
lado, permite testear si una sucesión Ww = (wi , Wi )i∈I es o no un MF (y obtener información
sobre sus cotas), en función a familias de vectores elegidos convenientemente dentro de cada
subespacio Wi .
Teorema 15.2.3. Sea W = {Wi }i∈I una sucesión de subespacios cerrados de H y sea
w ∈ `∞
+ (I). Para cada i ∈ I, sea Gi = {fij }j∈Ji un marco para Wi . Supongamos que
Sea Ei = {eik }k∈Ki una base ortonormal para cada Wi . Entonces son equivalentes:
1. F = {wi fij }i∈I,j∈Ji = {wi Gi }i∈I es un marco para H.
Por otra parte, como Wi = span {fij : j ∈ Ji } para cada i ∈ I, tenemos que
X X X X
|h PWi f, wi fij i|2 = |h f, wi fij i|2 .
i∈I j∈Ji i∈I j∈Ji
373
BF
Análogamente se ve que BWw ≤ < ∞. Recı́procamente, si Ww es un MF entonces,
A
aplicando nuevamente la Ec. (15.5), podemos deducir que F es un marco y que sus cotas
cumplen las desigualdades
A AWw ≤ AF ≤ BF ≤ B BWw .
La equivalencia entre 2 y 3, y las igualdades AWw = AE y BWw = BE se muestran ree-
scribiendo la Ec. (15.5) para E, donde se tendrá que A = Ai = 1 = Bi = B. Se obtienen
desigualdades semejantes a las de la Ec. (15.4), pero al ser A = B = 1, quedan igualdades.
∗
• Su adjunto, TW w
∈ L(H, KW ) es el operador de análisis de Ww . Es fácil ver que
∗
TW w
(f ) = {wi PWi f }i∈I , para todo f ∈ H .
∗
• El operador de marco: SWw = TWw TW w
∈ L(H)+ , que satisface
X
SWw f = wi2 PWi f , para todo f ∈ H .
i∈I
Esto se P
muestra directamente por la definición de ambos operadores, y el hecho de que
wi gi = hgi , eij i wi eij , para todo gi ∈ Wi y todo i ∈ I. Observar que ası́ se obtiene otra
j∈Ji
prueba de la equivalencia entre los ı́tems 2 y 3 de aquel teorema. 4
374
Observación 15.3.3. Sea W = {Wi }i∈I una sucesión de subespacios cerrados de H, y sea
w = {wi }i∈I ∈ `∞
+ (I). Los siguientes resultados se siguen directamente de las definiciones,
en forma semejante a como se hace en la Obs. 14.1.2 para el caso vectorial (ver [56]):
1. Ww = (wi , Wi )i∈I es una SBS si y sólo si el operador de sı́ntesis TWw está bien definido
y es acotado. En este caso,
2. Ww es un MF para H (resp. para S v H) si y sólo si TWw es suryectivo (resp
R(TWw ) = S) .
∗
3. Esto es equivalente además con que TW w
es acotado inferiormente.
Si Ww es un MF para H, entonces
4. AWw = γ(TWw )2 y BWw = kTWw k2 . Por lo tanto AWw · I ≤ SWw ≤ BWw · I.
5. Ww es una BRS si y sólo si TWw es invertible (i.e. inyectivo) y Ww es una base
∗
ortonormal de subespacios si y sólo si w = e y TW T
w Ww
= IKW .
∗
6. Ww es ajustado si y sólo si TWw TW w
= AWw · IH , y Ww es de Parseval si y sólo si TWw
es una coisometrı́a. 4
En resumen,
M dada Ww = (wi , Wi )i∈I , una SBS en H, se le asocia el espacio de Hilbert
KW = Wi , dotado de una BONS natural (las copias Ei de cada Wi en KW ), y el operador
i∈I P
de sı́ntesis TWw : KW → H, definido por TWw (g) = wi gi para g = (gi )i∈I ∈ KW , cuyas
i∈I
propiedades caracterizan a Ww . Esta construcción busca reemplazar la relación entre frames
de vectores y sus llamados operadores preframe (el par dado por un epimorfismo sobre H y
una base ortonormal de su dominio). Sin embargo, dicha construcción es demasiado rı́gida,
en el sentido de que cambiando muy poco una SBS, no puede saberse como se modifica o
como obtener su operador de sı́ntesis. Notar, por ejemplo, que la acción de TWw en cada
subespacio Ei es la de una homotesia. En efecto, si gi ∈ Ei , se tiene que TWw gi = wi gi .
En el siguiente resultado se mostrarán condiciones más flexibles para un espacio de Hilbert
K, dotado de una BONS E = {Ei }i∈I , y un epimorfismo T ∈ L(K, H), para que podamos
conocer las propiedades de la sucesión de subespacios W = {T (Ei )}i∈I . Esto dará una
herramienta para poder encontrar más eficientemente las propiedades de las sucesiones, apli-
cando técnicas de operadores.
Teorema 15.3.4. Sea E = {Ei }i∈I una BONS de un espacio de Hilbert K y sea T ∈ L(K, H)
un epimorfismo. Supongamos que
γ(T PEi )2
min < ∞. (15.6)
i∈I kT PEi k2
Sean 0 < A ≤ B < ∞ tales que, para todo i ∈ I,
A γ(T PEi )2 kT PEi k2 γ(T PEi )2
≤ o, equivalentemente, ≤ . (15.7)
B kT PEi k2 B A
375
Para cada i ∈ I, llamemos Wi = T (Ei ) v H. Sea w = {wi }i∈I ∈ `∞
+ (I) tal que
γ(T )2 γ(T )2 kT k2 kT k2
≤ AWw ≤ y ≤ BWw ≤ . (15.9)
B A B A
1. Dado que γ(T PEi ) > 0, entonces Wi = T Ei es cerrado para todo i ∈ I. Sea {bij }j∈Ji
una base ortonormal para cada Ei . Por la Ec. (14.3) de la Obs. 14.1.4, y las Ecs.
(15.7) y (15.8), las sucesiones Gi = {wi−1 T bij }j∈Ji son marcos para cada Wi con
Por otro lado, dado que {bij }i∈I,j∈Ji es una base ortonormal para K, y T un epimorfismo,
la sucesión F = {T bij }i∈I,j∈Ji es un marco para H.
Finalmente, dado que F = {wi (wi−1 T bij )}i∈I,j∈Ji = {wi Gi }i∈I , el Teorema 15.2.3 im-
plica que Ww es un MF para H.
2. Por como estan construidas las sucesiones F y Ww del ´’ıtem anterior, la Ec. (15.4)
del Teorema 15.2.3 asegura que
A AF AF AF
AWw ≤ ≤ AWw =⇒ ≤ AWw ≤
B B B A
BF BF
Análogamente se ve que ≤ BWw ≤ . Pero como AF = γ(T )2 y BF = kT k2 ,
B A
obtenemos inmediatamente la Ec. (15.9).
376
P
Sea x ∈ K, y notemos zi = PEi x, para cada i ∈ I. Observar que x = zi y
i∈I
kxk2 = kzi k2 . Por la Ec. (15.8), para cada i ∈ I, se tiene que
P
i∈I
para cada x ∈ K, está bien definida, es acotada e invertible. Usando la definición del
operador de sı́ntesis TWw , si x ∈ K tenemos que
X X X X
x= zi =⇒ T x = T zi = T PEi x = wi V x i = TWw (V x) .
i∈I i∈I i∈I i∈I
Observación 15.3.5. Con las notaciones del Teorema 15.3.4, la condición γ(T PEi ) > 0 es
necesaria (y suficiente) para que Wi = T Ei v H. Podrı́a esperarse que además sea suficiente
para asegurar que W = {T Ei }i∈I sea un MF para alguna sucesión de pesos adecuada.
Sin embargo, en el Ejemplo 15.7.1 se verá que existe un operador suryectivo T y una
base ortonormal de subespacios E = {Ei }i∈I tal que γ(T PEi ) > 0 para todo i ∈ I pero la
sucesión Ww = (w, W) no es un MF para ningún peso w ∈ `∞ + (I) . Lo que sucede en tal
ejemplo es que T y E no satisfacen la ecuación (15.6). Esto significa que los ángulos entre
los subespacios Ei y el N (T ) van empeorando a medida que i crece.
Por otro lado, (15.6) no es tampoco una condición necesaria para que P (W) 6= ∅ (ver
la Definición 15.4.1), si W = T E. En el Ejemplo 15.7.2 se tiene un MF que es la imagen por
un epimorfismo de una base ortonormal de subespacios pero que no satisface la Ec. (15.6).
La idea aquı́ será que si con unos pocos subespacios uno ya obtiene un buen MF, puede ir
agregándole mas hasta arruinar la Ec. (15.6), sin que deje de quedar un MF. 4
Observación 15.3.6. Si Ww = (wi , Wi )i∈I es un MF para H, entonces su operador de
sı́ntesis TWw satisface claramente la Ec. (15.6). Más aún, se tiene que
Por lo tanto, γ(TWw PEi ) = kTWw PEi k = wi para todo i ∈ I. O sea que TWw y w cumplen las
Ecs. (15.7) y (15.8) con A = B = 1. 4
Como primera aplicación del Teo. 15.3.4, el siguiente Corolario muestra que la relación de
equivalencia entre MF’s puede definirse coherentemente, y preserva las mismas propiedades
que en el caso vectorial.
377
La única diferencia es que, en aquel caso, un operador inversible G cambia las normas
de los vectores del marco (que en el caso actual se representan como los pesos). Aquı́ no
se puede hacer eso, porque G no actúa tan uniformemente en los subespacios Wi . Por ello
dejaremos sin cambios la sucesión de pesos, pero absorveremos los cambios en las constantes
de los marcos. Parte de este resultado aparece en los trabajos de P. Casazza, G. Kutyniok y
S. Li [58] (Corolario 2.12) , y de P. Gavruta [70] (Teorema 2.4). Se suguiere al lector intentar
obtener exactamente lo que en la notación del corolario serı́a el operador TGWw , y ver por
lo tanto la necesidad de usar el Teo. 15.3.4.
Corolario 15.3.7. Sea Ww = (wi , Wi )i∈I un MF para H, y sea G ∈ L(H, H1 ) invertible.
Entonces GWw = (wi , GWi )i∈I es un MF para H1 , cuyas cotas satisfacen las desigualdades
−2 2
kGk kG−1 k AWw ≤ AGWw y BGWw ≤ kGk kG−1 k BWw . (15.10)
Además, E (Ww ) = E (G Ww ) .
L
Demostración. Notemos por Ei la copia de cada Wi en KW = i∈I Wi . Definimos T =
G TWw ∈ L(KW , H1 ), que es claramente suryectivo (dado que TWw lo es). Aplicando la
Prop. 8.4.2, para cada i ∈ I tenemos que γ(T PEi ) = γ(G TWw PEi ) ≥ γ(G) · γ(TWw PEi ).
Luego, por la Observación 15.3.6, llegamos a que
γ(T PEi ) ≥ γ(G) · γ(TWw PEi ) = γ(G) wi y kT PEi k ≤ kGk kTWw PEi k = kGk wi ,
para todo i ∈ I. Entonces, puede aplicarse el Teorema 15.3.4 para T con constantes A =
γ(G)2 y B = kGk2 . De hecho, para cada i ∈ I, hemos visto que
Por lo tanto, GWw = (wi , GWi )i∈I es un MF para H1 por el Teorema 15.3.4. En cuanto a
las cotas, por la Prop. 8.4.2 y el ı́tem 2 de la Observación 15.3.3, se tiene que
1/2 1/2
γ(GTWw ) ≥ γ(G) γ(TWw ) = kG−1 k−1 AWw y kGTWw k ≤ kGk kTWw k = kGk BWw .
Aplicando la Ec. (15.9) del Teorema 15.3.4 y el hecho de que γ(G)2 = kG−1 k−2 , obtenemos
la Ec. (15.10). Finalmente, como N (T ) = N (TWw ) , entonces N (T ) ∩ Ei = {0} (i ∈ I). Por
el Teorema 15.3.4, deducimos que E (Ww ) = dim N (TWw ) = dim N (T ) = E (G Ww ).
378
1. Decimos que W = {Wi }i∈I es una sucesión generadora de H, si span {Wi : i ∈ I} = H.
P (W) = w ∈ `∞
+ (I) : Ww = (wi , Wi )i∈I es un MF para H ,
En los Ejemplos 15.7.1 y 15.7.3 se verá que existen sucesiones generadoras W = {Wi }i∈I de
H tales que P (W) = ∅.
Proposición 15.4.2. Sea W = {Wi }i∈I una sucesión generadora de H.
3. Sea G ∈ Gl(H). Entonces P (W) = P ({GWi }i∈I ). En otras palabras, una sucesión
w ∈ `∞
+ (I) es admisible para W si y sólo si es admisible para GW.
L
Demostración. Sea KW = i∈I Wi , y notemos por Ei v KW la copia de cada Wi en K.
X
1. Para cada a ∈ `∞+ (I) ∗
, consideremos la serie D a = ai PEi , que es convergente en
i∈I
la topologı́a fuerte de operadores. Además Da ∈ Gl(KW )+ . Por lo tanto, si TWw ∈
L(KW , H) es el operador de sı́ntesis de Ww , entonces TWw Da es, por definición, el
operador de sı́ntesis de (a w, W). Dado que TWw Da es acotado y suryectivo, entonces
(a w, W) es también un MF. Finalmente, notemos que
379
Definición 15.4.3. Sea W = {Wi }i∈I una sucesión generadora de H. Dado v, w ∈ P (W),
decimos que v y w son equivalentes si existe a ∈ `∞ ∗
+ (I) tal que v = aw. 4
Observaciones: 15.4.4. Sea W = {Wi }i∈I una sucesión generadora de H.
1. Por la Proposición 15.4.2, si una sucesión w ∈ P (W), luego toda su clase de equiva-
lencia w · `∞ ∗
+ (I) ⊆ P (W).
2. Por otro lado, en el Ejemplo 15.7.5 veremos que existen sucesiones generadoras W de
H con infinitas sucesiones w ∈ P (W) no equivalentes.
3. Si Ww es una BRS para H, entonces por la Proposición 15.4.2 todas las sucesiones de
pesos admisibles para W son equivalentes a w, dado que P (W) = `∞ ∗
+ (I) . Además,
Wv = (v, W) es también una BRS para H, para todo otro v ∈ `∞ ∗
+ (I) . Por lo tanto,
de ahora en más, nos referiremos a las bases de Riesz de subespacios W sin hacer
referencia explı́cita a la sucesión de pesos, dado que el conjunto de pesos admisibles es
siempre el mismo (y además, W es una BRS con cualquiera de ellos).
4. Por definición, si W es una BRS, entonces es una sucesión minimal. Sin embargo, en
el Ejemplo 15.7.3, veremos que hay sucesiones minimales, generadoras de H, pero con
P (W) = ∅. 4
Proposición 15.4.5. Sea E = {Ei }i∈I una BONS para H. Sea G ∈ L(H, H1 ) un operador
invertible. Entonces la sucesión G E = (GEi )i∈I es una BRS para H1 .
Demostración. Es consecuencia del Corolario 15.3.7 y del hecho de que G E sigue siendo una
sucesión minimal.
Observación 15.4.6. Hemos visto que, dado un marco F = {fi }i∈I para H, la sucesión
−1/2
{SF fi }i∈I es un marco de Parseval. Sin embargo, si Ww = (wi , Wi )i∈I es un MF, entonces
−1/2
SWw Ww podrı́a no ser un marco de Parseval de subespacios (Ejemplo 15.7.5), ni siquiera
con una sucesión de pesos diferente. Peor aún, existen marcos de fusión Ww = (w, W) para
H tales que la sucesión (v, G W) no es un MF de Parseval para H, para cualquier elección
de G ∈ Gl(H) y v ∈ `∞ + (I) (ver Ejemplo 15.7.6). La siguiente Proposición muestra que la
situación es diferente si nos restringimos a BRS’s para H: 4
Proposición 15.4.7. Sea W = {Wi }i∈I una BRS para H. Entonces, para todo w ∈ `∞ ∗
+ (I) ,
−1/2
la sucesión {SWw Wi }i∈I es una BONS.
Demostración. Sea {eik }k∈Ki una base ortonormal en cada Wi . Fijemos cualquier w ∈
`∞ ∗
+ (I) . Por el Teorema 15.2.3, la sucesión E = {wi eik }i∈I,k∈Ki es un marco para H. Más
aún, por la Obs. 15.3.2, TE = TWw que es inversible. Luego se tiene que E es una base de
−1/2
Riesz de H. Por lo tanto {wi SE eik }i∈I, k∈Ji es una base de Riesz y además un marco
de Parseval para H. En otras palabras, es una base ortonormal de H. Pero usando que
−1/2 −1/2
SWw = SE y que {wi SWw eik }k∈Ki es una base ortonormal para cada subespacio SWw Wi ,
−1/2
podemos deducir que la sucesión {SWw Wi }i∈I es una BONS para H.
380
15.5 Proyectores y marcos de subespacios.
Por el Teo. 14.3.1, una sucesión {fj }j∈N es un marco de Parseval para H si y sólo si existen
un espacio de Hilbert K que contiene a H y una base ortonormal {bj }j∈N de K tales que
fj = PH bj para todo j.
En esta sección estudiaremos la posible generalización a los marcos de subespacios, reem-
plazando bases ortornormales por bases ortonormales de subespacios. Se verá que una im-
plicación es cierta ( un marco de Parseval de subespacios es la proyección ortogonal de una
base ortonormal de subespacios) pero la otra implicación no es cierta (Ejemplo 15.7.4).
El esquema de esta sección es muy similar al de la Sección 14.3 que relaciona proyec-
ciones y marcos vectoriales. Pero veremos que en varios casos como el antes mencionado, se
obtendrán condiciones suficientes pero no necesarias.
Teorema 15.5.1. Sea Ww = (wi , Wi )i∈I un MF para H. Entonces existe un espacio de
Hilbert V ⊇ H y una base de Riesz de subespacios {Bi }i∈I para V tal que
1/2 1/2
PH (Bi ) = Wi y AWw kPH PBi k ≤ wi ≤ BWw kPH PBi k para todo i ∈ I .
Por la Proposición 15.4.5, la sucesión {Bi }i∈I = {U (Ei )}i∈I es una base de Riesz de sube-
spacios para V. Observemos que
381
Corolario 15.5.2. Sea Ww = (wi , Wi )i∈I un MF de Parseval para H. Entonces existen un
espacio de Hilbert V ⊇ H y una BONS {Fi }i∈I para V tales que
Más aún, si E (Ww ) = ∞, entonces {Bi }i∈I puede tomarse como una BONS de V.
Demostración. Escribamos TWw = T . Por hipótesis, T T ∗ = SWw ≥ AWw I ≥ I. Notemos por
X = (T T ∗ − I)1/2 ∈ L(H)+ .
Entonces es claro que Q es una proyección oblicua con R(Q) = H ⊕ 0. Más aún,
IH + XX ∗ 0
∗
QQ = = T̃ T̃ ∗ =⇒ |Q∗ | = |T̃ ∗ | .
0 0
U x = V PN (T )⊥ x ⊕ PN (T ) x , para x ∈ KW . (15.13)
T̃ = |T̃ ∗ |U = |Q∗ |U = Q W ∗ U.
382
Por lo tanto, si consideramos la base ortonormal de subespacios {Ei }i∈I of KW ,
U x = V PN (T )⊥ x ⊕ Y PN (T ) x, x ∈ H,
donde Y ∈ L(KW ) es una isometrı́a parcial con espacio inicial N (T ) y espacio final KW . Es
inmediato entonces que U aplica isométricamente N (T )⊥ sobre H ⊕ {0} y N (T ) sobre {0} ⊕
KW . Entonces, se concluye que la sucesión {Bi }i∈I es una base ortonormal de subespacios
para V.
J ⊆I y {0} =
6 V i ⊆ Wi para todo i ∈ J .
383
En este caso, usaremos las siguientes notaciones:
2. El exceso de W con respecto a V es el cardinal
X X
E (W, V) = dim(Wi Vi ) + dim Wi .
i∈ J i∈
/ J
Lema 15.6.3. Sea Ww = (wi , Wi )i∈I un MF para H y sea V = {Vi }i∈J un refinamiento de
W. Consideremos KV = ⊕i∈J Vi como subespacio de ⊕i∈I Wi = KW . Entonces
1. E (W, V) = dim KV⊥ = dim N (PKV ) .
2. Vw = (wi , Vi )i∈ J es un MF-refinamiento de Ww si y sólo si TWw PKV is suryectivo.
En este caso, tenemos que
3. E (W, V) ≤ E (Ww ).
4. Si E (W, V) < ∞, entonces E (Vw ) = E (Ww ) − E (W, V).
Demostración. Para cada i ∈ I, notemos por Ei (resp. Fi ) la copia de cada Wi (resp. Vi ,
/ J) en KW . Es fácil ver entonces que KV⊥ = ⊕i∈I Ei Fi , lo que prueba el
o Fi = {0} si i ∈
ı́tem 1. Abreviemos P = PKV . Por sus definiciones, tenemos que
TVw = TWw K = TWw R(P ) ∈ L(KV , H) .
V
384
Lema 15.6.4. Sea Ww = (wi , Wi )i∈I un MF para H con E (Ww ) > 0. Entonces existe un
MF-refinamiento Vw = (wi , Vi )i∈ J de Ww con E (W, V) = 1.
Demostración. Para cada i ∈ I, notemos por Ei la copia de Wi en KW . Supongamos que
no existe ningún MF-refinamiento Vw de Ww , con E (W, V) = 1. Entonces, por el Lema
15.6.3, para todo i ∈ I y todo vector unitario y ∈ Ei , se tiene que R(TWw P{y}⊥ ) 6= H. Por
la Proposición 8.2.3 y Ec. (8.6),
1. La sucesión w ∈ `∞ ∗
+ (I) .
P (W) = `∞
+ (I)
∗
y E (Wv ) = E (Ww ) para cualquier otro v ∈ P (W) .
385
Demostración. Por el Corolario 15.6.6, sabemos que w ∈ `∞ ∗
+ (I) . De la Proposición 15.4.2,
∞ ∗
se deduce que `+ (I) ⊆ P (W). Sea Vw = (wi , Vi )i∈ J un MF-refinamiento de Ww que
es una BRS para H, (existe por el Corolario 15.6.6). Tomemos v ∈ P (W). Necesitamos
verificar que la sucesión Vv = (vi , Vi )i∈ J es también un MF-refinamiento de Wv .
En efecto, consideremos el operador TVv = TWv K ∈ L(KV , H). Por el Lema 15.6.3,
V
dim KV⊥ = E (W, V) < ∞. Como en la prueba del Lema 15.6.4, esto implica que
Demostración. Si E (Ww ) < ∞, aplicamos Corolario 15.6.7. Por otro lado, si E (Ww ) = ∞ y
tomamos otro v ∈ P (W), entonces también debe valer que E (Wv ) = ∞, porque si E (Wv )
fuera finito, podrı́a aplicarse el Corolario 15.6.7 a Wv , llegando a una contradicción.
15.7 Ejemplos.
Observemos que, si {Ei }i∈I es una base ortonormal de subespacios para K y T ∈ L(K, H) es
un operador suryectivo tal que T (Ei ) v H para todo i ∈ I, entonces W = {T Ei }i∈I es una
sucesión generadora para H. Sin embargo, el primer ejemplo muestra que, en general, tal
sucesión W puede tener P (W) = ∅, i.e. Ww no es un MF para H, para cualquier sucesión
w ∈ `∞+ (I).
Ejemplo 15.7.1. Sea B = {en }n∈N una base ortonormal de H. Para k ∈ N, consideremos
el espacio Ek = span {e2k−1 , e2k } . Entonces Ek resulta una base ortonormal de subespacios
para H. Sea T : H → H el operador (definido en un denso) dado por
−k
2 e1 si n = 2k − 1
T en = .
ek+1 si n = 2k
386
la sucesión de subespacios cerrados
γ(T PEk ) −k
Notemos que, por definición, = 21 −−−→ 0. 4
kT PEk k k→∞
El operador T y la base ortonormal E = {En }k∈N del ejemplo anterior no satisfacen la Ec.
(15.7) del Teorema 15.3.4. Sin embargo, (15.7) no es una condición necesaria que asegure
que P (W) 6= ∅, si W = T E. Esto se muestra en el próximo ejemplo, en donde se muestra
un MF, imagen por un epimorfismo de una base ortonormal de subespacios, pero que no
satisfacen la Ecuación (15.7).
Ejemplo 15.7.2. Sea {ek }k∈N una base ortonormal para H y consideremos el marco (de
vectores)
e k
si n = 2k − 1
F = {fn }n∈N dado por fn = .
ek+1
si n = 2k
√
k+1
Sea T = TF ∈ L(`2 (N), H) su operador de sı́ntesis (que es suryectivo). Si {bn }n∈N es la base
canónica de `2 (N), entonces T bn = fn . Para cada k ∈ N hacemos Ek = span {b2k−1 , b2k }. En-
tonces, por construcción {Ek }k∈N es una base ortonormal de subespacios de `2 (N). Tomemos
las sucesiones
w = e ∈ `∞
+ (N) y Wk = T Ek = span {ek , ek+1 } , k∈N.
En el Ejemplo 15.7.1, se tiene una sucesión generadora W = {Wi }i∈I con P (W) = ∅. El
argumento clave fue que ∩i∈I Wi 6= {0}. Esto es suficiente para asegurar que P (W) es vacı́o
si span {Wi : 1 ≤ i ≤ n} 6= H para todo n ∈ N. Sin embargo, como mostrará el siguiente
ejemplo, esta condicion no es necesaria, aún si dim Wi < ∞ para todo i ∈ I. Este ejemplo
sirve además para mostrar que existen sucesiones generadoras, minimales de subespacios
tales que P (W) = ∅.
387
∞
X e2k
Ejemplo 15.7.3. Fijemos una base ortonormal B = {ei }i∈N para H. Sea g = ∈H
k=1
2k/2
(kgk = 1). Para todo n ∈ N, notemos por Pn ∈ L(H) a la proyección ortogonal sobre
Hn = span {e1 , e2 , . . . , en }. Consideremos la sucesión generadores W = {Wk }k∈N dada por
( k )
X e2j
Wk = span {P2k g , e2k−1 } = span , e2k−1 , k ∈ N .
j=1
2j/2
por lo que AWw = 0, contradiciendo la suposición inicial de que Ww era un MF. Por lo tanto,
P (W) = ∅. 4
Sabemos que {fj }j∈N es un marco de Parseval para H si y sólo si existe un espacio de
Hilbert K que contiene a H tal que fj = PH bj para todo j ∈ N, donde {bj }j∈N es una base
ortonormal para K. En la sección 15.5 se probó que en el caso de marcos de subespacios una
implicación era cierta, si reemplazábamos convenientemente las bases ortonormales por bases
ortonormales de subespacios. Concretamente, se vio que un marco Parseval de subespacios es
la imagen por una proyección ortogonal de una base ortonormal de subespacios. El siguiente
ejemplo muestra que la recı́proca no es cierta en este contexto.
Ejemplo 15.7.4. Sea {ek }k∈N una base ortonormal para H. Consideremos el vector unitario
X e2k−1
g= k/2
, y sea M = span { {g} ∪ {e2k : k ∈ N} } .
k∈N
2
Por otro lado, tomemos la sucesión E = {Ek }k∈N dada por Ek = span {e2k−1 , e2k } (k ∈ N).
Entonces E es una bon de subespacios para H. Sea la sucesión W = {Wk }k∈N dada por
388
El próximo ejemplo muestra que en el caso de marcos de subespacios, la existencia de un
marco ajustado canónico no es cierta, a diferencia de los marcos de vectores.
Ejemplo 15.7.5. Sea E = {en }n∈N una base ortonormal de H. Definamos la sucesión
W = {Wk }k∈N como
Ahora veamos que Ww no puede ser un marco ajustado de subespacios para ningún w ∈
P (W). Si Ww fuera un marco ajustado, con cota de marco A, entonces para todo k ≥ 2,
X
A = Akek k2 = wi2 kPWi ek k2 = w12 + wk2 =⇒ wk2 = A − w12 ,
i∈N
lo que contradice w ∈ `+2 (N). Veamos ahora que el operador de marco SWw ∈ L(H) es
diagonal con respecto a la base ortonormal E, para todo w ∈ P (W). De hecho,
∞
!
X
∗ ∗
TW e = {wk PWk e1 }k∈N = 0 ⊕ {wk e1 }k≥2 =⇒ SWw e1 = TWw TW
w 1
e =
w 1
wk2 e1 .
k=2
−1/2 −1/2
En particular, SWw es también diagonal. Esto implica que SWw W = W, que sabemos que
no puede ser ajustado para ninguna sucesión de pesos.
Otra propiedad del presente ejemplo es la siguiente: Ww es un MF para H, pero la
sucesión (wk , Wk )k>1 no es una sucesión MF (i.e. un MF para span {Wk : k > 1}). Esto
puede probarse con los mismos argumentos utilizados en el Ejemplo 15.7.1, usando que
∩k>1 Wk 6= {0}. 4
Ejemplo 15.7.6. Sea B4 = {en }n≤4 una base ortonormal para C4 . Consideremos la sucesión
W = {Wk }k∈N dada por
Veremos que la sucesión GWw = (wk , GWk )k∈I3 no es un marco de Parseval para todo
invertible G ∈ M4 (C) y todo peso w ∈ R3+ .
389
Tomemos base ortonormal en cada GWi
Ge1
donde g1 = , lo mismo para g4 . Si GWw fuera de Parseval, entonces el marco
kGe1 k
E = {TGWw gk }k∈I5 = {w1 g1 , w1 g2 , w2 g1 , w2 g3 , w3 g3 } ,
serı́a un marco de Parseval (de vectores). Sea T ∈ M4,5 (C) la matriz con los vectores de E
como columnas. Bajo un cambio de coordenadas adecuado, T es de la forma
w1 w2 ~v C
T = con ~v = (0, 0, a) ∈ C3 y V ∈ M3 (C) .
0 0 V C3
Dado que T T ∗ = I4 , es fácil ver que V ∈ U(3). Pero esto es imposible dado que las
dos primeras columnas de V tienen normas kw1 g2 k = w1 y kw2 g3 k = w2 , mientras que
1 = w12 + w22 + |a|2 . 4
390
Bibliografı́a
Frames
[1] J. A. Antezana, G. Corach, M. Ruiz and D. Stojanoff, Weighted projections and frame
de Rieszs, Lin. Alg. Appl., to appear.
[2] R. Balan, Equivalence relations and distances between Hilbert frames. Proc. Amer.
Math. Soc. 127 (1999), 2353-2366.
[3] R. Balan, P. Casazza, C. Heil and Z. Landau, Deficits and excesses of frames, Advances
in Computational Mathematics 18 (2003) 93-116.
[4] J. J. Benedetto, and M. Fickus, Finite normalized tight frames. Frames. Adv. Comput.
Math. 18 (2003), 357-385.
[6] B. Bittner and A. M. Lindner, An angle criterion for Riesz bases, preprint.
[7] R. Bouldin, The product of operators with closed range, Tôhoku Math J. 25(1973),
359-363.
[8] P.G. Casazza, Characterizing Hilbert space frames with the subframe property, Illinois
J. Math. 41 (1997), 648-666.
[9] P.G. Casazza, The art of frame theory, Taiwanese J. Math. 4 (2000), no. 2, 129-201.
[10] P. G. Casazza and O. Christensen, Hilbert space frames containing a Riesz basis and
Banach spaces which have no subspace isomorphic to c0 . J. Math. Anal. Appl. 202
(1996), 940-950.
[11] P. G. Casazza and O. Christensen, Frames containing a Riesz basis and preservación of
this property under perturbations. SIAM J. Math. Anal. 29 (1998), 266-278.
[12] P.G. Casazza and O. Christensen, frame de Rieszs and approximación of the frame
coefficients, Approx. Theory Appl. N.S. 14 (1998), 1-11.
391
[13] P.G. Casazza, D. Han and D.R.Larson, Frames for Banach spaces, Contemp. Math. 247
(1999), 149-182.
[14] P.G. Casazza, and J. Kovacevic, Equal-norm tight frames with erasures, Adv. Comput.
Math. 18 (2003), 387-430.
[15] O. Christensen, An introducción to frames and Riesz bases, Birkhäuser, Boston, 2003.
[16] O. Christensen, Frames and the projection method, Appl. Comput. Harmon. Anal. 1
(1993), 50-53.
[17] O. Christensen, Frames and pseudo-inverses, J. Math. Anal. Appl. 195 (1995), 401-414.
[18] O. Christensen, Frames containing a Riesz basis and approximación of the frame coef-
ficients using finite-dimensional methods, J. Math. Anal. Appl. 199 (1996), 256-270.
[19] O. Christensen and A. Lindner, Decomposition of Riesz frames and wavelets into a
finite union of linearly independent sets, Lin. Alg. Appl. 355 no. 1 (2002), 147-159.
[20] G. Corach, M. Pacheco and D. Stojanoff, Geometry of epimorphisms and frames, Proc.
Amer. Math. Soc. 132 (2004), 2039 - 2049.
[21] F. Deutsch, The angle between subspaces in Hilbert space, in ”Approximación theory,
wavelets and applications” (S. P. Singh, editor), Kluwer, Netherlands, 1995, 107-130.
[22] K. Dykema, D. Freeman, K. Kornelson, D. Larson, M. Ordower and E. Weber, El-
lipsoidal tight frames and projection decompositions of operators, Illinois J. Math.
48(2004), 477-489.
[23] V. K. Goyal, J. Kovacevic, and J. A. Kelner, Quantized frame expansions with erasures.
Appl. Comput. Harmon. Anal. 10 (2001), 203-233.
[24] V. K. Goyal, M. Vetterli, and N.T. Thao, Quantized overcomplete expansions in RN :
analysis, synthesis, and algorithms, IEEE Trans. Inform. Theory 44 (1998), 16-31.
[25] D. Han and D.R.Larson, Frames, bases and group representations, Mem. Amer. Math.
Soc. 147 (2000), no. 697.
[26] V. Havin and B. Jöricke, The uncertainty principle in harmonic analysis. Ergebnisse
der Mathematik und ihrer Grenzgebiete 28, Springer-Verlag, Berlin, 1994.
[27] C. E. Heil and D.F. Walnut, Continuous and discrete wavelet transforms, SIAM Rev.
31 (1989), 628-666.
[28] R. B. Holmes, and V. I. Paulsen, Optimal frames for erasures, Linear Algebra and Appl.
377 (2004), 31-51.
[29] J. R. Holub, Pre-frame operators, Besselian frames and near-Riesz bases in Hilbert
spaces, Proc. Amer. Math. Soc. 122 (1994) 779-785.
392
[30] T. Kato, Perturbación theory of linear operators, (second edition) Springer, New York,
1984.
[31] S. Kayalar, and H. Weinert, Error bounds for the method of alternating projections,
Math. Control Signal Systems 1 (1988), 43-59.
[32] P. A. Linnell, Von Neumann algebras and linear independence of translates, Proc. Am.
Math. Soc. 127, No.11 (1999), 3269-3277 .
[33] G.K. Pedersen, C∗ -algebras and their automorphism groups, Academic Press, London,
1979.
[34] T. Strohmer, and R. W. Heath, Grassmannian frames with applications to coding and
communication, Appl.-Comput.-Harmon.-Anal. 14 (2003), 257-275.
Marcos de fusión
[36] R. Abraham, J.E. Marsden, T. Ratiu Manifolds, Tensor Analysis, and Applications,
Second Edition , Applied Mathematical Sciences 75, Springer- Verlag, New York (1988).
[38] P.M. Alberti, A. Uhlmann Stochasticity and partial order Doubly stochastic maps and
unitary mixing. Mathematische Monographien [Mathematical Monographs], 18. VEB
Deutscher Verlag der Wissenschaften, Berlin, (1981).
[39] T. Ando, Majorization, doubly stochastic matrices and comparison of eigenvalues, Lec-
ture Note, Hokkaido Univ., (1982).
[41] J.A. Antezana, G. Corach, M. Ruiz, D.Stojanoff, Oblique Projections and Frames ,
Proc. Amer. Math. Soc. 134 (2006), 1031-1037.
[42] J. Antezana, P. Massey, M. Ruiz, D. Stojanoff, The Schur-Horn Theorem for operators
and frames with prescribed norms and frame operator, Illinois Journal of Mathematics,
Vol. 51, No 2 (2007), 537-560.
393
[43] J. Antezana, D. Stojanoff, Análisis Matricial II - Operadores en espacios de Hilbert,
preprint.
[44] M.S. Asgari, A. Khosravi, Frames and bases of subspaces in Hilbert spaces, J. Math.
Anal. Appl., 308(2005), 541-553.
[45] R. Bhatia, Matrix analysis. Graduate Texts in Mathematics, 169. Springer-Verlag, New
York, (1997).
[46] J.J. Benedetto, M. Fickus, Finite normalized tight frames, Adv. Comput. Math., 18
(2003), 357-385.
[49] P.G. Casazza, The art of frame theory, Taiwanese J. Math., 4 no. 2 (2000), 129-201.
[50] P.G. Casazza, Custom building finite frames, Wavelets, frames and operator theory,
Contemp. Math., 345, Amer. Math. Soc., Providence, RI, (2004),61-86.
[51] P.G. Casazza, J.Kovacević, M.T.Leon, J.C.Tremain Custom built frames, Preprint
(2000).
[52] P.G Casazza, M. Fickus, J. Kovacevic, M.T. Leon, J.C. Tremain A physical interpreta-
tion for tight frames, Harmonic analysis and applications, Appl. Numer. Harmon. Anal.,
Birkhäuser Boston, Boston, MA, (2006), 51-76.
[53] P.G. Casazza, J. Kovacevic, Equal-norm tight frames with erasures, Advances in Com-
putational Mathematics, special issue on Frames, (2002).
[55] P.G. Casazza, M.T.Leon, Existence and construction of finite tight frames, J. Concr.
Appl. Math. 4 (3) (2006), 277-289.
[56] P. G. Casazza, G, Kutyniok, Frames of subspaces, Wavelets, frames and operator theory,
Contemp. Math., 345, Amer. Math. Soc., Providence, RI, (2004),87-113.
[58] P. G. Casazza, G. Kutyniok, S. Li, Fusion Frames and Distributed Processing, Applied
and Computational Harmonic Analysis, en prensa.
[59] O. Christensen, An introduction to frames and Riesz bases, Birkhäuser, Boston, (2003).
394
[60] I. Daubechies, Ten Lectures on Wavelets, SIAM Philadelphia, PA, (1992).
[62] P.I. Davies y N.J. Higham, Numerically stable generation of correlation matrices and
their factors, BIT, 40 (2000), 640-651.
[63] I.S. Dhillon, R.W. Heath Jr., M.A. Sustik, J.A. Tropp, Generalized finite algorithms for
constructing Hermitian matrices with prescribed diagonaly spectrum, SIAM J. Matrix
Anal. Appl. 27(1) (2005), 61-71.
[64] R.J. Duffin, A. C, Schaeffer, A class of nonharmonic Fourier series, Trans. Amer. Math.
Soc. 72 (1952) 341-366.
[65] D. J. Feng, L. Wang, Y. Wang Generation of finite tight frames by Householder trans-
formations, Advances in Computational Mathematics, 24 (2006), 297-309.
[67] M.Fornasier, Decompositions of Hilbert spaces: local construction of global frames, Proc.
Int. Conf. on Constructive function theory, Varna (2002), B. Bojanov Ed., DARBA,
Sofia, (2003), 275-281.
[69] M. Frank, D.R. Larson, Frames in Hilbert C ∗ -modules and C ∗ -algebras J. Oper. Theory
48 (2) (2002), 273-314.
[70] P. Gavruta, On the duality of fusion frames, J. Math. Anal. Appl. 333 (2007), 871-879.
[71] V. K Goyal, J. Kovacevic, J.A. Kelner, Quantized frame expansions with erasures, jour-
nal of Appl. and Comput. Harmonic Analysis 10(3) (2001), 203-233.
[74] D. Han, D.R. Larson, Frame, Bases and Group Representations, Mem. Amer. Math.
Soc. 147 no. 697 (2000).
[75] R. Holmes, V. Paulsen Optimal Frames for Erasures, Lin. Alg. Appl. 377 (2004), 31
-51.
[76] R. Horn, C. Johnson, Matrix analysis, Cambridge University Press, Cambridge, (1985).
395
[77] K. Kornelson, D. Larson, Rank-one decomposition of operators and construction of
frames. Wavelets, frames and operator theory, Contemp. Math., 345, Amer. Math.
Soc., Providence, RI, (2004), 203-214.
[79] J.Lindenstrauss, L Tzafriri, Classical Banach spaces I, Springer, New York 1977.
[81] P. Massey, M. Ruiz, Tight frame completions with prescribed norms, Sampl. Theory
Signal Image Process, aceptado para su publicación.
[82] P. Massey, M. Ruiz Minimization of convex functionals over frame operators, preprint.
[84] W. Sun G-frames and g-Riesz bases, J. Math. Anal. Appl., 322(2006), 437-452.
[85] S. Waldron, Generalised Welch Bound Equality sequences are tight frames, IEEE Trans.
Info. Th., vol., 49(9) (2003), 2307-2309.
[87] W. N. Anderson Jr. and G. E. Trapp, Shorted operators II, SIAM J. Appl. Math., 28
(1975), 60-71.
[90] W. N. Anderson and G. E. Trapp, Shorted operators II, SIAM J. Appl. Math. 28 (1975),
60-71.
[91] T. Ando, Generalized Schur complements, Linear Algebra Appl. 27 (1979), 173-186.
[92] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math (Szeged)
34 (1973), 11-15.
396
[93] T. Ando; Unitarily invariant norms related to the numerical radius, Linear Algebra and
its Applications, In Press, Corrected Proof, Available online 22 April 2005.
Linear Algebra Appl. 90 (1987), 165-219.
[98] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cambridge, 1985.
[99] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press, Cam-
bridge, 1991.
[100] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the numer-
ical radius, Linear and Multilinear Algebra 23 (1988) 183-191.
[104] R. Bellman, Introducción to Matrix Analysis, 2a Ed., McGraw-Hill, New York, 1970.
[105] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation, Springer-
Verlag, Berlı́n, 1974.
[106] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its Applications,
Academic Press, New York, 1979.
[107] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix completions, J.
Funct. Anal. 85 (1989), 151-178.
[108] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math.
(Szeged) 56 (1992), 147-163.
[109] B. Simon, Trace ideals and their applications, London Mathematical Society Lecture
Note Series, 35, Cambridge University Press, Cambridge-New York, 1979.
Proyecciones oblicuas
397
[110] E. Andruchow,G. Corach and D. Stojanoff, Geometry of oblique projections, Studia
Math. 137 (1) (1999) 61-79.
[111] D. Carlson, What are Schur complements, anyway?, Linear Algebra Appl. 74 (1986),
257-275.
[112] R. W. Cottle, Manifestations of the Schur complement, Linear Algebra Appl. 8 (1974),
189-211.
[113] G. Corach, A. Maestripieri and D. Stojanoff, Oblique projections and abstract splines,
preprint.
[114] G. Corach, A. Maestripieri and D. Stojanoff, Schur complements and oblique projec-
tions, Acta Sci. Math. (Szeged) 67 (2001), 439-459.
[115] J. Dieudonné, Quasi-hermitian operators, Proc. Internat. Symp. Linear Spaces,
Jerusalem (1961), 115-122.
[116] M. Golomb, Splines, n-Widths ans optimal approximations, MRC Technical Summary
Report 784 (1967).
[117] S. Hassi, Nordström, K.; On projections in a space with an indefinite metric, Linear
Algebra Appl. 208/209 (1994), 401-417.
[118] E. Haynsworth, Determinación of the inertia of a partitioned Hermitian matrix, Linear
Algebra Appl. 1 (1968), 73-81.
[119] M. G. Krein, The theory of self-adjoint extensions of semibounded Hermitian operators
and its applications, Mat. Sb. (N. S.) 20 (62) (1947), 431-495
[120] P. D. Lax, Symmetrizable linear transformations, Comm. Pure Appl. Math. 7 (1954),
633-647.
[121] K. Löwner, Über monotone Matrixfunktionen. Math. Zeit. 38 (1934), 177-216.
[122] Z. Pasternak-Winiarski, On the dependence of the orthogonal projector on deforma-
tions of the scalar product , Studia Math., 128 (1998), 1-17.
[123] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math.
(Szeged) 56 (1992), 147-163.
[124] V. Ptak, Extremal operators and oblique projections, Casopis pro pestovánı́ Matem-
atiky, 110 (1985), 343-350.
[125] A.C. Thompson, On certain contracción mappings in a partially ordered vector space.
Proc. Amer. Math. Soc. 14 (1963), 438-443.
398
Parte IV
Resultados Preliminares
399
Apéndice A
Topologı́a
400
2. Un conjunto A ⊆ X es abierto (o d-abierto) si para todo x ∈ A existe un ε > 0 tal que
B(x, ε) ⊆ A.
Observación A.1.3. Si (X, d) es un espacio métrico, es fácil ver que el sistema de conjuntos
τd = {A ⊆ X : A es d-abierto } es una topologı́a en X. Pensando al revés, si τ es una
topologı́a para X, diremos que el espacio topológico (X, τ ) es metrizable si existe alguna
distancia d en X tal que τ = τd .
La mayorı́a de los espacios topológicos son metrizables. Sin embargo, hay dos razones im-
portantes para que las teorı́as topológica y métrica se desarrollen separadamente (o en par-
alelo). Por un lado, existen importantes ejemplos en la matemática de espacios topológicos
no metrizables (pocos pero buenos). Por otro lado, las dos teorı́as hacen incapié en aspectos
bien diferenciados entre sı́, hasta el punto de que es usual hablar de propiedades topológicas
(como las enumeradas al principio del capı́tulo) y de propiedades métricas. Como ejem-
plo de estas últimas, podemos mencionar propiedades como “ser acotado”, ser “completo”,
diámetro, sucesiones de Cauchy, etc. Todas estas son puramente métricas y no tienen un
correlato topológico. 4
A continuación seguiremos introduciendo lenguaje topológico:
Definición A.1.4. Sea (X, τ ) un ET y fijemos un punto x ∈ X.
1. A◦ es abierto.
401
2. Si A ⊆ B, entonces A◦ ⊆ B ◦ .
4. (A◦ )◦ = A◦ .
6. (A ∩ B)◦ = A◦ ∩ B ◦ .
Demostración. Sea x ∈ A◦ , y sea U ∈ τ tal que x ∈ U ⊆ A. Por la definición de ser entorno,
vemos que todos los otros y ∈ U también cumplen que A ∈ O(y). Es decir que U ⊆ A◦ . De
ahı́ podemos deducir que [
A◦ = {U ∈ τ : U ⊆ A} . (A.2)
Es claro que esta igualdad sirve para demostrar los primeros 5 items del enunciado. Como
A◦ ∩ B ◦ ⊆ A ∩ B y es abierto, el ı́tem 5 asegura que A◦ ∩ B ◦ ⊆ (A ∩ B)◦ . La otra inclusión
también se deduce de la Ec. (A.2).
• ∅ y X son cerrados.
Usando estos hechos, podemos definir la noción de clausura de un subconjunto, que es la
dual de la noción de interior (comparar con la Ec. (A.2) ):
Definición A.2.1. Sea (X, τ ) un ET y sea A ⊆ X. El conjunto
\
A = {F ⊆ X : F es cerrado y A ⊆ F } (A.3)
2. Si A ⊆ B, entonces A ⊆ B
3. A es cerrado si y sólo si A = A.
402
−
4. A = A.
X \ A = (X \ A)◦ y X \ A◦ = X \ A . (A.4)
x∈A ⇐⇒ 0 = d(x, A) .
Deducir que A es cerrado si y sólo si d(y, A) = 0 =⇒ y ∈ A . 4
403
Definición A.2.7. Sea (X, τ ) un ET. Dado A ⊆ X, llamaremos borde de A al conjunto
∂A = A ∩ X \ A = A \ A◦
son topologı́as, la primera el ı́nfimo y la segunda el supremo de la familia {τi : i ∈ I}. Estas
construcciones permiten generar topologı́as a partir de familias arbitrarias de subconjuntos
de X, con la sola condición de que cubran a X.
S
Definición A.3.1. Sea X un conjunto y sea ρ ⊆ P(X) tal que ρ = X.
(a) τ = τ (ρ)
S
(b) Todo V ∈ τ cumple que V = {U ∈ ρ : U ⊆ V }. 4
En resumidas cuentas, sabemos generar una topologı́a en X a partir de una familia arbitraria
ρ ⊆ P(X), y sabemos qué queremos que cumpla una familia para ser base de una topologı́a
(notar la analogı́a con las bolas abiertas en una topologı́a que proviene de una métrica). El
problema es saber cuándo ρ es o no base de τ (ρ), o bien cómo contruir una base de τ (ρ) a
partir de ρ. Esto se responde ahora:
404
S
Proposición A.3.2. Sea X un conjunto y sea ρ ⊆ P(X) tal que ρ = X.
1. Se tiene que ρ es base de τ (ρ) si y sólo si se cumple que
dados U , V ∈ ρ y x ∈ U ∩ V , existe W ∈ ρ tal que x ∈ W ⊆ U ∩ V . (A.5)
En particular, esto pasa si ρ es cerrado por intersecciones finitas.
2. La siguiente familia es base de τ (ρ):
β = {V1 ∩ V2 ∩ · · · ∩ Vn : n ∈ N y V1 , . . . , Vn ∈ ρ} , (A.6)
es decir que β consiste de las intersecciones finitas de elementos de ρ.
S
En conclusión, si ρ ⊆ P(X) cumple que ρ = X, se tiene que
τ (ρ) = { uniones arbitrarias de intersecciones finitas de elementos de ρ } . (A.7)
Demostración. Si ρ es base de τ (ρ), la condición (A.5) se verifica de inmediato (notar que
U ∩ V ∈ τ (ρ) ). Supongamos ahora que ρ cumple la condición (A.5), y consideremos
[
τ= α : α ⊆ ρ = { uniones de elementos de ρ } ,
Es claro que ρ ⊆ τ ⊆ τ (ρ), ya que τ está contenido en toda topologı́a que contenga a ρ.
Probaremos que τ es una topologı́a, de lo que podremos deducir que τ = τ (ρ), por lo que ρ
será una base de τ (ρ).
S
Tomando α = ρ, o bien α = ∅, vemos que X y ∅ están en τ (recordar que ρ = X). Por su
construcción, τ es cerrado por uniones arbitrarias. Sólo falta ver que lo es para intersecciones
finitas. Es fácil ver que la condición (A.5) muestra que si U, V ∈ ρ, entonces U ∩ V ∈ τ . Si
ahora tomamos α, γ ⊆ ρ, y consideramos los conjuntos
[ [ [ [
A= α y B= γ en τ , =⇒ A ∩ B = U ∩V ∈ τ .
U ∈α V ∈γ
405
Definición A.3.4. Sea (X, τ ) un ET y sea x ∈ X. Una base de entornos de x es una
subfamilia βx ⊆ O(x) tal que para todo U ∈ O(x) existe V ∈ βx tal que x ∈ V ⊆ U . 4
Ejemplos A.3.6. 1. Sea (X, τ ) un ET y sea β ⊆ τ una base. Entonces, para todo x ∈ X,
O(x) ∩ β = {U ∈ β : x ∈ U } (A.8)
es una base de entornos de x.
2. Sea (X, d) un EM, y pensémoslo como un ET (X, τd ). Sea (an )n∈N una sucesión en R>0
tal que an −−−→ 0. Sea D ⊆ X un subconjunto denso, i.e., tal que D = X. Entonces
n→∞
(a) Para todo x ∈ X, la familia {B(x, an ) : n ∈ N es una base de entornos de x.
(b) La familia β = B(y, an ) : y ∈ D y n ∈ N es una base de τd .
Las pruebas de 1 y de 2 (a) son inmediatas a partir de las definiciones. La de 2 (b) es un
poquito más trabajosa: si x ∈ U ∈ τd , existe una B(x, ε) ⊆ U . Tomemos un an < 2ε . Como
D es denso, en la bola B(x, an ) debe haber un y ∈ D. Pero
y ∈ B(x, an ) =⇒ x ∈ B(y, an ) ⊆ B(x, ε) ⊆ U ,
ya que si z ∈ B(y, an ) se tiene que d(x, z) ≤ d(x, y) + d(y, z) < 2 an < ε. Ahora se puede
aplicar la Prop. A.3.3 y deducir que β es base de τd . 4
406
A.4 Clases de ET’s
La gracia de la topologı́a es que es tan general que se confunde con la teorı́a de conjuntos,
pero en cualquier ET se puede hacer algo de análisis. Sin embargo tanta generalidad hace que
pocos resultados interesantes y sofisticados puedan probarse para todo ET. Por eso, la teorı́a
se construye definiendo diversas clases especı́ficas de ET’s que tengan algunas propiedades
más restrictivas, en las que se muestra que valen teoremas cada vez más ambiciosos. Un
tı́pico teorema topológico tiene un enunciado del siguiente estilo: Sea (X, τ ) un ET de la
clase tal y cual. Entonces en X vale una propiedad sofisticada.
Este tipo de construcción teórica a veces suena un poco acomodaticia. Se corre el riesgo de
hacer el siguiente procedimiento:
1. Primero uno averigua qué se necesita que cumpla X para que camine la demostración,
que uno pensó, de que en X vale la propiedad P .
2. Luego uno define la clase de C de los ET’s que cumplen esos prerrequisitos.
A.4.1 Numerabilidad
Recordemos que un EM se dice separable si tiene un subconjunto denso numerable. En el
contexto general de ET’s, tenemos varias clases diferentes de numerarabilidad, que definire-
mos a continuación. Para abreviar, si queremos decir que un conjunto D es numerable,
escribiremos |D| ≤ ℵ0 . Recordar que |D| es el cardinal de D y ℵ0 = |N|.
Definición A.4.1. Sea (X, τ ) un ET, y asumamos que τ está fijada. Diremos que
1. X es separable si existe D ⊆ X tal que |D| ≤ ℵ0 y D = X.
407
3. X es N2 (o que cumple el segundo axioma de numerabildad), si existe una base
β de τ tal que |β| ≤ ℵ0 .
S
4. X es de Lindeloff, si para todo cubrimiento abierto
S σ ⊆ τ de X (i.e., σ = X),
existe un subcumbrimiento numerable σ0 ⊆ σ, (i.e., σ0 = X y |σ0 | ≤ ℵ0 ). 4
1. (X, τd ) es N1 .
A.4.2 Separación
Sea (X, τ ) un ET. Si no se le pide algo especı́fico a τ , puede haber puntos distintos de X
que resulten indistingibles desde el punto de vista topológico. Por ejemplo puede pasar que
existan x, y ∈ X tales que x 6= y, pero O(x) = O(y). O que O(x) ⊆ O(y). Observar que
en tal caso, x ∈ {y}, por lo que {y} no es cerrado. Pedir condiciones para que estas cosas
no pasen se llama dar propiedades de separación a la topologı́a τ . Estas condiciones están
estratificadas en cinco clases estandarizadas, denominadas Tk , con 0 ≤ k ≤ 4.
Definición A.4.5. Sea (X, τ ) un ET. Diremos que X es de la clase:
408
T0 : Si dados x, y ∈ X distintos, existe
Es fácil ver que τCF (X) es una topologı́a. Este ejemplo es un caso bastante patológico, que
induce a pensar que los axiomas de la topologı́a pueden ser demasiado débiles si uno no pide
condiciones extra. Lo único bueno que tiene es que los puntos de X son cerrados.
Por lo tanto, una topologı́a τ en un conjunto X es de tipo T1 si y sólo si τCF (X) ⊆ τ . Sin
embargo, es claro que (X, τCF (X) ) no es un espacio de Hausdorff, porque no tiene abiertos
disjuntos (no vacı́os). 4
409
La observación que sigue da versiones equivalentes a la definición de regularidad y normal-
idad. Todo es cuasi tautológico, pero conviene tenerlo enunciado y aceptado claramente
desde el principio para encarar más cómodos, y no enturbiar los argumentos de numerosas
demostraciones posteriores (con complementos, clausuras e interiores y más yerbas).
Observación A.4.8. Sea (X, τ ) un ET de calse T1 . Son equivalentes:
1. X es regular
Como decı́amos antes, las pruebas son casi confusas de tan directas. Demostremos la segunda
tanda para dar una idea. Si X es normal y tenemos F ⊆ W como en 2, se toma el cerrado
F2 = X \ W , y se los separa con abiertos disjuntos U ⊇ F y U2 ⊇ F2 . Ahora basta observar
que F ⊆ U ⊆ U ⊆ X \ U2 ⊆ X \ F2 = W .
Asumamos 2. Para probar 3, llamemos W = X \ F2 ⊇ F . El abierto U que provee 2 cumple
que F ⊆ U y que U ⊆ W , por lo que F2 ∩ U = ∅ .
Asumamos ahora 3, y tomemos F y F2 dos cerrados disjuntos. El abierto U que provee 3
cumple que F ⊆ U y que U2 = X \ U es abierto, es disjunto con U , y contiene a F2 . 4
En general, la normalidad es mucho más restrictiva (y más útil) que la regularidad. Pero
como veremos a continuación, un poco de numerabilidad empata las cosas:
Proposición A.4.9. Sea (X, τ ) un ET que es regular y Lindeloff. Entonces X es normal.
Demostración. Ver el Apunte de topologı́a.
La clasificación no termina acá. Falta definir varias clases importantes de ET’s (por ejemplo
compactos, conexos, completamente regulares o de Tychonoff, etc), pero debemos posponerlo
porque nos faltan ver y estudiar las nociones involucradas en sus definiciones, o porque son
clases que ameritan capı́tulo propio, y se las definirá entonces.
410
Las clases de separación recién definidas carecen de interés entre los EM’s porque, como
veremos a continuación, son todos normales. La prueba de esto pasa por una propiedad
que parece aún más fuerte que la normalidad, pero que a la larga (y con notable esfuerzo)
veremos que equivale a ella para cualquier ET.
Lema A.4.10. Sea (X, d) un EM. Dado un A ⊆ X, la función dA : X → R≥0 dada por
es continua. Además, se tiene que A = {x ∈ X : dA (x) = 0}. O sea que ser punto lı́mite se
describe como “distar cero” de A.
Demostración. Sean x, y ∈ X. Para cada z ∈ A tenemos que
d(x, A) ≤ d(x, z) ≤ d(x, y) + d(y, z) =⇒ dA (x) ≤ d(x, y) + inf d(y, z) = d(x, y) + dA (y) .
z∈A
Cambiando roles, también sale que dA (y) ≤ d(x, y) + dA (x). Por lo tanto nos queda que
con lo que dA es recontinua. Observar que, dado x ∈ X, el hecho de que dA (x) = 0 equivale
a que en toda bola B(x, ε) haya puntos de A, o sea que x ∈ A.
Proposición A.4.11. Todo espacio métrico (X, d) es normal. Más aún, dados F1 y F2 ⊆ X
dos cerrados disjuntos, existe una función continua
f : X → [0, 1] tal que f F1 ≡ 0 y f F2 ≡ 1 .
Ahora bien, notar que si x ∈ F1 entonces f (x) = 0, y que f (y) = 1 para todo y ∈ F2 . Para
deducir la normalidad, basta tomar los conjuntos abiertos y disjuntos
que separan a F1 y a F2 .
Ejercicio A.4.12. Sea (X, τ ) un ET de clase T1 , y sea A ⊆ X. Probar que
411
A.4.3 Herencias
Una clase C de ET’s se llama hereditaria, si para todo espacio X de clase C, se tiene
que cualquier subespacio Y ⊆ X sigue siendo C con la topologı́a inducida. Veremos a
continuación cuales de las clases antes definidas son o no hereditarias. La herramienta
básica es la Prop. A.3.7, que reenunciamos para comodidad del lector:
Proposición A.3.7. Sea (Y, τY ) ⊆ (X, τ ). Dados y ∈ Y y B ⊆ Y , se tiene que
1. El conjunto OY (y) de τY -entornos de y se calcula como OY (y) = {V ∩ Y : V ∈ O(y)}.
Análogamente se puede hacer con los entornos abiertos de y en Y .
N1 , N2 , T0 , T1 , T2 y T3 .
412
2. Diremos que f es continua en un punto x ∈ X si
Luego f −1 (A) ∈ Oτ (x). Si ahora asumimos que f es continua en todos los puntos de X
y tomamos un abierto V ∈ σ, para cada x ∈ f −1 (V ) se tiene que V ∈ Oσ (f (x) ). Por la
continuidad en x, vemos que f −1 (V ) ∈ Oτ (x). Esto muestra que f −1 (V ) es entorno de todos
sus elementos. Y por la Prop. A.1.5, deducimos que f −1 (V ) ∈ τ .
Observación A.5.3. Sea f : (X, τ ) → (Y, σ) una función. Luego
para todo ε > 0 existe un δ > 0 tal que dX (z, x) < δ =⇒ dY (f (z), f (x) ) < ε , (A.11)
donde estamos hablando de la continuidad relativa a las topologı́as inducidas por las métricas.
En efecto, basta aplicar la Ec. (A.9), más el hecho de que las bolas alrededor de un punto
forman una base de entornos de ese punto. 4
413
A continuación juntaremos en un enunciado numerosas propiedades de las funciones contin-
uas que, si bien parecen muy elementales, conviene testear cuidadosamente si uno las postula
en el contexto hipergeneral de ET’s.
Proposición A.5.5 (Miscelánea). Sea (X, τ ) un ET. Se tienen las siguientes propiedades:
1. Toda función f : X → Y que es constante es continua.
2. La composición de dos funciones continuas es continua.
3. Sea A ⊆ X, pensado con la topologı́a inducida. La función inclusión JA : A → X
dada por JA (x) = x (x ∈ A) es continua.
4. Si f : X → Y es continua y A ⊆ X, entonces la restricción f A : A → Y es continua.
Z
Si f (X) ⊆ Z ⊆ Y , entonces también la correstricción f : X → Z es continua (en
ambos casos con las topologı́as inducidas).
S
5. Dada una función f : X → Y y un cubrimiento {Uα }α∈A de X (i.e., Ui = X) por
i∈I
conjuntos abiertos tales que f Uα es continua para todo α ∈ A, entonces f es continua.
para todo α ∈ A.
S Pero del hecho de que {Uα }α∈A sea un cubrimiento, podemos deducir
−1 −1
que f (V ) = f (V ) ∩ Uα ∈ τ .
α∈ A
414
Muchas veces uno tiene que definir una función en distintas partes de un espacio X, y después
necesita testear la continuidad de la f “pegoteada”. Por ejemplo, en los items 4 y 5 de la
Prop. A.5.5 vimos que si me dan una f : (X, τ ) → (Y, σ) y una familia {Ui }i∈I de abiertos
de τ que cubren a X, entonces se tiene que
f ∈ C (X, τ ), (Y, σ) ⇐⇒ f Ui es continua , para todo i ∈ I .
Y no importa cuán grande sea el conjunto I. Algo parecido vale para cubrimientos con
cerrados, aunque ahı́ hace falta restringirse al caso de finitos:
Proposición A.5.6 (Lema del pegoteo). Sea f : (X, τ ) → (Y, σ). Sean F1 y F2 dos
cerrados en X tales que F1 ∪ F2 = X. Luego se tiene que
f F1 ∈ C(F1 , Y ) y f F2 ∈ C(F2 , Y ) =⇒ f ∈ C(X , Y ) .
Demostración. Ejercicio.
Las redes, que reemplazarán en esta teorı́a a las sucesiones, son familias indexadas en con-
juntos dirigidos. Para entender la necesidad de este concepto, veamos el siguiente ejemplo:
415
Ejemplo A.6.2. Sea (X, τ ) un ET y sea x ∈ X. Entonces el conjunto O(x), ordenado por
inclusión al revés (o sea que V ≥ U si V ⊆ U ), está dirigido. Lo mismo pasa con cualquier
base de entornos βx de x. En efecto, si V, U ∈ βx , sabemos que existe W ∈ βx tal que
W ⊆ U ∩ V . Luego U ≤ W y V ≤ W . Observar que un subconjunto β ⊆ O(x) es base de
entornos de x si y sólo si es cofinal en O(x) con éste orden. 4
416
(c) Se tiene que y = x ◦ h, es decir que yj = xh(j) para todo j ∈ J.
1. Dado K ⊆ I un subconjunto
cofinal, o sea que para todo i ∈ I existe un k ∈ K tal que
k ≥ i, entonces la red x K = (xk )k∈ K es una subred de x. La h es la inclusión K ,→ I.
2. En particular, fijado cualquier i0 ∈ I, la red (xi )i≥i0 , que está dada por el conjunto
I0 = {i ∈ I : i ≥ i0 } ⊆ I, es subred de x. 4
Observación A.6.6. Es evidente que hace falta aclarar un poco lo de las subredes. Repase-
mos con sucesiones: ellas serán las redes tales que I = N, con su orden usual. Es claro que
dar x : N → X dada por x(n) = xn es la definición formal de ser sucesión. En la notación
anterior, una subsucesión de x será una y que es subred de x, y a la vez es sucesión, o
sea que J = N. También hay que pedirle que h sea estrictamente creciente. Observar
que llamando h(k) = nk para k ∈ N, tendrı́amos que nk < nr si k < r, y nos queda que
y = (yk )k∈N = (xnk )k∈N como estamos acostumbrados. Otra manera de recuperar las sub-
sucesiones en este contexto es observar que un conjunto K ⊆ N es cofinal si y sólo si K es
infinito. Luego uno aplica el Ejer. A.6.5.
Releyendo la definición de subred (ahora en el caso general), vemos que y toma sus valores
entre los de x, y que los ı́ndices de x que aparecen en y son “arbitrariamente grandes” (eso
es que sean un conjunto cofinal de los de x). Esto es parecido a las subsucesiones. Las dos
diferencias fundamentales son
La primera diferencia es parecida a lo que pasa con las redes: hacen falta conjuntos bien
grandes de ı́ndices. La segunda es más sutil y más importante. Uno hubiese querido que se
eligiera al J como un subconjunto cofinal de I, y que h sólo sea la inclusión. Eso parece una
generalización honesta y razonable, si hacen falta conjuntos grandes. De hecho, estas son
subredes (Ejer. A.6.5). Y si habı́amos empezado con una sucesión, todas sus subsucesiones
se construyen de ésta manera. El problema es que todas las subredes construidas de esa
manera (a partir de una sucesión) serı́an subsucesiones.
Pero más adelante veremos que no alcanza con ellas para que la teorı́a camine. Y en realidad
la definición dada enriquece la cosa, porque las subredes podrán ser mucho más grandes
417
que la red original, permitiendo refinarla poniendo muchı́simos yj ’s arriba de cada xi del
conjunto cofinal h(J), y complicar notablemente el tipo de orden de I. Esto es completamente
nuevo, y veremos que además de necesario, será sumamente útil. 4
Observación A.6.7. En muchos textos de topologı́a, en la definición de subred no se pide
que la función h que conecta los ı́ndices sea creciente. Sólo que sea cofinal. La teorı́a,
en tal caso se hace mucho más intrincada y difı́cil, pero gana un poco de generalidad.
Nosotros preferimos dar la versión con h creciente porque con ella se obtienen “almost
all” los resultados que uno quiere que arreglen las subredes, y se gana notablemente en
“transparencia” para las demostraciones. 4
A.7 Convergencia
A continuación daremos unas definiciones lingüı́sticas sobre las redes, que serán convenientes
para manejarse con las nociones de convergencia y de puntos de acumulación.
Definición A.7.1. Sean X un conjunto, A ⊆ X y x = (xi )i∈ I una red en X.
1. Dado i0 ∈ I denotaremos por Ci0 (x) = {xi : i ≥ i0 } a la cola de la red x, pero pensada
como conjunto.
E E
2. Diremos que x está eventualmente en A, y escribiremos x ,→ A o bien (xi )i∈I ,→ A,
si existe un i0 ∈ I tal que Ci0 (x) ⊆ A, o sea que xi ∈ A para todo i ≥ i0 .
F
3. La red x está frecuentementemente en A, y escribiremos x ,→ A, si para todo i ∈ I
se tiene que Ci (x) ∩ A 6= ∅, o sea que existe un j ∈ I tal que j ≥ i y xj ∈ A. 4
Ahora si podemos definir las nociones de convergencia y puntos de acumulación para redes
en un ET:
Definición A.7.2. Sean (X, τ ) un ET, x ∈ X y x = (xi )i∈ I una red en X. Diremos que
1. (xi )i∈I converge a x, y escribiremos xi −−→ x, si para todo entorno U ∈ O(x) se tiene
i∈ I
E
que (xi )i∈I ,→ U (i.e., que existe un iU ∈ I tal que xi ∈ U para todo i ≥ iU ).
Observar que en ambas definiciones basta verificar que las condiciones pedidas se cumplen
para los entornos U de Oa (x) o los de cualquier base βx de O(x). 4
Ejemplo A.7.3 (Convergencia en EM’s). Sea (X, d) un EM, y pensémoslo como ET vı́a la
topologı́a τd . Dados un punto x ∈ X y una red x = (xi )i∈ I en X, se tiene que
τd
xi −−→ x ⇐⇒ la red en R d(xi , x) −−→ 0 ,
i∈ I i∈ I
418
E
y que ambos equivalen a que x ,→ B(x, ε) para todo ε > 0. Para probarlo, basta recordar
que las bolas B(x, ε) son una base de Oτd (x), y que las bolas BR (0, ε) son base de OR (0). 4
Ejercicio A.7.4. Sea (X, τ ) un ET y sea x = (xi )i∈ I una red en X.
E
1. Si A ⊆ X cumple que x ,→ A, entonces toda subred y = (yj )j∈ J de x también cumple
E
que y ,→ A . Para probar esto será util usar que la función h : J → I que determina
a y es creciente y cofinal, por lo que Cj (y) ⊆ Ch(j) (x), y al h(j) se lo puede hacer tan
grande como haga falta.
τ τ
Y
3. Si x vive en un Y ⊆ X e y ∈ Y , entonces xi −−→ y ⇐⇒ xi −−→ y , donde τY es la
i∈ I i∈ I
topologı́a inducida por τ a Y . Lo mismo vale si el y es PA de x (en Y o en X).
E
4. Si xi −−→ x ∈ X, y me dan un cerrado F ⊆ X tal que x ,→ F , entonces x ∈ F . 4
i∈ I
Proposición A.7.5. Sea (X, τ ) un ET y sean x = (xi )i∈ I una red en X y x ∈ X. Las
siguientes propiedades son equivalentes:
Demostración. Si vale 1, las subredes enteras de x convergen a x, por el Ejer. A.7.4. Pero
E
si fuera falso que xi −−→ x, existirı́a un U ∈ Oa (x) tal que x ,→
6 U . Esto significarı́a que
i∈ I
F
x ,→ F = X \ U . En otras palabras, J = {i ∈ I : xi ∈ F } serı́a cofinal para I. Ahora
tomemos la red xJ = (xi )i∈J , que junto con la función inclusión de J en I es una subred de x.
Finalmente, como xJ vive en el cerrado F , todas sus subredes convergentes (si las tuviera)
tendrı́an su lı́mite en F (por el Ejer. A.7.4), ası́ que xJ no tendrı́a subredes que puedan ir
hacia el x en cuestión.
El siguiente Teorema es la justificación del nombre puntos lı́mite para los elementos de la
clausura de un conjunto:
Teorema A.7.6. Sea (X, τ ) un ET. Dados A ⊆ X y z ∈ X, son equivalentes:
Demostración. 2 → 1: Si existe la red xi −−→ z, entonces todo U ∈ O(z) contiene a una cola
i∈ I
Ci0 (x) de x, que vive en A. Eso significa que z ∈ A.
419
1 → 2: Si ahora suponemos que z ∈ A, definamos una red cuyos ı́ndices se muevan en
el conjunto O(z), ordenado con la inclusión al reves, como en el Ejem. A.6.2. Para cada
U ∈ O(z), como sabemos que U ∩ A 6= ∅, elijamos un xU ∈ U ∩ A. Veamos que nuestra red
x = (xU )U ∈O(z) converge a z. La prueba es tan simple que confunde: Si a un U ∈ O(z) lo
pensamos como entorno de z, a partir del mismo U , pero ahora como ı́ndice, tenemos que
V ≥ U =⇒ V ⊆ U y entonces xV ∈ V ∩ A ⊆ V ⊆ U .
E
Esto prueba que x ,→ U , lo que demuestra la convergencia a z.
La prueba se sigue de las definiciones (en τ hay más entornos). En parte por eso es que,
en tal caso, se dice que τ es más fuerte que σ, ya que se dice que una convergencia es más
débil en tanto sea más fácil converger, y más fuerte si pocas series pueden hacerlo.
Sin embargo, si no se ponen algunas restricciones, el fenómeno de la convergencia puede
tener propiedades raras (el tı́pico es que una red tenga más de un lı́mite). Para tener una
idea de esto veamos un ejemplo catastrófico: 4
Ejemplo A.7.8. Sea X un conjunto infinito y consideremos en X la topologı́a cofinita
τCF (X) que ya vimos en el Ejem. A.4.7. En este espacio, muchas redes convergen a todos
los puntos de X.
Por ejemplo, asumamos que una red x = (xi )i∈ I en X cumple que I es infinito, y que la
función x : I → X es inyectiva. Luego, si U ∈ τCF (X), el conjunto {i ∈ I : xi ∈
/ U } es finito,
E
por lo que x ,→ U . Y estamos hablando de todos los abiertos de X, o sea los entornos de
todos los puntos. Si la red cumple algo menos: que las colas
La siguiente Proposición muestra que los espacios de Hausdorff son un ámbito en donde las
cosas son más normales en este sentido:
Proposición A.7.9. Sea (X, τ ) un ET. Las siguientes condiciones son equivalentes:
1. Toda red convergente en X tiene un único lı́mite.
2. X es un espacio de Hausdorff.
420
Demostración. Ejercicio.
Ahora veamos el primer resultado básico de subredes:
Proposición A.7.10. Sea (X, τ ) un ET y sea x = (xi )i∈I una red en X. Luego un punto
z ∈ X es de acumulación para x si y sólo si existe una subred y de x que converge a z.
Demostración. Ver en el Apunte de topologı́a.
Observación A.7.11. Tenemos dos apariciones del nombre punto de acumulación (abre-
viemos PA): para conjuntos y para redes. Conviene aclarar que los conceptos son semejantes,
pero de equivalencias ni hablar. A pesar de que uno podrı́a pensar en una red x = (xi )i∈ I
en un (X, τ ) y en el subconjunto Ax = {xi : i ∈ I} ⊆ X y en sus PA’s. Pero ninguna cosa
implica la otra. La palabra acumulación refiere a que aparecen muchı́simos términos cerca
del punto. Pero en el caso de conjuntos eso refiere a que sean distintos elementos, y en el de
las redes a que aparezcan en distintos momentos (apariciones muy frecuentes).
Observar que la red puede ser constantemente igual a un x ∈ X. Allı́ x es PA de la red x
pero no de Ax . Incluso puede haber una cantidad cofinal de apariciones del x en x y que la
otra mitad se vaya a cualquier otro lado. Pasa lo mismo.
O bien puede pasar que x : I → X sea inyectiva, y que haya un conjunto infinito numerable
J = {in : n ∈ N} ⊆ I tal que la sucesión xin −−−→ x. Entonces se tiene que x ∈ A0x . Pero si
n→∞
J no es cofinal en I (lo que bien puede pasar si, por ejemplo, I = R con su orden), nadie nos
asegura que x sea un PA de x.
Donde las cosas se parecen un poco más es cuando se toman sucesiones. Ahi sı́ puede verse
que, si x : N → X es inyectiva, entonces x es PA de x si y sólo si x ∈ A0x . 4
421
Demostración. Sea {Vm : m ∈ N} ⊆ τ una base de O(x). Para cada n ∈ N, tomemos el
Tn
abierto Un = Vm ∈ τ . Luego βx = {Un : n ∈ N} ⊆ τ es otra base de O(x), que ahora
m=1
cumple que Un+1 ⊆ Un para todo n ∈ N.
F
Tomemos i1 ∈ I tal que xi1 ∈ U1 . Como x ,→ U2 e I no tiene un elemento máximo,
podemos tomar i2 > i1 (o sea que i1 ≤ i2 6= i1 ) tal que xi2 ∈ U2 (se usa el Ejer. A.8.1).
Recursivamente, podemos construir el conjunto J = {ik : k ∈ N} ⊆ I tal que el orden de I
en J cumpla la condicón (a), y tal que xik ∈ Uk para todo k ∈ N. Luego, si tomamos un
Uk ∈ βx , fijamos ese k ∈ N y tomamos cualquier m ≥ k (o sea un im ≥ ik ), se tiene que
ym = xim ∈ Um ⊆ Uk . Esto muestra que yk = xnk −−−→ x.
k→∞
El ejercicio consiste en ver qué parte de lo de arriba esta mal. No puede ser correcto porque
no se usa que X sea N1 . Y ese enunciado es falso en general. 4
Proposición A.8.5. Sea (X, τ ) un ET de tipo N1 . Se tienen las siguientes propiedades
Demostración.
422
de x. Y se tiene que yn −−−→ x. La vuelta sale por el Teo. A.7.6, porque una sucesión
n→∞
es también una red.
2. Se deduce de la Prop. A.8.3 y de la Prop. A.7.10. Observar, para la vuelta, que una
subsucesión es también una subred.
A.9 Conexos
Definición A.9.1. Sea (X, τ ) un ET.
Y ⊆U ∪V , U ∩V ∩Y =∅ pero U ∩ Y 6= ∅ 6= V ∩ Y . (A.13)
Diremos que (U, V ) es una X-separación si se cumplen solamente las dos condiciones de la
izquierda en (A.13). 4
Es claro que Y es disconexo si y sólo si existe una X-separación fuerte (U, V ) de Y , porque
en tal caso U ∩ Y queda clopen y propio (en esto se usa la fortaleza) en (Y, τY ). La recı́proca
sale fácil por la definición de τY . Pero es más util para hacer cuentas la siguiente formulación
Proposición A.9.3. Sea (X, τ ) un ET y sea Y ⊆ X. Si Y es conexo y (U, V ) es una
X-separación de Y , entonces se tiene que Y ⊆ U o bien Y ⊆ V .
Demostración. Si no pasara lo asegurado, (U, V ) serı́a una X-separación fuerte de Y .
Teorema A.9.4. Sea f : X → Y una función continua. Luego f manda conexos en conexos.
Demostración. Basta observar que si A ⊆ X y (U, V ) es una Y -separación fuerte de f (A),
entonces f −1 (U ), f −1 (V ) es una X-separación fuerte de A.
Teorema A.9.5. Sea (X,Tτ ) un ET y tomemos unaSfamilia {Ai }i∈ I de subconjuntos conexos
de X. Si asumimos que Ai 6= ∅, entonces A = Ai es conexo.
i∈ I i∈ I
423
Demostración. Es claro que toda X-separación (U, V ) de A también lo es de cada Ai . Como
éstos son conexos, tienen que caer dentro de U o de V . Pero como U ∩ V ∩ A = ∅ y todos
los Ai se cortan, todos ellos tienen que caer del mismo lado. Por ello no hay separaciones
fuertes de A, que resulta conexo.
Teorema A.9.6. Sea (X, τ ) un ET. Si A ⊆ X es conexo, entonces todo conjunto B tal
que A ⊆ B ⊆ A es también conexo. En particular podemos asegurar que la clausura de un
conexo es conexa.
Demostración. Dada una X-separación (U, V ) de B, y por ende de A, podemos suponer que
A ⊆ U . Si hubiera un x ∈ B ∩ V , como x ∈ A y V ∈ Oa (x), deberı́a suceder que A ∩ V 6= ∅,
lo que no estaba permitido, porque A ∩ V = A ∩ U ∩ V = ∅. Ası́ que B es conexo.
O sea que τF a la mı́nima topologı́a en X que hace de todas las fα funciones continuas.
Esta τF se llama la topologı́a inicial asociada a F, y se caracteriza por el hecho de que
tiene como sub-base a la familia
[n o
ρF = fα−1 (U ) : U ∈ τα . (A.14)
α∈ A
424
E
O sea que x ,→ V . Como esto pasa para todo V ∈ OτF (x), deducimos que xi −−→ x.
i∈ I
Corolario A.10.3. Sea τF la topologı́a inicial en X dada por la familia F = {fα : α ∈ A},
con las fα : X → (Yα , τα ). Sea (Z, σ) otro ET. Dada g : (Z, σ) → (X, τF ), se tiene que
g ∈ C (Z, σ), (X, τF ) ⇐⇒ fα ◦ g ∈ C (Z, σ), (Yα , τα ) para todo α ∈ A . (A.15)
2. Para no confundirnos con las redes, un elemento tı́pico de P se denotará por {xα }α∈ A
(llaves en vez de paréntesis), donde cada xα ∈ Xα .
3. Para cada α ∈ A, llamaremos πα : P → Xα a la proyección que a un elemento
{xα }α∈ A ∈ P lo manda al correspondiente xα .
Q
4. Si para cada α ∈ A tenemos subconjuntos Yα ⊆ Xα , asumiremos que α∈ A Yα ⊆ P.
4
Se busca una topologı́a para el conjunto P que tenga propiedades agradables. Se puede
pensar como modelo a R2 donde, si bien la base común de su topologı́a está formada por
bolas redondas, uno puede también tomar una base de rectangulitos abiertos
(a, b) × (c, d) = (a, b) × R ∩ R × (c, d) = π1−1 (a, b) ∩ π2−1 (c, d) .
Este será, en efecto, el modelo a seguir para la construir lo que se llamará “la topologı́a
producto” en P. Pero hay una decisión a tomar: ¿Qué se hace en el caso de que A sea
infinito? Una opción serı́a multiplicar abiertos de cada τα en todas las cordenadas. Esto se
llamará la topologı́a caja en P. La otra opción (la buena), será mirar el lado derecho de la
ecuación de arriba, y compararla con la Ec. (A.14) de las topologı́as iniciales.
Pensando ası́ podemos tomar la familia de funciones F = πα : α ∈ A , y construir la
topologı́a inicial asociada a F que llamaremos τP = τF . Ya vamos a ver qué pinta tienen
sus abiertos, pero de antemano, sin saber cómo son, sabemos que tendrá las propiedades
agradables en las que pensábamos, que son las traducciones a P de la Prop. A.10.2 y el
Cor. A.10.3. Formalizemos todo esto en el siguiente enunciado:
425
Q
Proposición A.10.4. Sea (Xα , τα ) una familia de ET’s. Sea P = Xα , dotado
α∈ A
α∈ A
de la topologı́a producto τP , que es la inicial asociada a la familia F = πα : α ∈ A . Se
tienen las siguientes propiedades:
1. Una base βP de τP está dada por los conjuntos construidos con el siguiente proceso:
La base βP constará de todos los abiertos de este tipo, moviendose en todos los con-
juntos finitos de ı́ndices F ⊆ A y todas las elecciones de abiertos Uα en los α ∈ F.
3. Una red x = {xi,α }α∈ A )i∈I en P convergerá a un punto {xα }α∈ A ∈ P si y sólo si
o sea que xi,α −−→ xα , para todo α ∈ A (todo esto dentro de cada espacio Xα y en su
i∈ I
topologı́a τα ).
Demostración. Cada ı́tem no es otra cosa de la traducción a este caso particular de los tres
resultados vistos para topologı́as iniciales: El ı́tem 2. es el Cor. A.10.3, y el ı́tem 3. es la
Prop. A.10.2. El ı́tem 1. se basa en la Ec. (A.14). Aquı́ hace falta una aclaración: al inter-
sectar finitas contraimágenes de abiertos (o sea elementos de la sub-base ρF ), como indica la
Prop. A.3.2, podrı́an aparecer varias correspondientes al mismo α, pero con distintos abiertos
de τα . Sin embargo, eso no hace falta escribirlo al describir un elemento de βP , porque la
operación V 7→ πα−1 (V ) respeta intersecciones. Luego uno puede intersectar primero todos
los abiertos correspondientes dentro del mismo τα , y quedarse con un solo Uα para cada α
que aparezca en la lista finita.
Gracias a la Prop. A.10.4 muchas propiedades de los espacios cordenados Xα (si todos ellos
las tienen) siguen siendo válidas en el espacio producto P, siempre que uno use la topologı́a
producto τP . El caso más importante será la compacidad, que veremos más adelante (esto es
el famoso Teorema de Tychonoff). Este tipo de propiedades son las que justifican la elección
consensuada de usarla a ella y no a la de la caja, que podrı́a verse como más intuitiva. Demás
está decir que en el caso de que A sea finito ambas coinciden. Esto muestra, por ejemplo,
que en Rn la topologı́a usual (inducida por la métrica euclı́dea) conicide con la topologı́a
producto, que proviene de pensar a Rn = R × · · · × R.
426
Q
Proposición A.10.5. Sea P = Xα , dotado de la topologı́a producto. Para cada α ∈ A
α∈ A
tomemos subconjuntos Bα ⊆ Xα . Luego la “cajita” B ⊆ P dada por
Y Y
B= Bα , verifica que B = Bα .
α∈ A α∈ A
donde la igualdad de la derecha sobre las clausuras vale por la Prop. A.10.5. El hecho de que
la cosa no camina para espacios normales se puede ver en el Apunte de topologı́a.
Q
Ejercicio A.10.7. Sea P = (Xα , τα ) , dotado de la topologı́a producto τP . Supongamos
α∈ A
que, para cada α ∈ A, tenemos un denso Dα ⊆ Xα . Por la Prop. A.10.5 sabemos que el
427
Q
producto α∈ A Dα es denso en P. Pero se puede construir un denso mucho más chico:
Asumamos que P 6= ∅, y fijemos un x = {xα }α∈ A ∈ P. Definamos los conjuntos
Y Y
DF = Dα × {xα } ⊆ P , para cada F ∈ PF (A) .
α∈ F α∈ A\F
S
Luego el conjunto D = DF es denso es P. 4
F∈ PF (A)
Q
Como cada BF (con la inducida de la producto) es hómeo al respectivo Xα , el paso
α∈F
anterior dice que todos los BF son subconjuntos conexos de P. Por el Teo. A.9.5, también
[
B= BF es conexo ( porque todos los BF se cortan en x) .
F∈ PF (A)
Finalmente, el Ejer. A.10.7 muestra que B es denso es P. Luego el Teo. A.9.6 asegura que
todo P es conexo. La prueba para arcoconexos es más fácil:
Dados x = {xα }α∈A e y = {yα }α∈A ∈ P, tomamos sendas curvas continuas γα : [0, 1] → Xα
que unan cada entrada xα con la respectiva yα , y definimos la curva
γ : [0, 1] → P dada por γ(t) = {γα (t)}α∈A para t ∈ [0, 1] .
Esta γ queda continua por el item 2 de la Prop. A.10.4. Y une x con y.
428
A.10.9 (Producto de funciones). Sean fα : Xα → Yα una familia de funciones indexada por
α ∈ A. Asumamos que todos los conjuntos involucrados son ET’s. Entonces definimos
Y Y Y
F = fα : Xα → Yα , por F {xα }α∈ A = {fα (xα )}α∈ A ,
α∈ A α∈ A α∈ A
la función producto, que opera como las fα en cada cordenada α ∈ A. Si asumimos que
todas las fα tienen la propiedad P , se ve fácilmente que también F tendrá P , para las
propiedades de ser
Eso, más la el item 2 de la Prop. A.10.4 muestra que F es continua. Esto sale también
usando redes, aunque la notación es engorrosa. La prueba de los otros casos es directa y se
deja como ejercicio. 4
Q
Ejercicios A.10.10. Sea P = (Xn , τn ) , dotado de la topologı́a producto τP .
n∈N
3. Si suponemos que todos los Xk son Lindeloff, aún si asumimos que P = X1 ×X2 , puede
suceder que P no sea Lindeloff.
429
1. X es Hausdorff si y sólo si la diagonal
∆X = { (x, y) ∈ X × X : x = y }
es cerrada en la topologı́a producto de X × X.
2. Si X es Hausdorff, (Y, σ) es otro ET y nos dan f, g ∈ C(Y, X), entonces
Zf, g = { y ∈ Y : f (y) = g(y) } es cerrado en Y .
Lamentablemente no vale usar a f − g, porque X no siempre tiene − ni 0. 4
Ejercicio A.10.12. Sea (X, τ ) un ET que es regular y sean x = (xi )i∈ I e y = (yj )j∈ J dos
redes en X, anbas convergentes. Entonces son equivalentes:
• Las dos redes tienen el mismo lı́mite.
• La red “doble” (x , y) = (xi , yj )i,j∈I×J , que vive en X × X, cumple que
E
(x , y) ,→ U para todo abierto U ⊆ X × X tal que ∆X = { (x, x) : x ∈ X} ⊆ U .
O sea que τG a la máxima topologı́a en Y que hace de todas las fα funciones continuas.
Esta τ G se llama la topologı́a final asociada a G, y se caracteriza por el hecho de que
n o
τ G = U ⊆ Y : fα−1 (U ) ∈ τα para todo α ∈ A . (A.16)
El hecho de que tal familia sea una topologı́a se deduce de las propiedades conjuntı́sticas del
operador “tomar contraimagen”. 4
Proposición A.10.14. Sea τ G la topologı́a final en Y dada por la familia G = {fα : α ∈ A},
con las fα : (Xα , τα ) → Y . Sea (Z, σ) otro ET. Entonces, dada g : Y → Z, se tiene que
G
g ∈ C (Y, τ ), (Z, σ) ⇐⇒ g ◦ fα ∈ C (Xα , τα ), (Z, σ) para todo α ∈ A . (A.17)
430
A.10.4 Cocientes
Recordemos que hay tres conceptos en teorı́a de conjuntos que son esencialmente el mismo:
El asunto ahora es suponer que tenemos una topologı́a τ en X y queremos encontrar una
topologı́a piola en el espacio cociente X/∼ . O lo que es lo mismo, dada una función suryectiva
P : (X, τ ) → Y , se busca topologı́a para Y . Esto tiene un sentido geométrico mucho más
sabroso que la cosa conjuntista a secas: Podemos pensar, por ejemplo, al cı́rculo S 1 como
un cociente del intevalo [0, 1] vı́a “pegar” los bordes, identificando al 0 con el 1 y dejando
a los t ∈ (0, 1) solitos. Podemos pensarlo tomando P : [0, 1] → S 1 dada por P (t) = e2π i t ,
donde solo pegamos P (0) = P (1) = 1 ∈ C. Y ya que estamos, seguimos: definimos ahora
P : R → S 1 con la misma fórmula, enrollando R infinitas veces para cada lado (ahı́ las clases
son todas infinitas y discretas). Y ası́ siguiendo aparecen las esferas, los toros y cuanta figura
a uno se le ocurra.
El proceso de considerar la que llamaremos topologı́a cociente, ya sea en X/∼ o en Y ,
de acuerdo a lo que convenga, nos permitirá
1. Por un lado, topologizar espacios cocientes nuevos, lo que agranda la familia de ET’s,
pero también puede aportar al estudio del espacio X original.
2. Por otro lado, aplicar un paquete teórico (las topologı́as finales) a espacios conocidos
como los de los ejemplos, al realizarlos como cocientes de otros más simples de estudiar.
Hacı́a falta toda esta perorata, porque los espacios cociente son de lo más complicado e
intrincado de la teorı́a. Ası́ que ahora que estamos remotivados, empezamos.
431
Definición A.10.15. Sea (X, τ ) un ET, y sea g : X → Y una función suryectiva. Se define
la topologı́a cociente τg en Y como la topologı́a final asociada a la familia unipersonal
G = {g}. Luego
U ⊆ Y : g −1 (U ) ∈ τ .
τg = (A.18)
En otras palabras, dado U ⊆ Y , tenemos que U ∈ τg si y sólo si g −1 (U ) ∈ τ . Observar que
también se tiene que un F ⊆ Y es τg -cerrado si y sólo si g −1 (F ) es τ -cerrado. 4
Proposición A.10.16. Sea (X, τ ) un ET, y sea g : X → Y una función suryectiva. Se
toma en Y la topologı́a cociente τg . Sea (Z, σ) otro ET. Entonces una función
Demostración. Esto no es otra cosa que la Prop. A.10.14 en este caso particular.
Observación A.10.17. Por el espı́ritu con que se contruye τg , uno está tentado de pensar
que la función cociente g : (X, τ ) → (Y, τg ) (se asume g suryectiva) deberı́a ser abierta. O
cerrada. En realidad esto es suficiente pero no necesario.
En efecto, una aplicación cociente no siempre tiene que ser abierta y/o cerrada, como veremos
en los ejemplos. Pero se tiene el siguiente resultado que explica en que sentido ser abierta o
cerrada es una condición suficiente: 4
Proposición A.10.18. Sea g : (X, τ ) → (Y, σ) una función suryectiva, continua y abierta
(o cerrada i.e. g manda cerrados en cerrados). Entonces uno puede asegurar que σ no es
otra que la topologı́a cociente τg .
Demostración. Por ser g continua, sabemos que σ ⊆ τg , porque la topologı́a final es la
máxima de las que hacen continua a g. Si g fuera abierta, como cada V ∈ τg cumple que
g −1 (V ) ∈ τ , se tendrı́a que g g −1 (V ) ∈ σ. Pero el hecho de que g sea suryectiva asegura
que g g −1 (V ) = V . Ası́ se llega a que τg ⊆ σ, y ambas coinciden. La versión de g cerrada
sale igual, usando la observacón final de la Def. A.10.15.
Corolario A.10.19. Sea g : (X, τ ) → (Y, σ) una función suryectiva y continua. Si asumimos
que X es compacto y que Y es Hausdorff, entonces σ es la topologı́a cociente τg .
Demostración. Observar que g es cerrada, porque manda compactos en compactos.
Ejemplo A.10.20. La topologı́a usual del cı́rculo S 1 (la que hereda de la inclusión S 1 ⊆ C)
es la topologı́a cociente de la función g : R → S 1 dada por g(t) = ei 2πt , t ∈ R. En efecto, es
bien claro que g es suryectiva y continua. Pero además g es abierta, como se puede verificar
tomando intervalos abiertos U = (a, b) con b − a < 1/2, porque
1
n a+b b−a o
g(U ) = S ∩ z ∈ C : z, g > cos ,
2 2
432
recta generada por g(a) y g(b). El número cos b−a 2
se visualiza imaginando que a+b2
= 0.
También sale tomando una rama holomorfa adecuada del logaritmo.
En realidad, este ejemplo es interesante desde otro punto de vista: R y S 1 son grupos,
y g es un morfismo. Por ello el núcleo de g, que es Z, es un subgrupo. Y las clases de
equivalencia (ahora pensamos en la ∼ dada por g, que es la congruencia módulo Z) son las
coclases t · Z, para t ∈ [0, 1). En otras palabras, estamos diciendo que la topologı́a cociente
en el grupo cociente R/Z , lo hace homeomorfo a S 1 . Este punto de vista da otra prueba
de que g es abierta (pensada con proyección al cociente): Si U ⊆ R es abierto, entonces
−1
S
g g(U ) = U + n = V . Como en R las translaciones son hómeos, queda que V es
n∈Z
abierto, por lo que g(U ) lo es en S 1 , para la topologı́a cociente. 4
Ejercicio A.10.21. Probar que la g : R → S 1 dada por g(t) = ei 2πt no es cerrada. 4
Definición A.10.22. Sea g : X → Y una función suryectiva y sea A ⊆ X. El g-saturado
de A es el conjunto Sg (A) = g −1 g(A) . Observar queSla clase de g-equivalencia en X de un
x ∈ X, es el conjunto x = g −1 (g(x) ), y que Sg (A) = x. 4
x∈A
cerrados es igual.
Observación A.10.24. Sigamos con las notaciones del Ejem. A.10.20. Se tenı́a la función
g : R → S 1 dada por g(t) = ei 2πt , t ∈ R. Consideremos ahora la función (suryectiva)
g1 = g [0,1] : [0, 1] → S 1 , tomando en S 1 la topologı́a cociente asociada. En este caso g1 no es
abierta, porque [0, 1/2) es abierto en [0, 1], pero g1 ([0, 1/2) ) no es abierto en S1 . En efecto,
Sg1 ([0, 1/2) ) = g1−1 (g1 ([0, 1/2) ) ) = [0, 1/2) ∪ {1} ,
que no es abierto en [0, 1]. Sin embargo, en este caso la topologı́a cociente de S1 asociada a
g1 también coincide con su topologı́a usual. Esto sale porque [0, 1] es compacto, y se puede
aplicar el Cor. A.10.19. Desde este punto de vista, podemos ver de nuevo porqué g1 ([0, 1/2) )
no es abierto en S1 . Basta dibujarlo. 4
433
1. Existe una subsucesión (xnk )k∈ N de x tal que xnk −−−→ x .
k→∞
Por otro lado, dado ε > 0, si un n0 es suficientemente grande, el hecho de que x ∈ A0 permite
E
suponer que xn0 ∈ A ∩ B(x , 2ε ), y la Cauchycidad que x ,→ B(xn0 , 2ε ) ⊆ B(x , ε).
Definición A.11.2. Sea (X, d) un EM. Diremos que X es competo si toda sucesión de
Cauchy en X es convergente. 4
Proposición A.11.3. Sea (X, d) un EM. Las siguientes condiciones son equivalentes:
1. X es completo.
Supongamos ahora que se cumple la condición 2, e imaginemos que una sucesión de Cauchy
y = (yn )n∈ N en X no tiene lı́mite. Definamos Fn = Cn (y) = {ym : m ≥ n}. El hecho de
que y sea de Cauchy dice exactamente que diam (Fn ) −−−→ 0. Y los Fn están encajados por
n→∞
definición. Como todas las colas yn = (ym )m≥n son también sucesiones de Cauchy, y están
tan carentes de lı́mite como y, la Prop. A.11.1 nos dice que Fn0 = ∅ para todo n ∈ N. Ası́
434
llegamos a que cada Fn = Fn ∪ Fn0 = Fn , por T
lo que son todos cerrados. Y de que sean vacı́os
ni hablar. Podemos tomar entonces el x ∈ Fn . Para cada n ∈ N se tiene que tanto xn
n∈N
como x están en Fn . Luego d(xn , x) ≤ diam (Fn ) −−−→ 0 . Ya fué.
n→∞
2. Más aún, si me dan otro par (g, Y ) que cumpla lo mismo (Y es completo y g manda
isométricamente a X a un denso de Y ), enotnces existe una isometrı́a sobre
Esto se reinterpreta como que Φ es “la identidad” en X, si preferimos pensar que las
completaciones X c e Y son conjuntos que contienen a X y que f y g son las inclusiones
de X en ellos.
A.12 Compactos
Sea (X, τ ) un ET y sea K ⊆ X un subconjunto. Recordemos que llamamos cubrimiento
por abiertos de K a una familia
[
σ ⊆ τ tal que K ⊆ σ.
La versión dual de los cubrimientos se describe con intersecciones de cerrados: Dada una
familia F = {Fα }α∈ A de subconjuntos cerrados de X, se dice que
T
F tiene la PIF para K si K ∩ Fα 6= ∅ para todo subconjunto finito F ⊆ A .
α∈ F
Las letras PIF aluden a la propiedad de la intersección finita. Si K = X, se dice que F tiene
la PIF a secas. Comenzaremos con la definición tradicional de compactos (onda Heine-Borel):
435
Definición A.12.1. Sea (X, τ ) un ET. Un subconjunto K ⊆ X es compacto (en X) si
todo cubrimiento por abiertos de K tiene un subcubrimiento finito. En particular, diremos
que X es compacto si pasa lo anterior para los cubrimientos de todo el espacio X. 4
Observación A.12.2. Hace falta aclarar algo de esta Definición. Que el tal K ⊆ X sea
compacto (en X), como se definió arriba, equivale a que el espacio entero (K, τK ), donde τK
es la inducida por τ a K, sea compacto (en sı́ mismo). Esto es ası́ porque los cubrimientos
abiertos de K solito se levantan a cubrimietos abiertos de K dentro de X, y vice versa. En
adelante omitiremos las aclaraciones del tipo “(en X)”, salvo necesidad imperiosa. 4
Teorema A.12.3. Sea (X, τ ) un ET y tomemos un subconjunto K ⊆ X . Luego las
siguientes propiedades son equivalentes:
1. K es compacto.
T
2. Toda familia de cerrados F = {Fα }α∈ A con la PIF para K cumple que K ∩ Fα 6= ∅.
α∈ A
436
Demostración. Sea y ∈ K, y tomemos una red y = (yi )i∈ I en K tal que yi −−→ y. Por el
i∈ I
Teo. A.12.3, y tiene una subred z que converge a un z ∈ K. Sin embargo, por ser subred de
y, la red z también converge a y. Como X es Hausdorff, por lo que los lı́mites son únicos,
tenemos que y = z ∈ K. Esto muestra que K es cerrado.
Ahora veremos que en un espacio de Hausdorff, la propiedad de separar puntos se extiende
a separar subconjuntos compactos:
Proposición A.12.7. Sea (X, τ ) un ET de Hausdorff. Dados K1 , K2 ⊆ X compactos y
disjuntos, existen abiertos U, V ∈ τ tales que
K1 ⊆ U , K2 ⊆ V y U ∩V =∅ . (A.19)
Demostración. Fijemos un x ∈ K1 . Como X es Hausdorff, para cada y ∈ K2 existen abiertos
disjuntos Ay , By ∈ τ tales que y ∈ By y x ∈ Ay . La familia {By }y∈K2 es un cubrimiento de
K2 , del que podemos extraer finitos By1 , . . . , Byn que siguen cubriendo a K2 . Sean
n
\ n
[
Ux = Ayk y Vx = Byk .
k=1 k=1
Es claro que son abiertos, que x ∈ Ux y que K ⊆ Vx . Como Ux ∩ Byk ⊆ Ayk ∩ Byk = ∅ para
Sn
todo k ∈ In , podemos deducir que Ux ∩ Vx = Ux ∩ Byk = ∅.
k=1
Hagamos este laburo en todos los x ∈ K1 . Obtenemos una familia {Ux }x∈K1 que es un
cubrimiento de K1 . Extraigamos finitos Ux1 , . . . , Uxm que siguan cubriendo a K1 . Sean
m
[ m
\
U= Uxk y V = Vxk .
k=1 k=1
Es claro que son abiertos, que K1 ⊆ U y que K2 ⊆ V . Como antes, podemos ver que
U ∩ V = ∅, lo que termina de probar la fórmula (A.19).
437
Proposición A.12.10. Sea f ∈ C(K, X) inyectiva, con K compacto y X Hausdorff.
Entonces f : K ,→ X es un embbeding, o sea que f : K → f (K) es un hómeo.
Demostración. Llamemos Z = f (K). Es claro que f : K → Z es biyectiva y continua.
Veamos que es abierta: Sea F ⊆ K un cerrado. Por la Prop. A.12.5, F es compacto. Por
la Prop. A.12.9, f (F ) es compacto en X. Al ser X un Hausdorff, la Prop. A.12.6 dice que
f (F ) es cerrado en X, y por lo tanto también cerrado en Z. En resumen, f : K → Z manda
cerrados en cerrados. Como es biyectiva, también manda abiertos en abiertos. Por lo tanto
f : K → Z es hómeo.
438
A.13 Compactos en EM’s
Hay varias caracterizaciones y propiedades asociadas a la compacidad que son especı́ficas de
los EM’s, y algunas más para subespacios de Rn .
Sea (X, d) un EM. Si uno toma un compacto K ⊆ X y fija un ε > 0, se puede cubrir a K
con bolas de radio ε, y luego quedarse con finitas. Esta propiedad será casi suficiente para
la compacidad, ası́ que le ponemos nombre:
Definición A.13.1. Sea (X, d) un EM. Diremos que A ⊆ X es totalmente S acotado (TA)
si, para todo ε > 0, existen n(ε) ∈ N y x1 , . . . , xn(ε) ∈ X tales que A ⊆ B(xk , ε). 4
k∈In(ε)
2. Si A cumple que existe un δ > 0 tal que d(x, y) ≥ δ para todo par x 6= y en A, entonces
debe suceder que A0 = ∅.
Las pruebas son elementales: Lo primero se deduce del Ejer. A.4.12 (esto vale en ET’s de
clase T1 ). Lo segundo sale porque en una bola B(x, δ/2) sólo puede haber un elemento de
A. Por el diámetro. Lo último fué probado en la Prop. A.11.1. 4
Teorema A.13.3. Sea (X, d) un EM y sea K ⊆ X. Son equivalentes:
1. K es compacto.
439
A es compacto ⇐⇒ A es TA .
En particular, si A es TA, toda red en A tiene una subred convergente (a alguien de A).
Demostración. Observar que, por ser X completo, sus subconjuntos son completos si y
sólo si son cerrados (el lı́mite de las Cauchy existe, el tema es dónde está). El segundo
ingrediente es que A es TA ⇐⇒ A es TA. Esto es fácil y se deja como ejercicio (recordar
que B ∪ C = B ∪ C, y quien dice dos...).
1. (K, σ) es un ET compacto.
1. (X̃, τ∞ ) es compacto.
440
2. τ es la topologı́a inducida a X por τ∞ .
Veamos las uniones arbitrarias y las intersecciones finitas: Entre cosas de τ no hay drama.
Dada una familia de abiertos Vi0 ∈ τ 0 y sus complementos Fi = X̃ \ Vi0 , para i ∈ I, entonces
\ [ [ \
X̃ \ Vi0 = Fi y X̃ \ Vi0 = Fi .
i∈I i∈I i∈I i∈I
S
Cuando I es finito, la Fi queda cerrada y compacta. Y la intersección cumple eso siempre.
i∈I
Luego operando en τ uno se queda en τ 0 . Si hay de las dos clases (tanto en ∩ como en ∪ ),
0
uno primero reagrupa todas las de cada clase, y opera uno contra uno. Pero allı́ pasa que
si U ∈ τ y V 0 = {∞} ∪ V ∈ τ 0 =⇒ U ∩ V 0 = U ∩ V ∈ τ y U ∪ V 0 = {∞} ∪ (U ∪ V ) ∈ τ 0 .
Por lo tanto τ∞ es una topologı́a en X̃. Para ver que la inducida de τ∞ a X es τ , observar
que si V 0 ∈ τ 0 , entonces V 0 ∩ X ∈ τ (y los de τ estaban todos en τ∞ ). Para ver la densidad,
observar que τ 0 no es otra cosa que Oτa∞ (∞). Además, como X no es compacto, entonces
{∞} ∈ / τ 0 . Luego todo V 0 ∈ Oτa∞ (∞) corta a X, lo que muestra que X es denso en X̃.
Veamos ahora que (X̃, τ∞ ) es compacto: Como τ 0 = Oτa∞ (∞), si σ ⊆ τ∞ es un cubrimiento
de X̃, existe un V 0 ∈ σ ∩ τ 0 (para cubrir al ∞). Sólo falta cubrir X̃ \ V 0 , que es compacto
(en X y en X̃). Y sabemos que σ \ {V 0 } lo cubre. Entonces agregando finitos elementos de
σ a V 0 cubrimos todo X̃, que por ello es compacto.
Por ahora no vamos a hacer nada con esta compactación que hemos construido. El resultado
se hace muy útil cuando X̃ es Hausdorff, y los espacios X que cumplen eso son los llamados
“localmente compactos” (Hausdorff). Para ellos usaremos sistematicamente su X̃, pero ese
laburo se hará en el Capı́tulo que viene (que es sobre esos espacios). Pero ahora daremos
unos ejemplos para entender un poco mejor la construcción.
Ejemplos A.14.4. 1. Tomemos X = R con su topologı́a usual. Entonces R̃ ∼ = S 1.
Esto se puede mostrar con la proyección estereográfica o, mejor dicho, su inversa que
2 −1
podemos explicitar: g(x) = ( x22x+1 , xx2 +1 ) ∈ S 1 , para x ∈ R. Otra manera es hacer
primero R ∼= (0, 1) y después incrustar al (0, 1) dentro de S 1 con la flecha t 7→ ei2πt .
en ∼
2. En forma análoga se puede ver que R = S n , que es la esfera de Rn+1 .
441
3. Sea ahora X = N con la topologı́a discreta. Observar que los únicos compactos de
N son los finitos. Por lo tanto tendremos que τ = P(N) mientras que τ 0 = τCF (N),
nuestra conocida topologı́a cofinita (agregándoles el ∞). Con esto en mente, se puede
ver que Ñ ∼
= { n1 : n ∈ N} ∪ {0}, con la topologı́a inducida de R. Lo lindo de este
1
ejemplo es que el hómeo que uno escribe justifica la polémica fórmula = 0.
∞
4. Si tomamos X = (0, 1) ∪ (2, 3), queda que X̃ es un “ocho”, o el mismı́simo ∞. Y si
ponemos 3 o 4 intervalos abiertos disjuntos nos queda un trébol.
5. Los ejemplos anteriores justifican que se llame ∞ al punto que se agrega al hacer
Alexandrov. Sin embargo no siempre queda tan clarito “para dónde” está el infinito.
La cosa se pone más brava si tomamos X = Q. Intuitivamente, en Q tenemos al
infinito por todos lados, porque está lleno de redes sin lı́mites en Q, y no solo hacia los
dos costados. Lamentablemente no es fácil dar un modelo de Q̃, porque los compactos
de Q, además de los finitos, incluyen sucesiones convergentes junto con sus lı́mites, y
la cosa se complica bastante. De paso un ejercicio: Mostrar que, a diferencia de los
ejempos anteriores (donde X̃ quedaba metrizable), Q̃ no es ni Hausdorff. 4
442
donde V = X \ K. Como X es Hausdorff, K es cerrado, por lo que V ∈ τ y V 0 ∈ τ 0 .
Ejemplo A.15.5. Todo subconjunto cerrado o abierto de algún Rn , incluso todo ET que
“localmente” es hómeo uno de esos (esto incluye a las variedades de la geometrı́a diferencial)
es automáticamente LKH. Aún ası́, esta clase es muy restrictiva (al asunción de ser LKH es
costosa), pero vale la pena estudiarla porque los LKH son los espacios más usados en análisis
y geometrı́a. Veremos además que tienen propiedades fuertes que justifican ese interés.
Observemos que, al contrario de lo que uno puede pensar por exceso de Rn , existen EM’s
completos que no son LK. Y muchos. Veremos bastantes de ellos en el Capı́tulo de EVT’s,
pero mostremos ahora uno concretito. Sea `∞ (N) el espacio de sucesiones acotadas de
números complejos con la métrica del supremo: Dados a = (an )n∈ N , b = (bn )n∈ N ∈ `∞ (N),
443
Por el Teorema de Tychonoff y la Prop. A.12.8, DX es un compacto Hausdorff. El hecho de
que X sea CR significa que C(X, [0, 1]), y a fortiori Cb (X), separan a X. Luego
es un embbeding. Llamemos β(X) = F (X). Por la Obs. A.14.2, el par (F, β(X) ) es una
H-compactificación de X, que se llama la compactificación de Stone Čech. 4
Teorema A.16.2. Sea (X, τ ) un ET de Tychonoff. Consideremos (F, β(X) ) su compacti-
ficación de Stone Čech. Entonces
1. Para toda g ∈ Cb (X) existe una unica g̃ ∈ C(β(X) ) que extiende a g, en el sentido de
que g̃ ◦ F = g.
Ψ : β(X) → [0, 1]C(K,[0,1]) , dada por Ψ(y) = {g̃f (y)}f ∈C(K,[0,1]) , y ∈ β(X) .
444
Observar que las g̃f toman valores en [0, 1] por que las gf = f ◦ h lo hacen, y porque
F (X) es denso en β(X) (recordar que g̃f ◦ F = gf ). Además, para cada x ∈ X,
ΦK ◦ F = m ◦ Ψ ◦ F = m ◦ G ◦ h = h .
3. En caso de que (h, K) cumpliese 1, podrı́amos rehacer el ı́tem 2, pero con los papeles
cambiados. Esto es porque sólo se usó de β(X) el que tenga extensiones de las funciones
continuas acotadas en X. Ese laburo producirı́a una Φβ(X) ∈ C(K , β(X) ) tal que
Φβ(X) ◦ h = F . Pero estas condiciones funtoriales (la otra es ΦK ◦ F = h) permiten
porbar que ambas composiciones de las Φ’es coinciden con la identidad en los densos
F (X) y h(X). Luego son una la inversa de la otra y son hómeos.
El conjunto que buscamos será B(X) = RU (X)/ ∼ , que consta de las clases de equivalencia
(que notaremos x, para cada red universal x en X) de la relación que acabamos de definir.
Es claro que, para cada f ∈ Cb (X), su ϕf se “baja” bien al cociente B(X). Llamemos
ahora φf : B(X) → C a la función bajada dada ahora por φf (x) = xf , x ∈ RU (X). Sea
F = {φf : f ∈ Cb (X)}. Notar que ahora F separa puntos de B(X).
La topologı́a para B(X) seá la inicial τF , dada por la familia F. Y el embbeding será
G : X → B(X) dado por G(x) = cx , donde cx es la sucesión constantemente igual a x .
445
Se podrı́a probar a mano que el espacio (B(X), τF ) es compacto (Hausdorff es, porque F
separa puntos), pero es más fácil ver que hay un hómeo entre β(X) y B(X) que conmuta
con los embbedings (lo que de paso mostrará que G era un embbeding). Los detalles de esa
cuenta se dejan como ejercicio. 4
La construcción anterior es en escencia la misma que la original, pero describe mejor que
lo que se agrega a X son los lı́mites de redes en X hacia los “bordes”. La similitud está
en que ambas se basan en la acción de Cb (X), ya sea en un producto o en las RU’s de X.
Esta acción es clave en este ejemplo porque es la que define la relación de equivalencia de la
Ec. (A.22) en RU (X). 4
Es fácil ver que d∞ está bien definida (es < ∞) y que es una métrica en `∞ (X, Y ).
4. En el caso de que el espacio Y sea acotado, se tiene que `∞ (X, Y ) = Y X , o sea todas
las funciones f : X → Y . Además sucede que Cb (X, Y ) = C(X, Y ). 4
o sea que d(fn (x) , f (x) ) < ε para todos los x ∈ X a partir del mismo m. 4
446
El siguiente enunciado da la máxima generalidad a la conocida frase “lı́mite uniforme de
funciones continuas es continua”.
Proposición A.17.3. Sean (X, τ ) un ET e (Y, d) un EM. Entonces se tiene que Cb (X, Y )
es d∞ -cerrado en `∞ (X, Y ). Si Y era acotado, reescribimos: C(X, Y ) es d∞ -cerrado en Y X .
d
Demostración. Sea (fn )n∈ N una sucesión en Cb (X, Y ) y sea f ∈ `∞ (X, Y ) tal que fn −−−
∞
→ f.
n→∞
Para ver que f es continua, tomemos una red x = (xi )i∈ I en X tal que xi −−→ x. Dado ε > 0,
i∈ I
la Ec. (A.23) asegura que existe un n ∈ N tal que d∞ (fn , f ) < 3ε . Como fn ∈ C(X, Y ),
existe un i0 ∈ I tal que d(fn (xi ), fn (x) ) ≤ 3ε para todo i ≥ i0 . Luego
d(f (xi ) , f (x) ) ≤ d(f (xi ) , fn (xi ) ) + d(fn (xi ) , fn (x) ) + d(fn (x) , f (x) )
Sólo falta ver que el lı́mite f es acotada (si todas las fn lo son). Pero si tomamos un n ∈ N
tal que d∞ (fn , f ) < 1, entonces es fácil ver que
diam f (X) ≤ 2 + diam fn (X) < ∞ , (A.24)
ε
Dado ε > 0, sea n1 ∈ N tal que d∞ (fk , fm ) < 2
para todo k, m ≥ n1 . Luego, si k ≥ n1 ,
ε
d(fk (x) , f (x) ) = lı́m d(fk (x) , fm (x) ) ≤ sup d(fk (x) , fm (x) ) ≤ < ε, (A.25)
m→∞ m≥n1 2
para todos los x ∈ X a la vez. La igualdad = se deduce de que fm (x) −−−→ f (x), usando
m→∞
el Lema A.4.10. La Ec. (A.25) muestra que d∞ (fn , f ) −−−→ 0. Tomando un n tal que
n→∞
d∞ (fn , f ) < 1, la Ec. (A.24) nos asegura que f ∈ `∞ (X, Y ) . Listo el caso `∞ (X, Y ) .
La completitud de Cb (X, Y ) sale usando ahora la Prop. A.17.3, porque Cb (X, Y ) es un sub-
conjunto cerrado del espacio completo `∞ (X, Y ) .
447
En el caso particular de que Y = Rn o Cn , los espacios `∞ (X, Y ) y Cb (X, Y ), además de
métricos, son espacios “normados”. Esto significa son espacios vectoriales y que la métrica
es homogénea e invariante por translaciones. Por ejemplo, dada f ∈ RX , se define
kf k∞ = sup |f (x)| . Observar que kf k∞ < ∞ si y sólo si f ∈ `∞ (X, R) . (A.26)
x∈X
∞
P
cuya norma verifica que kf k∞ ≤ kfn k∞ .
n=1
Demostración. Por la Prop. A.17.4, para mostrar la convergencia de la serie, basta ver que
n
P
la sucesión gn = fk es de Cauchy para la d∞ . Pero si n < m, por la Ec. (A.27),
k=1
m
X
m
X
d∞ (gm , gn ) = kgm − gn k∞ =
fk
≤ kfk k∞ −−−−−→ 0 ,
∞ n, m → ∞
k=n+1 k=n+1
∞
P
por la hipótesis de que kfn k∞ < ∞. Además, como la función g 7→ kgk∞ es continua,
n=1
Xn
n
X ∞
X
kf k∞ = lı́m kgn k∞ = lı́m
fk
≤ lı́m kfk k∞ = kfk k∞ ,
n→∞ n→∞ ∞ n→∞
k=1 k=1 k=1
448
y quien dice dos, dice finitos (la inducción es directa). En efecto, tomando complementos,
esto equivale a decir que, dados dos abiertos U, V ⊆ X, vale que
si tanto U como V son densos en X , también debe ser denso U ∩ V .
Veamos esto: Si me dan un x ∈ X y un W ∈ Oa (x), usando que U es denso tenemos que
∅ 6= W ∩ U ∈ τ . Tomando cualquier y ∈ W ∩ U , nos queda que W ∩ U ∈ Oa (y). Ahora por
la densidad de V arribamos a que W ∩ (U ∩ V ) 6= ∅. Por ello, x ∈ U ∩ V .
Como decı́amos antes, estos resultados se extienenden a uniones finitas de cerrados sin inte-
rior, o intersecciones finitas de abiertos densos. Pensando en una generaliización a uniones
o interseccioines infinitas, uno no puede aspirar a algo completamente general, porque en
cualquier espacio X que sea razonable, todo abierto es unión de cerrados sin interior (los
singueletes de todos sus elementos).
Pero imginándose rectas en R2 o superficies en R3 , uno llegarı́a a arriesgar que si la cantinad
de cerrados es numerable, podrı́a valer una fórmula tipo (A.28). Sin embargo, algunas re-
stricciones habrá que poner. Por ejemplo, si X = Q, la obstrucción recién planteada seguirı́a
vigente (con numerables puntos uno llena lo que sea). De hecho, mirando el argumento de
arriba, si los abiertos fueran numerables harı́a falta “encajar” infinitos entornos y que quede
algo en todos a la vez.
Y ahora les contamos el final: Como uno podrı́a suponer por lo dicho antes, hay dos caminos
para asegurarse la extensión de (A.28) al caso numerable: que X sea un EM completo (bolas
cerradas encajadas), o que sea un ET localmente compacto Hausdorff (entornos compactos
+ la PIF). Y el “detective” que los descubrió es René-Louis Baire.
Teorema A.18.1 (Baire). Sea (X, τ ) un ET que cumple alguna de estas dos hipótesis:
EMC: X es un espacio métrico completo.
LKH: X es localmente compacto Hausdorff.
Entonces para toda familia numerable {Fn }n∈N de cerrados de X se tiene que
[ ◦
Fn◦ = ∅ para todo n ∈ N =⇒ Fn = ∅ .
n∈N
449
Caso EMC: Sea x ∈ X y ε > 0. Tomemos la bola cerrada B0 = B(x, ε). Como U1 es denso,
tenemos que ∅ 6= U1 ∩ B(x, ε) ∈ τ . Luego existe una bola B1 = B(x1 , ε1 ) ⊆ U1 ∩ B(x, ε),
donde podemos asumir que ε1 ≤ ε2 .
Ahora cortamos B1◦ = B(x1 , ε1 ) con U2 . Por la densidad de U2 podemos armar una bola
cerrada B2 , de radio no mayor a ε4 , tal que B2 ⊆ B1◦ ∩ U2 ⊆ U1 ∩ U2 . Recursivamente,
obtenemos una sucesión (Bn )n∈N de bolas cerradas tales que, para todo n ∈ N,
\ ε
Bn ⊆ Uk , Bn+1 ⊆ Bn◦ y diam (Bn ) ≤ n .
k∈ I
2
n
T
La Prop. A.11.3 nos dice ahora que existe un y ∈ Bn . Y la primera condición de arriba
T n∈N
fuerza a que y ∈ Un , además de estar en B(x, ε), que era un entorno genérico del puntito
n∈N T
x. Ası́ llegamos a que x está en la clausura de Un , para todo x ∈ X. 4
n∈N
Caso LKH: La construcción es similar. Recordemos que, como ahora X es LKH, es bien
sabido que todo punto de X tiene una base de entornos compactos. Si me dan x ∈ X y
un V ∈ Oa (x), como V ∩ U1 6= ∅, encuentro un y ∈ V ∩ U1 . Tomo un K1 ∈ O(y) que sea
compacto tal que K1 ⊆ V ∩ U1 . Después corto K1◦ con U2 , y tomo un entorno compacto K2
de algún punto de K1◦ ∩ U2 ⊆ U1 ∩ U2 (K1◦ 6= ∅ porque K1 es entorno de y). Ası́ siguiendo,
construyo la sucesión (Kn )n∈N de compactos (con interior) tales que, para todo n ∈ N,
\
Kn ⊆ Uk y Kn+1 ⊆ Kn◦ ⊆ K1 ⊆ V .
k∈ In
Ahora uso que K1 es compacto, y que la sucesión (Kn )n∈N tiene la PIF para K1 (toda
Kn 6= ∅ y además Kn ⊆ K1 ). Por ello, el Teo. A.12.3
intersección finita me da el último T
asegura que puedo tomar un z ∈ Kn 6= ∅. Como en el caso anterior, me queda que
n∈N
Un . Como V ∈ Oa (x) era genérico, volvemos a llegar que x está en la clausura
T
z∈V ∩
T n∈N
de Un , para todo x ∈ X.
n∈N
Observación A.18.2. Las pruebas de las dos mitades del Teorema de Baire son casi iguales,
pero no se puede usar un solo argumento para ambas. Esto es ası́ porque hay espacios LKH
que, aún siendo métricos no son completos, como el intervalo (0, 1). Y porque hay EM’s
completos donde las bolas (cerradas) no pueden ser compactas. Esto pasa en todos los
espacios de Banach de dimensión infinita. 4
450