Sei sulla pagina 1di 451

Análisis Funcional vs.

Matricial

Demetrio Stojanoff

December 3, 2010
Índice

I Análisis funcional básico 6


1 Espacios normados 7
1.1 Normas de vectores, funcionales y operadores. . . . . . . . . . . . . . . . . . 7
1.2 Ejemplos más famosos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Cálculo de algunos duales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4 El lema de Riesz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.5 Isomorfismos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6 Subespacios finitodimensionales. . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.7 Cocientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.8 Algunos ejemplos de operadores. . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.9 Ejercicios del Cap. 1 - Espacios Normados . . . . . . . . . . . . . . . . . . . 37

2 Funcionales y Operadores 46
2.1 Hahn Banach: El dual es grande. . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2 Recordando Baires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3 Teorema de la imagen abierta. . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4 Teorema del gráfico cerrado. . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.5 Principio de acotación uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.6 Dualidad y adjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.7 Proyectores y subespacios complementados . . . . . . . . . . . . . . . . . . . 68
2.8 Ejercicios del Cap. 2 - Funcionales y Operadores . . . . . . . . . . . . . . . . 75

3 Espacios de Hilbert 83
3.1 Preliminares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2 Ortogonalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.3 P
Teorema de representación de Riesz. . . . . . . . . . . . . . . . . . . . . . . 89
3.4 i∈I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.5 Bases ortonormales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.6 Stone-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.7 Series de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.8 Ejercicios del Cap. 3 - Espacio de Hibert . . . . . . . . . . . . . . . . . . . . 104

1
4 Operadores en espacios de Hilbert 108
4.1 El adjunto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.2 Clases de operadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.3 Positivos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.4 Descomposición polar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.5 Subespacios invariantes y matrices . . . . . . . . . . . . . . . . . . . . . . . . 127
4.6 Operadores de rango finito. . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.7 Ejercicios del Cap 4: Operadores en EH’s . . . . . . . . . . . . . . . . . . . . 135

5 Espacios localmente convexos 141


5.1 Seminormas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.2 Espacios localmente convexos. . . . . . . . . . . . . . . . . . . . . . . . . . . 146
5.3 Hahn Banach versión separación . . . . . . . . . . . . . . . . . . . . . . . . . 148
5.4 Krein-Milman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
5.5 Topologı́as débiles en espacios normados y ELC’s . . . . . . . . . . . . . . . 152
5.6 Alaoglu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.7 Una caracterización de la reflexividad . . . . . . . . . . . . . . . . . . . . . . 160
5.8 Miscelánea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.9 Ejercicios del Cap 5: ELC’s . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

6 Espectro 166
6.1 Álgebras de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
6.2 Ejemplos y ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
6.2.1 El espectro depende del álgebra . . . . . . . . . . . . . . . . . . . . . 175
6.2.2 Gelfand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
6.3 Espectro de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
6.4 Espectro de autoadjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
6.5 Cálculo funcional continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
6.6 Propiedades de la raı́z cuadrada positiva . . . . . . . . . . . . . . . . . . . . 193
6.7 Ejercicios del Cap. 6 - Espectro . . . . . . . . . . . . . . . . . . . . . . . . . 197

7 Operadores compactos 205


7.1 Definiciones y equivalencias . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
7.2 Fredholm inicia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
7.3 Espectro de compactos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
7.4 Representaciones espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
7.5 Fredholm sigue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
7.6 La traza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
7.7 Ejercicios del Cap. 7 - Operadores compactos . . . . . . . . . . . . . . . . . 238

2
II Teorı́a Matricial de Operadores 244
8 Ángulos entre subespacios. 245
8.1 Preliminares y Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
8.2 Ángulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
8.3 Seudoinversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
8.4 Módulo mı́nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254

9 Complementos de Schur de operadores positivos 260


9.1 Factorización e inclusiones de rangos. . . . . . . . . . . . . . . . . . . . . . . 260
9.2 Operadores definidos positivos. . . . . . . . . . . . . . . . . . . . . . . . . . 262
9.3 Shorted de un operador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
9.4 Rango y Núcleo de los operadores shorted. . . . . . . . . . . . . . . . . . . . 267
9.5 Otras caracterizaciones del Shorted. . . . . . . . . . . . . . . . . . . . . . . . 269
9.6 Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
9.7 La ecuación X = A − B ∗ X −1 B. . . . . . . . . . . . . . . . . . . . . . . . . . 273
9.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277

10 Rango y Radio Numéricos 279


10.1 Definiciones y propiedades básicas . . . . . . . . . . . . . . . . . . . . . . . . 279
10.2 El Teorema de Hausdorff Töeplitz . . . . . . . . . . . . . . . . . . . . . . . . 280
10.3 Caracterizaciones del radio numérico . . . . . . . . . . . . . . . . . . . . . . 285
10.4 Comparación con NUI’s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

11 Normas unitariamente invariantes para operadores compactos 293


11.1 Normas unitariamente invariantes . . . . . . . . . . . . . . . . . . . . . . . . 294

12 Productos escalares torcidos 298


12.1 Proyectores A-autoadjuntos y compatibilidad . . . . . . . . . . . . . . . . . . 298
12.2 Caracterizaciones de la compatibilidad . . . . . . . . . . . . . . . . . . . . . 301
12.3 Complementos de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
12.4 El caso R(A) v H . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
12.5 El caso de dos proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
12.6 El caso A inyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
12.7 La proyección minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
12.8 Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317

13 Proyectores escaleados 322


13.1 Problemas de cuadrados mı́nimos y proyecciones A-autoadjuntas. . . . . . . 322
13.2 Proyecciones escaleadas en dimensión infinita. . . . . . . . . . . . . . . . . . 329
13.3 Caracterizaciones de la B-compatibilidad . . . . . . . . . . . . . . . . . . . . 334

3
III Marcos 337
14 Frames 338
14.1 Nociones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
14.2 Perturbaciones de frames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
14.3 Proyecciones y frames . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
14.3.1 Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . 343
14.3.2 Proyecciones Oblicuas . . . . . . . . . . . . . . . . . . . . . . . . . . 344
14.4 Frames de Riesz y de Riesz condicionados . . . . . . . . . . . . . . . . . . . 347
14.4.1 Frames de Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
14.4.2 Un contraejemplo: . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
14.4.3 Ángulos entre columnas . . . . . . . . . . . . . . . . . . . . . . . . . 352
14.5 Yo me borro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
14.5.1 Excesos y Borrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
14.5.2 Frames que contienen bases Riesz . . . . . . . . . . . . . . . . . . . . 361
14.6 Truncaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
14.7 Marcos de Gabor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
14.7.1 Motivaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
14.7.2 Algunos resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367

15 Marcos de fusión 371


15.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
15.2 Nociones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
15.3 Marcos de fusión y operadores . . . . . . . . . . . . . . . . . . . . . . . . . . 374
15.4 Pesos Admisibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
15.5 Proyectores y marcos de subespacios. . . . . . . . . . . . . . . . . . . . . . . 381
15.6 Refinamientos de marcos de subespacios. . . . . . . . . . . . . . . . . . . . . 383
15.7 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386

IV Resultados Preliminares 399


A Topologı́a 400
A.1 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
A.2 Cerrados, lı́mites y clausuras . . . . . . . . . . . . . . . . . . . . . . . . . . . 402
A.3 Bases y sub-bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
A.3.1 Topologı́a inducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
A.4 Clases de ET’s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
A.4.1 Numerabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
A.4.2 Separación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
A.4.3 Herencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
A.5 Continuidad básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
A.6 Redes y subredes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
A.7 Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418

4
A.8 Sucesiones en espacios N1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
A.9 Conexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
A.10 Productos y cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
A.10.1 Topologı́a inicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
A.10.2 Topologı́a producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
A.10.3 Topologı́a final . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430
A.10.4 Cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
A.11 Espacios métricos completos . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
A.12 Compactos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
A.13 Compactos en EM’s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
A.14 Compactificación de Alexandrov: Un punto . . . . . . . . . . . . . . . . . . . 440
A.15 Espacios localmente compactos . . . . . . . . . . . . . . . . . . . . . . . . . 442
A.16 Stone Čech . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
A.17 Métricas uniformes en C(X, Y ), con Y un EM . . . . . . . . . . . . . . . . . 446
A.18 Teoremas de Baire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448

5
Parte I

Análisis funcional básico

6
Capı́tulo 1

Espacios normados

Llamemos K = R o C. Un espacio vectorial topológico (EVT) es un espacio topológico


(E, τ ) en el que E es un K-espacio vectorial, y la topologı́a τ es de Hausdorff y cumple que
las operaciones vectoriales

E × E 3 (x, y) 7→ x + y ∈ E y C × E 3 (λ , x) 7→ λ x ∈ E (1.1)

son continuas, cuando en E × E y en C × E se usan las topologı́as producto. En particular


esto hace que, para cada x ∈ E fijo, las aplicaciones Tx : E → E dada por Tx (y) = x + y

y Mx : C → E dada por Mx (λ) = λ x (1.2)

sean continuas. Observar que cada Tx es un hómeo, con inversa T−x . Esto dice que, fijado
un x ∈ E, podemos calcular siempre los entornos de x como
def 
Oτ (x) = x + Oτ (0) = x + U = Tx (U ) : U ∈ Oτ (0) .

O sea que para dar una topologı́a de EVT, basta con conocer una base (o sub-base) de
entornos del cero de E.

1.1 Normas de vectores, funcionales y operadores.


Veremos en principio los ejemplos de EVT’s dados por una métrica. En el contexto de
espacios vectoriales, interesan particularmante las métricas d que cumplen dos condiciones
de compatibilidad con la estructura: Fijado el par (E, d), donde E es un K-EV y d una
métrica en E, se pide que para todo λ ∈ K y todos los vectores x, y, z ∈ E se cumpla
• Que d sea invariante por translaciones, o sea que d(x + z , y + z) = d(x , y) .

• Que sea homogénea: d(λ x , λ y) = |λ| d(x , y) .


Estas métricas se definen a traves de la noción de norma en el espacio vectorial.
1.1.1. Fijemos un K-espacio vectorial E. Diremos que una función k · k : E → R+ es

7
1. Una norma, si cumple que

(a) kαxk = |α| kxk (α ∈ K, x ∈ E).


(b) kx + yk ≤ kxk + kyk (x, y ∈ E).
(c) Dado x ∈ E , se tiene que kxk = 0 si y sólo si x = 0.

La métrica resultante se define como d (x, y) = kx − yk, para x, y ∈ E.

2. En tal caso, el par (E, k · k) pasa a llamarse una espacio normado (shortly: EN).

3. El par (E, k · k) se llamará espacio de Banach (adivinen: EB) si la métrica d hace


de E un EM completo (mirar antes la Prop. 1.1.2 de abajo).

4. Si (E, k · k) es un espacio normado, denotaremos por BE = {x ∈ E : kxk ≤ 1} a su


bola cerrada de radio uno.

5. Diremos que la función k · k de arriba es una seminorma, si cumple (a) y (b) pero no
necesariamente (c). 4

Proposición 1.1.2. Sea (E, k · k) un EN. Luego:

1. La d (x, y) = kx − yk (para x, y ∈ E) es, efectivamente, una métrica en E.

2. Con la topologı́a asociada a d, E nos queda un EVT. En particular las translaciones


E 3 y 7→ y + x y las flechas K 3 λ 7→ λ x (con x fijo) son continuas.

3. La función norma es continua. Más aún, vale la desigualdad



kxk − kyk ≤ kx − yk = d (x, y) , para todo par x, y ∈ E . (1.3)

Demostración. En principio observar que d (x, y) = kx − yk = 0 ⇐⇒ x = y, por la


condición (c). Además, una desigualdad triangular se deduce fácilmente de la otra. Para ver
que (E, τd ) es un EVT, basta mencionar que la continuidad de las aplicaciones de la Ec. (1.1)
se deduce directamente de las condiciones (a) y (b) de la definición de norma. Por ejemplo

kλ x − µ yk ≤ kλ x − µ xk + kµ x − µ yk = |λ − µ| kxk + |µ| kx − yk ,

para x, y ∈ E y λ, µ ∈ K cualesquiera, por lo que K × E 3 (λ, x) 7→ λ x es continua. La


Ec. (1.3) es otra consecuencia fácil de la desigualdad triangular de las normas. 
El hecho de que toda norma defina una métrica sobre un espacio vectorial dado, nos permite
hablar de los conceptos topológicos habituales como abiertos y cerrados; junto con ellos
aparecen en forma natural otros algo más complejos, como por ejemplo el borde de un
conjunto, un conjunto nunca denso (magro) o un conjunto denso en todo el espacio.
Como en ET’s generales, diremos que un EN es separable si tiene un denso numerable.
También se puede “completar” un normado, obteniendo un Banach que tiene al anterior

8
como subespacio denso. Esto se puede hacer a mano, pero será más fácil un poco más
adelante (ver Obs. 2.1.14). Además tiene sentido definir funciones continuas en un EN. La
cosa se pone interesante cuando uno se cuestiona la continuidad de las funciones K-lineales.
Ahora daremos las notaciones sobre este tema:
Notaciones 1.1.3. Sean E y F dos K-EV’s.
def
1. Denotaremos por E 0 = {ϕ : E → K : ϕ es lineal } al espacio dual algebráico de E.
def
2. Llamaremos Hom (E, F ) = {T : E → F : T es K-lineal } al espacio de transforma-
ciones lineales (se abrevia TL) entre E y F .

3. Si T ∈ Hom (E, F ) y x ∈ E, escribiremos T x en lugar de T (x) cuando sea posible.


Esto se hace por analogı́a con las matrices, y para ahorrar paréntises. Llamaremos
def
(a) ker T = T −1 ({0}) = {x ∈ E : T x = 0} ⊆ E, al núcleo de T .
def
(b) R(T ) = T (E) = {T x : x ∈ E} ⊆ F , al rango (o imagen) de T .

Observar que tanto ker T ⊆ E como R(T ) ⊆ F son subespacios.

4. Si ahora pensamos que (E, k·k ) es un EN, no siempre vale que toda ϕ ∈ E 0 es continua
respecto de k · k. Lo mismo si F es también normado y T ∈ Hom (E, F ).

5. Por ello de denomina dual “topológico” de E al K-EV


 
E ∗ = {ϕ ∈ E 0 : ϕ es k · k-continua } = E 0 ∩ C (E, k · k), K .
def
(1.4)

6. Si E era un C-EV, denotaremos por ER0 y ER∗ a sus duales pensándolo como R-EV (o
sea las funcionales ϕ : E → R que son R-lineales). 4
1.1.4. El hecho de pedirle a una TL que sea continua suena raro. De hecho en Kn son mucho
más que continuas, son las cosas por las que uno quiere aproximar otras funciones para que
sean “suaves”. Sin embargo, al subir a dimensión infinita la “mayorı́a” de las funcionales no
son continuas. Antes de seguir con la teorı́a mostremos un ejemplo para convencer al lector
incrédulo. Llamemos SF al subespacio de KN (todas las sucesiones en K) generado por la
“base canónica” infinita E = {en : n ∈ N}. Obviamente cada en es la sucesión que tiene
todos ceros salvo un uno en el lugar n-ésimo. El espacio SF consta de las “sucesiones finitas”,
en el sentido de que a partir de un momento todas sus entradas se anulan. Pongamos en
SF la norma supremo kxk∞ = sup |xn | , para x = (xn )n∈ N ∈ SF . Definamos ahora una
n∈N
funcional no continua: Sea ϕ ∈ SF0 dada por la fórmula
X
ϕ(x) = n2 · xn para cada x = (xn )n∈ N ∈ SF .
n∈N

Cada tal suma es en realidad finita, por lo que está bien definida. La linealidad es clara.
Ahora bien, si tomamos la sucesión ( enn ) de puntos de SF , vemos que k enn k∞ = n1 −−−→ 0, por
n→∞

9
en k · k∞
lo que −−−→
n n→∞
0SF en el espacio normado SF . Sin embargo, ϕ( enn ) = n para todo n ∈ N,
que no converge a ϕ(0SF ) = 0 . Luego esta ϕ es una funcional lineal y no es continua ni en el
cero de SF . Veamos, ahora sı́, una caracterización de la continuidad de las funcionales. 4

Proposición 1.1.5. Sea (E, k · k) un EN y sea ϕ ∈ E 0 . Entonces

ϕ ∈ E ∗ ⇐⇒ kϕk = kϕkE ∗
def
= sup |ϕ(x)| < ∞ . (1.5)
x∈ BE

En tal caso, se tiene la siguiente igualdad:


n o
kϕk = sup |ϕ(x)| = mı́n M ≥ 0 : |ϕ(x)| ≤ M kxk para todo x ∈ E . (1.6)
kxk=1

Además, ϕ 7→ kϕk es una norma en E ∗ , con la que resulta ser un espacio normado.

Demostración. Supongamos que kϕk = +∞. Luego para todo n ∈ N debe existir un
xn ∈ BE tal que |ϕ(xn )| ≥ n2 . Si ahora consideramos la sucesión yn = xnn , tendremos que

kxn k |ϕ(xn )|
kyn k = −−−→ 0 pero |ϕ(yn )| = ≥n para todo n ∈ N .
n n→∞ n
O sea que una tal ϕ no podrı́a ser continua ni en cero (recordar que ϕ(0) = 0). Esto prueba
la flecha =⇒ de la Ec. (1.5). Para ver la recı́proca observemos que si kϕk < ∞, entonces

|ϕ(x)| ≤ kϕk kxk para todo x∈E . (1.7)


x
En efecto, si x 6= 0, tomemos y = kxk
. Entonces, como kyk = 1, tenemos que

|ϕ(x)|
= |ϕ(y)| ≤ sup |ϕ(z)| = kϕk =⇒ |ϕ(x)| ≤ kϕk kxk .
kxk z∈BE

De (1.7) deducimos que |ϕ(x) − ϕ(y)| = |ϕ(x − y)| ≤ kϕk kx − yk para todo par x, y ∈ E.
Esto muestra que una tal ϕ es re-continua.
Sea ahora M0 el mı́nimo de la Ec. (1.6) (en principio digamos que es el ı́nfimo). Por la (1.7),
es claro que M0 ≤ kϕk. La otra desigualdad surge de la definición de kϕk. En particular
hay mı́nimo y vale la Ec. (1.6). Finalmente, el hecho de que ϕ 7→ kϕk define una norma en
E ∗ es de verificación inmediata, y se deja como ejercicio. 

Proposición 1.1.6. Sean E y F dos EN’s. Dado T ∈ Hom (E, F ), definamos



kT k = kT kL(E,F ) = sup kT xkF : x ∈ E y kxkE ≤ 1 . (1.8)

Entonces vale lo siguiente:


n o
1. kT k = sup kT xkF = mı́n M ≥ 0 : kT xkF ≤ M kxkE para todo x ∈ E .
x∈ BE

10
2. T ∈ C(E, F ) ⇐⇒ kT k < ∞.
En tal caso a T se lo llama un operador acotado. Denotaremos por
L(E, F ) = Hom (E, F ) ∩ C(E, F )
al espacio (normado vı́a T 7→ kT k) de tales operadores.
Demostración. La prueba coincide mutatis mutandis con la de la Prop. 1.1.5. Basta cambiar
ϕ por T y | · | por k · kF cuando haga falta. 
Como vimos, a las funcionales ϕ ∈ E ∗ y a los operadores T ∈ L(E, F ) (para E y F dos EN’s)
se los suele adjetivar como “acotados” en lugar de continuos. Esto no es del todo cierto. Lo
que pasa es que se asume que la acotación se refiere a sus restricciones a la bola BE .
Observación 1.1.7. Sean E y F dos K-EV’s y T ∈ Hom(E, F ). Entonces se tiene que

T ∈ L(E, F ) ⇐⇒ T es continua en el punto 0 ∈ E . (1.9)

Esto se debe a la igualdad T (x) − T (y) = T (x − y) y a que T (0) = 0. Recordar que por la
métrica que usamos, una sucesión xn −−−→ x ⇐⇒ x − xn −−−→ 0.
n→∞ n→∞
0
En particular se tiene que las ϕ ∈ E cumplen que
k·k
ϕ ∈ E ∗ ⇐⇒ ϕ(xn ) −−−→ 0 para toda sucesión xn −−−→ 0 . 4
n→∞ n→∞

Observación 1.1.8. Sea E un EN y sea ϕ ∈ E 0 . Repasando la Prop. 1.1.5 se obtiene la


siguiente mecánica para estudiar una tal ϕ :
• Para mostrar que ϕ ∈ E ∗ (o sea que ϕ es continua) basta ver que existe un

M >0 tal que |ϕ(x)| ≤ M kxk para todo x∈E .

• En tal caso, para calcular exactamente kϕk uno candidatea un M como arriba que
intuya que es el óptimo en el sentido de la Ec. (1.6). Luego para verificar que efectiva-
mente lo es, y por ello valdrı́a que kϕk = M , basta encontrar una sucesión

(xn )n∈ N en BE tal que |ϕ(xn )| −−−→ M .


n→∞

Usando las fórmulas (1.5) y (1.6), si el candidato M cumple ambas cosas (es una cota
por arriba y se lo aproxima desde la bola) ya sabremos que kϕk = M .
El mismo proceso sirve para calcular la kT k de un T ∈ L(E, F ) como en la Prop. 1.1.6.
Veamos un ejemplo: El normado será el espacio SF de sucesiones finitas definido en 1.1.4.
Consideremos la funcional ϕ ∈ SF0 dada por la fórmula
X xn
ϕ(x) = 2
para cada x = (xn )n∈ N ∈ SF .
n∈N
n

11
1
P
Nuestro candidato para kϕk es el número M = n2
< ∞. En efecto observar que
n∈N

X x
n
X |xn | X 1
|ϕ(x)| = ≤ ≤ kxk = M kxk∞

2 2 ∞ 2
n n n

n∈N n∈N n∈N

para todo x = (xn )n∈ N ∈ SF . Ası́ que ya sabemos que ϕ ∈ SF∗ con kϕk ≤ M . El
siguiente paso es aproximar desde la bola: Para cada entero k ∈ N definamos el vector
Pk
yk = en = (1, . . . , 1, 0, 0, . . . ) ∈ SF (la cantidad de unos es k). Notemos que kyk k∞ = 1
n=1
para todo k ∈ N, por lo que la sucesión de vectores (yk )k∈N vive en la bola BSF . Además
k
X 1 X 1
ϕ(yk ) = −−−→ =M .
n=1
n2 k→∞
n∈N
n 2

Luego kϕk = M y a otra cosa. Como habrán notado, la mecánica en cuestión, más que
calcular la kϕk, sirve para probar que una cadidato M que uno saca de la galera cumple que
kϕk = M . El criterio de elección de tales candidatos depende del contexto y de la intuición
del que lo busque. No se puede dar recetas para todo en la vida.
Para ejercitar la intuición y la metodologı́a propuesta dejamos otro ejemplo para el lector:
Se trata de calcular la norma del operador T : SF → SF dado por
 1 
T x = (1 − ) xn para cada x = (xn )n∈ N ∈ SF . 4
n n∈N

Observación 1.1.9. Sean E, F y G tres EN’s y sean T ∈ L(E, F ) y A ∈ L(F, G). Como
componer continuas da continua (y lo mismo con las K-lineales), nos queda que la com-
posición AT = A ◦ T ∈ L(E, G). Pero mejor aún, por la definición de normas de operadores
dada en (1.8), que utiliza supremos, tenemos la siguiente desigualdad:

kA T kL(E,G) = sup kA T xk ≤ sup kAk kT xk = kAkL(F,G) kT kL(E,F ) . (1.10)


x∈ BE x∈ BE

En particular, si llamamos L(E) = L(E, E), este espacio normado es también una K-álgebra,
y la norma es “matricial”, en el sentido de que si

T, A ∈ L(E) , entonces kA T k ≤ kAk kT k .

Si pedimos que E sea Banach, entonces L(E) es lo que se llama un álgebra de Banach,
porque como se verá en el Teo. 1.1.10 que viene a continuación, el espacio L(E) sera también
un EB, que es además K-álgebra, con una norma matricial. 4

Teorema 1.1.10. Sean E y F dos EN’s. Pensemos a L(E, F ) como un EN con la norma
de la Ec. (1.8). Entonces vale que

1. Si F es Banach, entonces también L(E, F ) es un Banach.

12
2. En particular E ∗ = L(E, K) es un Banach para cualquier espacio normado E.

3. Si asumimos que E ∗ 6= {0}, entonces

L(E, F ) es Banach ⇐⇒ F es Banach .

Demostración. Asumamos que F es un EB. Si me dan una sucesión (Tn )n∈ N de Cauchy en
L(E, F ), para cada x ∈ E tenemos que

kTn x − Tm xkF = k(Tn − Tm )xkF ≤ kTn − Tm k kxk −−−−→ 0 para todo x ∈ E .


n,m→∞

Luego (Tn x)n∈N es de Cauchy en F . Por la completitud de F podemos definir la función

T :E→F dada por T x = lı́m Tm x para cada x ∈ E .


m∈N

Es fácil ver que T es K-lineal (lı́mites de sumas y todo eso). Y tenemos convergencia
“puntual”. Para concluir que L(E, F ) es Banach nos faltarı́a ver que

T ∈ L(E, F ) y que kTn − T kL(E,F ) −−−→ 0 .


n→∞

ε
Veamos primero lo segundo: Dado un ε > 0, hay un n0 ∈ N tal que kTn − Tm k < 2
siempre
que n, m ≥ n0 . Si fijamos un n ≥ n0 y tomamos cualquier x ∈ E, se tiene que
? ε
k(T − Tn ) xk = kT x − Tn xk = lı́m kTm x − Tn xk ≤ sup kTm x − Tn xk ≤ kxk .
m→∞ m≥n0 2
?
En efecto, la igualdad = surge de que tanto sumar un vector fijo como tomar norma son
funciones continuas en F (Prop. 1.1.2). Como la desigualdad de arriba vale con el mismo
n para todos los x ∈ E , podemos tomar supremo sobre BE , con lo que
ε
kT − Tn k = sup k(T − Tn ) xk ≤ sup kxk < ε , para todo n ≥ n0 .
x∈BE x∈BE 2

En resumen, ya sabemos que kTn − T kL(E,F ) −−−→ 0. En particular, existe un Tm tal que
n→∞

kT − Tm k ≤ 1 =⇒ kT k = kT − Tm + Tm k ≤ kT − Tm k + kTm k ≤ 1 + kTm k < ∞ .

Luego T ∈ L(E, F ) y lista la completitud. La recı́proca sale fijando una ϕ ∈ E ∗ no nula. Si


ahora tomamos una sucesión (yn )n∈ N de Cauchy en F , podemos definir

Tn ∈ L(E, F ) dadas por Tn x = ϕ(x) · yn para x∈E y n∈N.

Unas cuantas directas muestran que kTn − Tm k = kϕk kyn − ym kF para todo par n, m ∈ N.
Usando que L(E, F ) es Banach, debe existir un T ∈ L(E, F ) tal que kTn − T k −−−→ 0.
n→∞
Ahora basta elegir un x0 ∈ E tal que ϕ(x0 ) = 1 y poner y = T x0 . 

13
Observación 1.1.11. En la prueba anterior hay un exceso de hipótesis. Para el item 3
basta pedir que E 6= {0}. Si bien nadie probó todavı́a que que todo EN no trivial tiene
funcionales continuas no nulas, más adelante veremos que eso es cierto. Nos adelantamos un
poco para ir motivando el teorema de Hahn-Banach. 4

Antes de terminar esta sección básica y pasar a los ejemplos, mostraremos un criterio para
testear completitud de un EN que se usará varias veces en lo que sigue.
Proposición 1.1.12. Sea E un EN. Las suguientes condiciones son equivalentes:
1. El esapcio (E, k · k) es un Banach (i.e., es completo).
2. Toda serie absolutamente convergente es convergente (todo en E). Más precisamente,
dada una sucesión (xn )n∈ N en E, se tiene que
X X
kxn k < ∞ =⇒ xn es convergente (con la norma) a un punto x ∈ E .
n∈N n∈N
P
En tal caso, vale que kxk ≤ kxn k.
n∈N

Demostración. Asumamos primero que E es un EB. Luego, para mostrar la convergencia de


n
P
la serie, basta ver que la sucesión yn = xk es de Cauchy en E. Pero si n < m,
k=1
m
X m
X
kym − yn k = xk ≤ kxk k −−−−−→ 0 ,

n, m → ∞
k=n+1 k=n+1


P ∞
P
por la hipótesis de que kxn k < ∞. Ası́ que existe lim yn = x = xn . Además,
n=1 n→∞ n=1

Xn n
X ∞
X
kxk = lı́m kyn k = lı́m xk ≤ lı́m kxk k = kxk k ,

n→∞ n→∞ n→∞
k=1 k=1 k=1

donde se usó que la función y 7→ kyk es continua, Creamos ahora en la condición dos, y
tomemos una sucesión de Cauchy (yn )n∈ N en E. Para cada k ∈ N elijamos un
mk ∈ N tal que kyr − ys k < 2−k para los r, s ≥ mk .
Luego definamos inductivamente n1 = m1 y nk = max{mk , nk−1 + 1} para k > 1 (esto
para que los nk sean crecientes). Nos queda una subsucesión (xk )k∈ N = (ynk )k∈ N tal que
kxk+1 − xk k < 2−k para todo k ∈ N. Tomemos finalmente la telescópica
z1 = x1 y zk+1 = xk+1 − xk para k∈N.
Por lo anterior, la sucesión (zk )k∈ N es absolutamente convergente y por ello convergente.
Pk
Pero cada zr = xk = ynk . Ası́ que la subsucesión (ynk )k∈ N es convergente a un y ∈ E, y
r=1
arrastra con ella a toda la (yn )n∈ N porque esta era de Cauchy. 

14
1.2 Ejemplos más famosos.
La gracia de los EVT’s y los EN’s, y por ende del análisis funcional en general, es que la teorı́a
se hizo como forma de abstraer propiedades ya conocidas de muchos ejemplos matemáticos
muy importantes, que se estudiaban separadamente. Esto simplificó los conceptos involu-
crados, y permitió desarrollar una teorı́a nueva (con aplicaciones directas a esos ejemplos
y muchı́simos nuevos que fueron apareciendo). Y lo bueno es que esa teorı́a explotó, obte-
niendo gran cantidad de resultados cualitativamente importantes y generando un mundo
nuevo dentro del análisis.
A continuación enumeraremos los ejemplos más conocidos. En general, las pruebas de que
las normas descritas cumplen la desigualdad triangular requieren de cuentas no demasiado
fáciles, dentro del contexto de cada ejemplo. Dejaremos sistemáticamente esas pruebas como
ejercicios para el lector.

Ejemplo 1.2.1. Es sencillo ver que toda norma k·k sobre R es de la forma kxk = a · |x|
(x ∈ R), donde a = k1k > 0. En efecto, la propiedad (b) de la definición de norma nos dice
que kxk = |x| k1k para cualquier x ∈ R.
También está claro que toda función de la forma R 3 x 7→ a|x|, con a > 0, es una norma
sobre R. Es conocido el resultado Q = R que nos dice que este espacio es separable.

Ejemplo 1.2.2. Si consideramos el espacio C, vale la misma observación que en el ejemplo


anterior cuando se lo considera como un C-EV. Tomando Q + iQ, vemos que C es separable.

Ejemplo 1.2.3. Más generalmente, en Kn podemos definir varias normas: Dado un vector
x = (x1 , . . . , xn ) ∈ Kn , consideremos

1. kxk∞ = máx |xk |.


1≤k≤n

 n
 p1
|xk |p
P
2. kxkp = para los exponentes 1 ≤ p < ∞.
k=1

3. El caso particular p = 2 se denomina generalmente espacio Euclı́deo.

Las mismas consideraciones que en los ejemplos anteriores nos dicen que estos espacios son
separables.

Ejemplo 1.2.4. Sean X un conjunto y (E, k · k) un EN. Se definen

1. `∞ (X, E) = {f : X → E acotadas }, o sea que

def
f ∈ `∞ (X, E) si kf k∞ = sup kf (x) kE < ∞ .
x∈X

Es fácil ver que k · k∞ es una norma en `∞ (X, E).

15
2. Veamos que si E era un EB, entonces `∞ (X, E) es completo, y queda un EB.

En efecto, sea (fn )n∈N una sucesión de Cauchy en `∞ (X, E). Dado un x ∈ X, sabemos
que kfk (x) − fm (x)kE ≤ kfk − fm k∞ para todo k, m ∈ N. Luego cada sucesión
(fn (x) )n∈N es de Cauchy en E. Como E es completo, podemos definir la función

f :X→E dada por f (x) = lı́m fn (x) , para todo x ∈ X ,


n→∞

que es nuestra candidata a lı́mite. Nos falta verificar dos cosas:


? ?
kfn − f k∞ −−−→ 0 y f ∈ `∞ (X, E) .
n→∞

ε
Dado ε > 0, sea n1 ∈ N tal que kfk − fm k∞ < 2
para todo k, m ≥ n1 . Si k ≥ n1 ,
 ε
kfk (x) − f (x)kE = lı́m kfk (x) − fm (x)kE ≤ sup kfk (x) − fm (x)kE ≤ < ε , (1.11)
m→∞ m≥n1 2

para todos los x ∈ X a la vez. La igualdad = se deduce de que fm (x) −−−→ f (x),
m→∞
usando la norma es continua. La Ec. (1.11) muestra que kfn − f k∞ −−−→ 0. Tomando
n→∞
un n tal que kfn − f k∞ < 1, la Ec. (A.24) nos asegura que f ∈ `∞ (X, E) .

3. Si X tiene una topologı́a τ , consideraremos el espacio de funciones continuas y acotadas

Cb (X, E) = C(X, E) ∩ `∞ (X, E) = f ∈ C(X, E) : kf k∞ = sup kf (x) k < ∞ ,



x∈X

En la Prop. A.17.4 se prueba que Cb (X, E) es cerrado en `∞ (X, E). Observar que eso
es más que suficiente para asegurar que también Cb (X, E) es un EB.

4. En el caso de que el espacio X sea compacto, se tiene Cb (X, E) = C(X, E).

5. Recordemos que cuando E = K notamos Cb (X, K) = Cb (X) y C(X, K) = C(X). Si X


es un compacto Hausdorff, Cb (X) = C(X) es también separable, por Weierstrass (si
no lo conocen, chusmeen el Teo. 3.6.3).

6. En cambio, si X es cualquier conjunto infinito y E 6= {0}, se tiene que `∞ (X, E) nunca


es separable, porque las caracterı́sticas de subconjuntos de X (multiplicadas por un
y ∈ E \ {0}) son no numerables, viven en `∞ (X, E) y distan siempre kyk entre sı́. 4

Ejemplo 1.2.5. Consideremos ahora los epacios de sucesiones escalares dentro de KN . Us-
aremos la notación x = (xn )n∈ N para dichas sucesiones.

1. Fijado un exponente p tal que 1 ≤ p < ∞, consideremos los espacios


( ∞
)
X
`p = `p (N) = x ∈ KN : |xn |p < ∞ .
n=1

16
En ellos se considera la norma
! p1
X
kxkp = |xn |p .
n∈N

Con estas normas, cada espacio `p es un Banach (como en el Ejem. 1.2.4).

2. Miremos ahora el espacio de sucesiones “finitas”


n o
SF = SF (N) = K(N) = x ∈ KN : existe un n0 ∈ N tal que xn = 0 si n ≥ n0 ,

que puede interprestarse como la “unión” de todos los Kn , n ∈ N. Este K-EV tiene
dimensión algebráica numerable, porque tiene a la bases canónica {en : n ∈ N}, donde
cada en es la función caracterı́stica del conjunto {n}.
Observar que SF ⊆ `p para todo p ∈ [1, ∞). Más aún, nuestro SF es claramente denso
en cada `p con su norma (truncando colas de series). Considerando el subconjunto
Q(N) = SF ∩ QN uno muestra que todos los `p son separables.
El párrafo anterior conlleva a una conclusión sorprendente: no todo subespacio de un
normado E tiene porque ser cerrado como subconjunto de X. Esto contradice la intu-
ición erreénica, y hace falta que nos vayamos acostumbrando a descartar esa intuición
e ir generando una banájica. Ası́ que para abreviar, en lo que sigue escribiremos

SvE para decir que S ⊆ E es un subespacio cerrado de E .

3. El espacio de sucesiones acotadas


 
∞ ∞
` = ` (N) = x ∈ K : kxk∞ = sup |xn | < ∞
N
n∈N

es también un Banach con dicha norma supremo. Hemos visto que este Banach no es
separable. Contiene a SF , pero ahora no queda denso.

4. Dos subespacios importantes de `∞ son los siguientes:


n o n o
c = x ∈ `∞ : existe el lı́m xn y c0 = x ∈ c : lı́m xn = 0 . (1.12)
n→∞ n→∞

Ambos son subespacios cerrados de `∞ , lo que los transforma en sendos espacios de


Banach, siempre con la norma k · k∞ . Observar que c0 v `∞ porque es, en realidad,
la clausura en `∞ de SF . De paso, eso dice que c0 es separable.
Por otra parte, si definimos la sucesión 1 ∈ c como la constantemente igual a 1, es
fácil verificar que c = c0 ⊕ K · 1, por lo que también c es separable.

17
5. Ahora podemos generalizar los ejemplos anteriores: Fijemos E un EN, y p ∈ [1, ∞).
Dentro del producto E N , consideremos el subespacio
( )
X
`p (N, E) = `p (E) = (xn )n∈ N ∈ E N : kxn kp < ∞ .
n∈N

Obtenemos un normado con la norma p resultante. Esto se puede extender más aún,
definiendo `p (I, E), donde I es cualrquier conjunto. Hace falta repasar un poco de
sumas “desordenadas”, o sea series no numerables de términos positivos.
Q
6. Incluso más, podemos considerar el producto P = En , donde cada (En , k · kn ) es
 n∈N 
p p
P
un EN, y tomar el subespacio ` (T ) = (xn )n∈ N ∈ P : kxn kn < ∞ , dándole una
n∈N
estructura de espacio normado mediante la súper-norma p. 4

Ejercicio 1.2.6. Probar que si 1 ≤ p ≤ q ≤ ∞, entonces `p (N) ⊆ `q (N). Ya que estamos,


mostrar que si p < q, entonces la inculsión es estricta. 4

Ejemplo 1.2.7. Sea X un conjunto y sobre él consideremos el espacio de medida (X, Σ, µ),
donde Σ es una σ-álgebra de conjuntos de X y µ : Σ → R+ ∪{+∞} es σ-aditiva. Llamaremos
Med(X, Σ) al conjunto de funciones f : X → K que son Σ-medibles.

1. Fijemos un exponente p ∈ [1, +∞). Se define el espacio


 Z 
p p p
L = L (X , Σ , µ) = f ∈ Med(X, Σ) : |f (t)| dµ(t) < ∞
X

que es un espacio vectorial “seminormado” con la


Z  p1
p
kf kp = |f | dµ , para f ∈ Med(X, Σ) .
X

La demostración de que se trata realmente de una seminorma (lo que garantiza que Lp
es un K-EV) es la famosa desigualdad de Minkowski.

2. Fijada una f ∈ Med(X, Σ), definimos su supremo esencial como el número


 
kf k∞ = ess sup(f ) = ı́nf M > 0 : tal que µ |f | > M = 0 .

Luego definimos el espacio vectorial seminormado

L∞ = L∞ (X, Σ, µ) = {f ∈ Med(X, Σ) : kf k∞ < ∞ } .

En este caso es trivial que k · k∞ es una seminorma en L∞ (X, Σ, µ).

18
 
3. Es fácil ver que el conjunto N = N (X, Σ, µ) = f ∈ Med(X, Σ) : µ |f | 6= 0 = 0 es
un subespacio de Med(X, Σ). Una cuenta directa muestra que

N = {f ∈ Med(X, Σ) : kf kp = 0} ⊆ Lp para cada 1≤p≤∞.

Luego se pueden definir los espacios normados Lp = Lp (X, Σ, µ) = Lp (X, Σ, µ)/N


(asumimos conocido el cociente de EV’s), porque en ellos la k · kp baja haciéndose
una buena norma. Como hace todo el mundo, abusaremos sitemáticamente de la
notación dicendo que un elemento f ∈ Lp es una función (en Lp ) en vez de su clase
de equivalencia. En los cursos de medida seguro que se ha demostrado que el espacio
(Lp , k · kp ) es completo, por lo que estamos hablando de espacios de Banach.

4. Cabe recordar que si µ (X) < ∞, entonces L∞ ⊆ Lp para todo 1 ≤ p < ∞, y además

lim kf kp = kf k∞ para toda f ∈ L∞ . (1.13)


p→∞

En efecto, dada f ∈ L∞ , podemos suponer (sin pérdida de generalidad) kf k∞ = 1 .


En tal caso, como |f |p ≤ 1 salvo un conjunto de medida nula, se tiene que
Z Z
p
|f | dµ ≤ 1 dµ = µ (X) < ∞ =⇒ f ∈ Lp . (1.14)
X X

Para probar la Ec. (1.13), tomumos un A < 1 y llamamos E = {x ∈ X : |f (x)| > A}.
Por la definición del supremo esencial vemos que µ (E) > 0. Además
Z  p1 Z  p1 Z  p1
1 1 1
p p p
A · µ (E) = (A ) ·
p p χE = A ≤ |f | ≤ kf kp ≤ µ(X) p ,
X E E

donde la última desigualdad se sigue de la Ec. (1.14). Luego

A ≤ lim inf kf kp ≤ lim sup kf kp ≤ 1 .


p→∞ p→∞

Como el A < 1 era cualquiera, sale que lı́m kf kp = 1 = kf k∞ .


p→∞

Por lo tanto también vale que L∞ ⊆ Lp (se dividı́a por lo mismo). Ojo que la inclusion
es de conjuntos. Porque L∞ es un EB con su norma, aunque L∞ 6v Lp porque como
subespacio de los Lp es fácil ver que es denso en cada uno de ellos con su k · kp . 4

Ejemplo 1.2.8. Dada cualquier función ϕ : [a, b] → R y cualquier partición

Π ≡ {a = t0 < t1 < .... < tn = b} de ([a, b] ,


n
P
definamos V (ϕ, Π) = |ϕ (tk ) − ϕ (tk−1 ) |. El espacio
k=1

def
BV[a, b] = {ϕ : [a, b] → R : V (ϕ) = sup V (ϕ, Π) < ∞}
Π

19
cosiste de las llamadas funciones de variación acotada (VA) sobre [a, b].
Se ve fácilmente que la flecha ϕ 7→ V (ϕ) es una seminorma. El número V (ϕ) se llama la
variación de ϕ. Los ejemplos más fáciles de funciones de VA son las monótonas. En ese
caso, para cualquier partición Π vale que

V (ϕ, Π) = |ϕ(b) − ϕ(a)| =⇒ V (ϕ) = |ϕ(b) − ϕ(a)| < ∞ .

Por otro lado, no es dificil ver que V (ϕ) = 0 si y sólo si ϕ es constante. En efecto, la igualdad
V (ϕ) = 0 =⇒ V (ϕ, Π) = 0 para toda partición Π. Si existieran dos puntos u, v ∈ [a, b], con
u > v, tales que ϕ (a) 6= ϕ(b) podrı́amos tomar la partición ad hoc Π∗ = {a, , v, u, b}. Pero
ella cumplirı́a que V (ϕ, Π∗ ) ≥ |ϕ(u) − ϕ(v)| > 0. No puede ser.
Ahora sı́ podemos dar una norma para el espacio BV[a, b], poniendo

kϕkBV = |ϕ(a)| + V (ϕ) para cada ϕ ∈ BV[a, b] .

Es una seminorma por ser la suma de dos de ellas. Pero ahora tenemos que kϕkBV = 0 =⇒
ϕ ≡ 0, porque la ϕ debe ser constante y ϕ(a) = 0. Un argumento similar al del Ejem. 1.2.4
(espacios `∞ (X , E) ) nos dice que BV[a, b] es no separable. 4

Ejemplo 1.2.9. Sea α ∈ R∗+ . Las funciones lipschitzianas de orden α son las funciones
ϕ : [a, b] → K que satisfacen que su norma

def |ϕ(t) − ϕ(s)|


kϕkLα = |ϕ(a)| + sup <∞.
t6=s |t − s|α

El hecho de que k kLα sea una norma sale igual que en el ejemplo anterior. Es facil ver que
toda tal ϕ ∈ C[a, b]. Más aún, si fijamos un par t 6= s en (a, b), tenemos que

|ϕ(t) − ϕ(s)| |ϕ(x) − ϕ(y)| def


α ≤ sup α = Sϕ < ∞ =⇒ |ϕ(t) − ϕ(s)| ≤ Sϕ · |t − s|α . (1.15)
|t − s| x6=y |x − y|

Por eso se las llama lipschitzianas. De hecho, es fácil ver que una ϕ cumple la desigualdad
de la derecha de (1.15) para alguna constante Sϕ < ∞ ⇐⇒ kϕkLα < ∞. Estas funciones
son interesantes sobre todo cuando 0 < α ≤ 1. Porque sinó pasa lo siguiente:
Si α > 1, las únicas funciones lipschitzianas de orden α son las constantes. En efecto, si
kϕkLα < ∞ con α > 1, entonces ϕ tiene que ser derivable en el abierto (a, b), y además se
debe cumplir que ϕ0 ≡ 0. Es porque dado un x0 ∈ (a, b), el cociente incremental cumple que

|ϕ(x0 ) − ϕ(x0 + h)| (1.15) Sϕ · |h|α


≤ = Sϕ · |h|1−α −−→ 0 .
|h| |h| h→0

Luego, por algún Teorema de Análisis I ya tenemos que ϕ debe ser constante. 4

20
Ejemplo 1.2.10. Sea (X, τ ) un ET compacto Hausdorff. Llamemos B(X) ⊆ P(X) la σ-
álgebra de los Borelianos de X (la σ-álgebra generada por τ ). Una medida boreliana compleja
es una µ : B(X) → C que es σ-aditiva y sólo toma valores finitos.
La variación total de una tal µ es la medida positiva |µ| definida por

X
|µ|(A) = sup |µ(Ek )| para cada A ∈ B(X) , (1.16)
π∈PD(A) k=1

d
S
donde PD(A) es el conjunto de particiones finitas π = {E1 , . . . , Enπ } de A (i.e., Ek = A).
Una de las utilidades de |µ| es que se la necesita para la desigualdad
Z Z
f d µ ≤ |f | d |µ| , (1.17)


X X

que vale para cualquier f ∈ C(X) (y para toda f que sea µ-integrable). Otra es que sirve
para definir la regularidad: una medida µ es regular si |µ| cumple que

|µ|(A) = sup{ |µ|(K) : K ⊆ A y K es compacto } , para todo A ∈ B(X) . (1.18)

El espacio Mr (X) de medidas complejas regulares es un normado con la norma

kµk = |µ|(X) , para cada µ ∈ Mr (X) .

El que |µ| sea finita para toda µ ∈ Mr (X) y la triangular |µ + ν|(X) ≤ |µ|(X) + |ν|(X) son
resultados tı́picos de teorı́a de la medida, que asumiremos (ver 1.9.25). Observar que

|µ(A)| ≤ |µ(A)| + |µ(X \ A)| ≤ |µ|(X) = kµk , para µ ∈ Mr (X) y A ∈ B(X) .

Usando esto se puede mostrar que ( Mr (X), k · k ) es un Banach, cuenta que dejamos como
ejercicio. Las pruebas de las afirmaciones de este ejemplo están detalladamente propuestas
como una serie de ejercicios en la sección final: desde el 1.9.12 hasta la Obs. 1.9.25. 4

1.3 Cálculo de algunos duales.


Calcularemos ahora “los duales” de algunos ejemplos anteriores. En general esto se hace
con los llamados teoremas de representación. Ellos consisten en tomar un espacio conocido
y hacerlo actuar sobre otro EN como funcionales acotadas. O sea “representarlo” como el
dual de otro a través de una aplicación lineal isométrica sobre. Lo difı́cil de este proceso
suele ser ver que una representación dada es sobre, o sea que toda funcional acotada debe
ser alguna de las representadas del espacio conocido. Esto se entenderá mejor mirando los
siguientes ejemplos.
Antes de empezar, recordemos la función sgn : C → S 1 ∪ {0}, dada por
z
sgn z = para z ∈ C \ {0} y sgn 0 = 0 .
|z|

21
Una cuenta que usaremos seguido dice que
 z |z|2
sgn z · z = ·z = = |z| para todo z ∈ C \ {0} . (1.19)
|z| |z|
La igualdad de los bordes obviamente sigue valiendo para z = 0.
En los siguientes ejemplos usaremos sistematicamente la receta propuesta en la Obs. 1.1.8
para calcular normas de funcionales.
1.3.1. Queremos identificar los duales de c0 y de `1 .
Empecemos representando a `1 dentro de c∗0 . Dada y = (yn )n∈ N ∈ `1 definamos la funcional
X
ϕy : c0 → K dada por ϕy (x) = xn yn , para cada x = (xn )n∈ N ∈ c0 .
n∈N

La siguiente cuenta mostrará que la serie es convergente y que ϕy es acotada: Fijado x ∈ c0 ,


X X X
|ϕy (x)| = xn yn ≤ |xn yn | ≤ kxk∞ |yn | = kxk∞ kyk1 . (1.20)

n∈N n∈N n∈N

La parte derecha dice que la serie es absolutamente convergente y por ello converge, ası́
que ϕy (x) está bien definida. Mirándola de nuevo, ahora para todo x ∈ c0 , nos dice que
kϕy k ≤ kyk1 para cualquier y ∈ `1 . Entonces ya tenemos una representación R ∈ L(`1 , c∗0 )
dada por R(y) = ϕy . Veamos que es isométrica: Fijado el y ∈ `1 y un N ∈ N, tomemos
N
X
xN = sgn yk ek = (sgn y1 , . . . , sgn yN , 0 , 0 , . . . ) ∈ SF ⊆ c0 . (1.21)
k=1

N
P N
P
Observar que, usando la Ec. (1.19), tenemos que ϕy (xN ) = sgn yk yk = |yk | . Por otra
k=1 k=1
parte kxN k∞ ≤ 1 para cualquier N ∈ N, porque | sgn z| ≤ 1 para cualquier z ∈ C. Juntando
todo y agrandadno indefinidamente el N ∈ N, llegamos a que
N
X
kϕy k = sup |ϕ(x)| ≥ sup |ϕ(xN )| = sup |yk | = kyk1 .
kxk∞ ≤1 N ∈N N ∈N
k=1

Esto muestra que la representación R es isométrica. Falta ver que llena al dual c∗0 . Para
probarlo, fijemos ϕ ∈ c∗0 y definamos yn = ϕ(en ) ∈ K para cada n ∈ N. Esto nos da la
candidata y = (yn )n∈ N . Es fácil ver que en los x ∈ SF se cumple que
X  X
ϕ(x) = ϕ xn e n = xn yn = ϕy (x) ,
n∈ J n∈ J

donde el J ∈ PF (N) es el soporte finito de x. Con las xN ∈ c0 de (1.21) relativas a éste y se


ve que kyk1 ≤ kϕk por lo que y ∈ `1 and ϕy ∈ c∗0 . Luego ϕ y ϕy son funcionales continuas
que coinciden en el denso SF ⊆ c0 , por lo que deben ser la misma. En resumen,
c0 ∗ ∼
= `1 vı́a la representación `1 3 y 7→ ϕy ∈ c∗0 . (1.22)

22
Ahora viene el dual de `1 . La idea es exactamente la misma, aunque ahora nos dará que
(`1 )∗ ∼
= `∞ . En efecto, dada z = (zn )n∈ N ∈ `∞ , volvemos a definir
X
ϕz : `1 → K dada por ϕz (y) = yn zn , para cada y = (yn )n∈ N ∈ `1 . (1.23)
n∈N

La Ec. (1.20) sigue valendo en éste contexto (cambiando x por z) lo que dice que la serie
camina, ϕz ∈ (`1 )∗ y kϕz k ≤ kzk∞ (porque ahora la variable es el y ∈ `1 ). La representación
es isométrica usando los vectores yN = sgn zN · eN ∈ SF ⊆ `1 . En efecto, todos tienen
kyN k1 = | sgn zN | ≤ 1 y cumplen que ϕz (yN ) = |zN |, por lo que kzk∞ ≤ kϕz k.
Para ver que esto llena el dual de `1 se argumenta igual que en el caso de c0 . El dato clave
es que SF sigue siendo denso en `1 .
Mucho más difı́cil es describir (`∞ )∗ , porque `∞ no tiene un denso en el que se puedan hacer
cuentas lineales tranquilizadoras. Pero al menos se puede ver que (`∞ )∗ es “grande”, porque
sı́ se puede meter a `1 adentro de (`∞ )∗ con el mismo curro de siempre (de hecho con la
misma acción y desigualdades que describimos antes sobre c0 ). El tema es que no lo llena
ni ahı́. Observar que, dada ϕ ∈ (`∞ )∗ , se puede seguir poniendo xn = ϕ(en ) y armar un x
de `1 . Pero no se sabe si la ϕx actúa como ϕ en todo `∞ porque SF no es más denso. 4
Ejercicio 1.3.2. En forma similar a lo anterior, probar que si

1 < p, q < ∞ y 1
p
+ 1
q
=1 =⇒ (`p )∗ ∼
= `q . (1.24)

La acción es como arriba, haciendo series de productos y usando Hölder en vez de (1.20). 4
1.3.3. Fijemos ahora un compacto Hausdorff (X, τ ) y pensemos en el dual del espacio
C(X) = C(X, C), que vimos que es un Banach con la k · k∞ . Consideremos el espacio
normado Mr (X) de medidas borelianas complejas regulares, del Ejem. 1.2.10. Recordemos
que si µ ∈ Mr (X) se define la medida positiva finita |µ| ∈ Mr (X), llamada variación total
de µ, y que kµk = |µ|(X). El teorema de representación de Riesz asegura que

Mr (X) ∼
= C(X)∗ .

Veamos la parte fácil de eso: Dada µ ∈ Mr (X), definamos ϕµ ∈ C(X)0 por la fórmula
Z
ϕµ (f ) = f d µ , para cada f ∈ C(X) .
X

La definición es buena porque las continuas son integrables para toda µ ∈ Mr (X). Además
Z Z
|ϕµ (f )| = f d µ ≤ |f | d |µ| ≤ kf k∞ |µ|(X) = kµk kf k∞

X X

para toda f ∈ C(X), por la Ec. (1.17). Luego ϕµ ∈ C(X)∗ y kϕµ k ≤ kµk. Usando que µ es
regular se puede mostrar que en realidad vale que kϕµ k = kµk. La cuenta es fácil usando
funciones simples sobre particiones π = {E1 , . . . , En } de X con los coeficientes sgn µ(Ek ).

23
Eso sale como en los ejemplos anteriores, porque sus integrales aproximan el valor |µ|(X)
dado en la Ec. (1.16). La regularidad sirve para aproximar esas simples por continuas (salvo
conjuntos |µ|-pequeños), usando Tietze y la definición (1.18) de regularidad. Los detalles
quedan para el lector regular (ver los ejercicios 1.9.12 - 1.9.26).
Lo que es mucho más complicado es ver que toda ϕ ∈ C(X)∗ se representa como una ϕµ
para µ ∈ Mr (X). Es una demostración tan trabajosa como la construcción de la medida
de Lebesgue.
R1 Para convencerse basta un ejemplo: Si en C([0, 1]) tomamos la funcional
f 7→ 0 f (t) dt , pero hecha con la integral de Riemann, entonces la µ que la representa no
es otra que la mismı́sima medida de Lebesgue en los borelianos del [0, 1]. 4

1.4 El lema de Riesz.


Empecemos fijando una serie de notaciones sobre subespacios:

Notaciones 1.4.1. Sea E un EN.

1. Escribiremos S v E para decir que S ⊆ E es un subespacio cerrado de E.

2. Dado cualquier A ⊆ E, notaremos span {A} al subespacio generado por A:


def
\
span {A} = S ⊆ E : A ⊆ S y S es un subespacio de E .

3. Llamaremos span {A} v E al subespacio cerrado generado por A:


def
\
span {A} = span {A} = S⊆E:A⊆S y SvE .

Un ligero ejercicio es mostrar la segunda igualdad de arriba. Usa esto:

Si S ⊆ E es un subespacio, entonces S v E.

O sea que la clausura de un subespacio sigue siendo subespacio. Ya que van a hacer la
cuenta, observen que vale en el contexto general de EVT’s. Solo hace falta tomar redes en
vez de sucesiones para la prueba general. Y recordar la Ec. (1.1). 4

1.4.2. Sea E un EN , y fijemos un subespacio cerrado S v E. Como en cualquier EM, se


tiene definida la función “distancia a S”, d ( · , S) : E → R+ dada por
def
d (x, S) = ı́nf kx − yk = ı́nf kzk , para cada x∈E .
y∈ S z∈x+S

Por ser S cerrado, vale que d (x, S) = 0 ⇐⇒ x ∈ S. Además, un cambio elemental de


variables asegura que en el espacio afı́n x + S la distancia con S no cambia:

para todo z ∈ x + S se tiene que d (z, S) = d (x, S) , (1.25)

24
porque x + S = z + S. En forma aún más fácil uno puede mostrar que
λ x+S = λ (x+S) =⇒ d (λ x , S) = |λ|·d (x , S) para todo x∈E, λ ∈ K . (1.26)
Ahora bien, en los espacios Euclı́deos (más adelante en los Hilbert) se tiene que siempre
existe un z0 ∈ x + S que es ortogonal a S, y por lo tanto cumple (Pitágoras mediante) que
?
kz0 k = d (z0 , 0) = d (x, S) = mı́n kzk . (1.27)
z∈ x+S

Naturalmente cabe preguntarse si algo semejante (que el ı́nfimo que define la distancia a un
S v E sea siempre un mı́nimo) pasará en cualquier espacio normado E.
A priori podrı́a pensarse que alcanzarı́a con que E sea un Banach (aproximar y tomar lı́mite).
Sin embargo, en general es falso, aún para Banach’s, porque hace falta que la bola BE tenga
un tipo especial de convexidad para que los aproximantes sean necesariamente de Cauchy.
Veremos primero un contraejemplo y luego una forma muy util de reiterpretar la Ec. (1.27),
pero sólo con ı́nfimos, que vale en general. 4
Ejemplo 1.4.3. El espacio base será C[0, 1], que es Banach. Consideremos el subespacio
X = {f ∈ C[0, 1] : f (0) = 0} v C[0, 1] . Luego X es un Banach .
Por otro lado, consideremos la funcional ϕ : X → C dada por
R1
ϕ(f ) = 0 f (t) dt para cada f ∈ X .
R1
Es claro que ϕ es lineal. La desigualdad 0 f (t) dt ≤ kf k∞ y la Prop. 1.1.5, nos dicen que
ϕ ∈ X ∗ con kϕk ≤ 1. Llamemos M = ker ϕ v X . Es claro que M = 6 X , o sea que M es un
subespacio de X que es cerrado y propio.
Ahora supongamos que existe un f0 ∈ X tal que kf0 k∞ = 1 = d (f0 , M) como uno buscaba
en la Ec. (1.27). Ya veremos adónde nos lleva. Para cada f ∈ X \ M definamos
R1
ϕ(f0 ) f0 (t)dt
cf = = R01 que produce un g = f0 − cf · f ∈ ker ϕ = M .
ϕ(f ) f (t)dt
0

Por lo tanto, como d (f0 , M) = 1, podemos deducir que


|cf | · kf k∞ = kcf · f k∞ = kf0 − gk∞ ≥ 1 =⇒ |ϕ(f0 )| · kf k∞ ≥ |ϕ(f )| . (1.28)
1
Ahora consideremos la sucesión de funciones fn (t) = t n en X \ M. Como
1
(1.28) t n +1 1 1
kfn k∞ = 1 ∀ n ∈ N =⇒ |ϕ(f0 )| ≥ |ϕ(fn )| = 1 = 1 −−−→ 1 ,
n
+1 0 n
+ 1 n→∞
es decir que |ϕ(f0 )| ≥ 1. Pero una cuenta de Análisis 1 nos hace ver que, por otra parte,
Z 1
f0 ∈ C[0, 1] , f0 (0) = 0 y kf0 k∞ = 1 =⇒ |ϕ(f0 )| ≤ |f0 (t)| dt < 1 . 4
0

25
En cualquier caso subsiste una idea de ”cuasiortogonalidad” inducida por el famoso Lema
de F. Riesz que damos ahora. Una manera de visualizar su enunciado es imaginarse al
subespacio S como un plano, que uno translada con muchos vectores unitarios, y luego
busca maximizar la distancia vs. S entre todos los planos paralelos que quedan.

Lema 1.4.4. Sea E un EN. Dado un S v E tal que S = 6 E se tiene que, para cada ε > 0
existe algún vector unitario xε ∈ E (o sea que kxε k = 1) tal que d (xε , S) ≥ 1 − ε.

Demostración. Vamos a suponer que ε < 1 y que S = 6 {0} (sino todo es una boludez). Como
0 ∈ S, tenemos que 0 ≤ d (x , S) ≤ kxk para todo x ∈ E. Como S es cerrado y propio,
existe por lo menos un z ∈ E tal que d (z , S) = ı́nf kyk = 1. Luego
y∈ z+S

existe un yε ∈ z + S tal que 1 ≤ kyε k < (1 − ε)−1 . (1.29)



La Ec. (1.25) nos asegura que d (yε , S) = d (z, S) = 1. Llamemos xε = ∈ BE .
kyε k
Finalmente, usando la Ec. (1.26) y la Ec. (1.29) llegamos a que
 
yε d (yε , S) 1
d (xε , S) = d ,S = = > 1−ε . 
kyε k kyε k kyε k

Ejemplo 1.4.5. Volviendo al ejemplo anterior al Lema (y usando las notaciones del mismo),
se puede construir explı́citamente una sucesión de vectores unitarios {fn }n∈N en X tales que
1
d (fn , M) −−−→ 1. Es la de antes: fn (t) = t n . Los detalles quedan a cargo del lector. 4
n→∞

1.5 Isomorfismos.
Hay dos tipos de isomorfismos en la categorı́a de EN’s, los isométricos y los comunes. En el
caso isométrico se habla de “igualdad” entre los espacios, como el los ejemplos de duales que
vimos hace poco. En los demás casos se habla de isomorfos y no es para tanto. Pero vale la
penar fijar bien qué cosas se preservan por cada tipo de isomorfismo.

Notaciones 1.5.1. Sean E y F dos EN’s.

1. Diremos que E y F son isométricos (o que son el mismo) si existe un

U ∈ L(E, F ) tal que U es sobre y kU xk = kxk para todo x∈E .

En tal caso escribiremos que E ∼


= F y que U es un “isomorfismo isométrico”.
2. En cambio E y F son isomorfos si existe un

T ∈ L(E, F ) biyectivo tal que también T −1 ∈ L(F, E) . (1.30)

En tal caso escribiremos que E ' F y a T se lo bate “isomorfismo” (o también iso).

26
A los operadores lineales biyectivos pero no bicontinuos se los mencionará como isomorfismos
K-lineales. La palabra iso (sola) se reserva para los del item 2. 4

Los isomorfismos entre EN’s son hómeos entre sus topologı́as resultantes. Pero preservan
propiedades métricas mejores que los hómeos a secas, porque al ser lineales son más que sólo
bicontinuos. Veamos:
Proposición 1.5.2. Sean E y F dos EN’s tales que E ' F . Sea T ∈ L(E, F ) el mentado
isomorfismo. Entonces:
1. Sean M = kT k y m = kT −1 k−1 . Entonces tenemos que

m kxkE ≤ kT xkF ≤ M kxkE para todo x∈E . (1.31)

2. Con las mismas constantes m y M se tiene que

m · BF ⊆ T (BE ) ⊆ M · BF . (1.32)

3. Una (xn )n∈ N es E es de Cauchy ⇐⇒ (T xn )n∈N es de Cauchy en F .

4. E es Banach ⇐⇒ F es Banach.

5. La bola BE es compacta ⇐⇒ BF lo es.


Demostración. Es claro que para cualquier x ∈ E vale que kT xkF ≤ kT k kxkE . Además,

kxkE = kT −1 (T x)kE ≤ kT −1 k kT xkF =⇒ m kxkE ≤ kT xkF .

Veamos (1.32): Si y ∈ m BF y tomamos el único x ∈ E tal que T x = y entonces, por (1.31),

m kxk ≤ kT xk = kyk ≤ m =⇒ x ∈ BE =⇒ y ∈ T (BE ) .

La otra inclusión de (1.32) sale por la definición de kT k. Usando (1.31) y que T es lineal,
sale el item 3. Los otros dos son consecuencias directas de 3, porque al ser continuas, tanto
T como T −1 preservan convergencias y compacidad. Para probar 5 hay que usar (1.32) y
que x 7→ λ x (con λ 6= 0) es hómeo tanto en E como en F . 
Ejercicio 1.5.3. Sean E y F dos EN’s y tomemos T ∈ Hom(E, F ). Probar que tanto la
Ec. (1.31) como la Ec. (1.32) (para dos constantes m y M dadas) implican que T ∈ L(E, F )
y que es un iso bicontinuo. Incluso sale que kT k ≤ M y que kT −1 k ≤ m−1 . 4
1.5.4. Sea E un K-EV, y sean N1 y N2 dos normas en E. En tal caso se dice que N1 y N2
son normas equivalentes si existen m, M > 0 tales que

m N1 (x) ≤ N2 (x) ≤ M N1 (x) para todo x∈E . (1.33)

Esto equivale a que (E, N1 ) ' (E, N2 ) como espacios normados, por ejemplo con el isomor-
fismo IE1,2 = IE : (E, N1 ) → (E, N2 ). En efecto, basta tomar M = kIE1,2 k. La acotación por

27
abajo equivale a que IE2,1 = (IE1,2 )−1 sea acotada. La recı́proca sale tomando cualquier otro
isomorfismo T , y se deja como ejercicio.
Ejemplos de normas equivalentes son todas las k · kp con 1 ≤ p ≤ ∞, siempre que uno las
use solo en Kn , con el n fijo . De hecho vale que, si 1 < p < ∞, entonces
P
kxk∞ ≤ kxkp ≤ kxk1 = |xk | ≤ n · kxk∞ para todo x ∈ E .
k∈In

La aparición de ese n hace ya sospechar que la cosa se arruina al agrandar las dimensiones.
En efecto, si ahora uno labura con el espacio SF del Ejem. 1.2.5 (las sucesiones “finitas”), ahi
tienen sentido todas las k · kp , pero nunca son equivalentes entre sı́. Eso se puede probar a
mano, o usando que si lo fueran, los respectivos `p en los que SF es denso (o c0 para p = ∞),
tendrı́an que ser iguales como conjuntos (Prop. 1.5.2). Es fácil ver que eso no pasa.
En la mayorı́a de los ejemplos infinitodimensionales, es raro que aparezcan dos normas
equivalentes (salvo buscarlas ad hoc, por ejemplo tomando 2 · k · k). En cambio, como
veremos en la siguiente sección, en los finitodimensionales todas las normas que uno pueda
inventar para un espacio fijo son equivalentes. 4

1.6 Subespacios finitodimensionales.


Un problema tı́pico del AF es que la bola BE de un normado E no siempre es compacta. En
ésta sección dilucidaremos exactamente cuando sı́ lo es y cuando no. Adivinen.
Proposición 1.6.1. Sea E un EN tal que dim E = n < ∞. Luego todo K-isomorfismo (sólo
lineal) Ψ ∈ Hom(Kn , E) es automáticamente un iso de EN’s, o sea que es un hómeo. En
Kn usamos, en principio, la norma Euclı́dea k · k2 .
Demostración. Tomemos la base {x1 , . . . , xn } de E dada por xk = Ψ(ek ) , k ∈ In . Luego
n
X
Ψ(α) = α k xk , para α = (α1 , . . . , αn ) ∈ Kn .
k=1

Veamos que la Ψ es continua (de ida). En efecto, para todo α ∈ Kn vale que
n
X n
X 
kΨ(α)k ≤ |αk | kxk k ≤ máx kxk k · |αk | ≤ n · máx kxk k kαk2 ,
k∈In k∈In
k=1 k=1

por lo que Ψ ∈ L(Kn , E). Nos falta mostrar que Φ = Ψ−1 ∈ L(E , Kn ). Lo enunciamos ası́:
Todo K-iso Φ ∈ Hom(E , Kn ) debe ser continuo.
Supongamos que no lo es, i.e. kΦk = ∞. Entonces existe una sucesión (xn )n∈ N en BE \ {0}
cuyas imágenes yn = Φ(xn ) cumplen que an = kyn k −−−→ +∞. Luego la sucesión de los
n→∞
zn = a−1
n xn −−−→ 0 mientras que del otro lado kΦ(zn )k = a−1
n kyn k = 1 para todo n ∈ N.
n→∞

28
Sin embargo la cáscara S n−1 = {w ∈ Kn : kwk = 1} es compacta en el espacio Euclı́deo
Kn . Luego existe una subsucesión (ynk )k∈ N de (yn )n∈ N tal que esta otra sucesión
Φ(znk ) = a−1
nk ynk −−−→ w para cierto w ∈ S n−1 .
k→∞

Como ya vimos en la primera parte que Ψ = Φ−1 ∈ L(Kn , E) (tiene que ser continuo), sale
que znk = Ψ Φ(znk ) −−−→ Ψ(w). Pero arriba vimos que znk −−−→ 0. Encima Ψ es un
k→∞ k→∞
K-iso, por lo que tiene que valer que w ∈ S n−1 =⇒ w 6= 0 =⇒ Ψ(w) 6= 0. Todo este
desastre provino de suponer que Φ no era continuo. Ası́ que sı́ lo es y a otra cosa. 
Corolario 1.6.2. Sea E un EN de dim E = n < ∞. Entonces:
1. Si F es otro EN con dim F = n, entonces E ' F vı́a cualquier iso lineal.
2. Dos normas N1 y N2 en E son equivalentes. O sea que existen m, M > 0 tales que
m N1 (x) ≤ N2 (x) ≤ M N1 (x) para todo x∈E . (1.34)

3. Nuestro E con cualquier norma queda Banach.


4. También cumple que BE (con una norma cualquiera) es compacta.
Demostración. Si A : E → F es un iso lineal, y T ∈ L(E , Kn ) es algún iso, la Prop. 1.6.1
nos asegura que tanto T como AT −1 : Kn → F deben ser isos de los buenos. Componiendo
queda que A era anche hómeo. O sea que E ' F vı́a cualquier iso lineal.
En particular, la identidad IE1,2 = IE : (E, N1 ) → (E, N2 ) es continua para los dos lados, o
sea que es iso. Luego las desigualdades de (1.34) son consecuencia de la Ec. (1.31).
La completitud y la compacidad de la bola BE salen combinando la Prop. 1.6.1 con la
Prop. 1.5.2, usando que lo que se pide lo cumple Kn con la norma Euclı́dea. 
Corolario 1.6.3. Sea E un EN. Luego todo subespacio finitodimensional es cerrado.
Demostración. Sea S ⊆ E un tal subespacio. Por el Cor. 1.6.2, el tal S es un normado con
la norma de E que debe ser completo. Ası́ que tiene que ser cerrado en E. 
Corolario 1.6.4. Sea E un EN. Si tenemos que dim E = ∞, entonces la bola cerrada
BE = {x ∈ E : kxk ≤ 1} no es compacta.
Demostración. Por un proceso inductivo y aplicando sistematicamente el Lema de Riesz
1.4.4, podemos construir una sucesión (xn )n∈ N de vectores unitarios de E tales que
def 1
si Sn = span {x1 , . . . , xn } entonces d ( xn+1 , Sn ) ≥
,
2
para todo n ∈ N. Notar que el Lema 1.4.4 pide que los subespacios sean cerrados y propios.
Por un lado los Sn 6= E porque dim E = ∞. Por otro lado, el Cor. 1.6.3 nos asegura que
dim Sn < ∞ =⇒ Sn v E para cada n ∈ N, por lo que el proceso inductivo funciona.
En particular tenemos que kxn − xm k ≥ 12 para todo par n, m ∈ N tal que n 6= m. Y todos
los xn viven en BE , por lo que la bola no puede ser compacta. 

29
Corolario 1.6.5. Sean E y F dos EN’s y asumamos que dim E < ∞. Entonces todo
operador A ∈ Hom (E , F ) es continuo (i.e., acotado). No se presume que A sea mono.
P
Demostración. Fijemos una base {x1 , . . . , xn } de E como K-EV. Si y = yk xk ∈ E,
k∈In
P P  P
kA yk = y k A xk ≤ |yk | A xk ≤ máx kA xk k |yk | .

k∈In k∈In k∈In k∈In

Llamemos C = máx kA xk k < ∞ y definamos otra norma en E por la fórmula


k∈In

def P P
|ky |k = |yk | para cada y= yk xk ∈ E .
k∈In k∈In

Por el Cor. 1.6.2 existe M > 0 tal que |ky |k ≤ M kyk para todo y ∈ E. Luego

kA yk ≤ C |ky |k ≤ C M kyk para todo y ∈ E =⇒ A ∈ L(E , F ) . 

1.7 Cocientes.
Sea E un EN. Dado un S v E, consideramos la relación de equivalencia usual

x ∼S y si x−y ∈S para pares x, y ∈ E .


def
Es claro que E/S = E/∼s = {x + S : x ∈ E} es un K-EV (para eso no hace falta que S
sea cerrado). La proyección ΠS : E → E/S es un epimorfismo K-lineal, dado por
def
ΠS x = x = x + S ∈ E/S para cada x∈E .

Pero ahora queremos definir en E/S una norma adecuada: La mejor candidata será tomar
la k x k como la distancia de x a S. Observar que, como S v E, para cada x ∈ E vale que
d (x , S) = 0 ⇐⇒ x ∈ S ⇐⇒ x = 0. Además, calcular la d (x , S) = ı́nf kzk no es
z∈ x+S
otra cosa que minimizar las normas entre todos los integrantes de la clase de x (que es la
variedad afı́n paralela a S “puesta” arriba de x). Ası́ que eso usaremos:

Proposición 1.7.1. Sean E un EN y S v E tal que S =


6 E. Luego la fórmula
def
kx + Sk = d (x , S) = ı́nf kzkE para x + S ∈ E/S con x ∈ E (1.35)
z∈ x+S

define una norma en E/S que lo hace EN. Además valen estas propiedades:

1. La proyección ΠS al cociente cumple que ΠS ∈ L(E, E/S) con kΠS k = 1.

2. Si E era Banach, también lo será E/S con su nueva norma.

30
Demostración. Por lo que decı́amos arriba, la única clase con norma cero es la trivial. Ya
vimos en la Ec. (1.26) que d (λ x , S) = |λ| d (x , S) para cualesquiera λ ∈ K y x ∈ E. Para
ver la desigualdad triangular fijemos x, y ∈ E y w ∈ S. Luego

kx + y + Sk = k(x + w) + y + Sk = ı́nf k(x + w) + (y + z)k ≤ kx + wk + ı́nf ky + zk .


z∈S z∈S

Tomando ahora ı́nfimo sobre w ∈ S nos queda que kx + y + Sk ≤ kx + Sk + ky + Sk.


Es sabido que ΠS es K-lineal. Como d (x , S) ≤ kxk (para todo x ∈ E), vemos que kΠS k ≤ 1.
La desigualdad kΠS k ≥ 1 es otra manera de enunciar el Lema de Riesz 1.4.4.
Asumamos ahora que E es completo, y sea (xn )n∈ N una sucesión en E tal que (xn + S)n∈N
es de Cauchy en E/S. Para ver que converge, alcanza mostrarlo para alguna subsucesión,
por lo que podemos suponer (como en la prueba de la Prop. 1.1.12) que

k(xn+1 − xn ) + Sk < 2−n para todo n∈N. (1.36)

Fijemos y1 = x1 . La Ec. (1.36) nos premite construir inductivamente, para cada n ∈ N,


un vector yn+1 ∈ xn+1 + S tal que kyn+1 − yn k < 2−n . El criterio para series dado en la
Prop. 1.1.12 nos da que la sucesión (yn )n∈ N es de Cauchy en E y converge a un y ∈ E. Luego
k·k
xn + S = ΠS (xn ) = ΠS (yn ) −−−→ ΠS (y) = y + S . 
n→∞

En general no es cierto en los espacios normados que una suma de subespacios cerrados
tenga que seguir siendo cerrada. Contraejemplos de esto se mostrarán a su debido tiempo
(Ejer. 2.7.4). Hay en el medio una sutil noción de ángulo entre subespacios, que veremos
más adelante, y éste ángulo decide cuando sı́ y cuando no. Pero ahora veremos que si uno
de los subespacios es de dimesión finita, entonces la cosa seguro que anda bien:
Corolario 1.7.2. Sea E un EN. Si tenemos dos subespacios S, F v E y además asumimos
que dim F < ∞, entonces se tiene que S + F = {x + y : x ∈ S e y ∈ F} v E.
Demostración. Consideremos el cociente ΠS : E → E/S. El curro es notar primero que
F + S = Π−1

S ΠS (F) , lo cual es una cuenta algebráica estandard.
Ahora bien, el Cor. 1.6.3 nos asegura que ΠS (F) v E/S, porque es un subespacio de di-
mensión no menos finita que la de F. Pero como ΠS es continua, trae para atrás cerrados
en cerrados. 
Ejercicio 1.7.3. Sea E un EN. Dado un S v E, probar que
1. La ΠS ∈ L(E, E/S) es abierta, por lo que la topologı́a de abajo es la cociente.

2. Si tanto S como E/S son Banach’s con sus normas, entonces anche E es Banach. 4

Sin necesidad de usar que la proyección al cociente es abierta, veremos que los cocientes
tienen su versión “acotada” de la propiedad universal:

31
Proposición 1.7.4. Sean E y F dos EN’s y sea S v E. Consideremos el normado E/S
con la norma cociente, y la proyección ΠS ∈ L(E , E/S). Luego:
1. Un operador lineal A : E/S → F es acotado ⇐⇒ A ◦ ΠS ∈ L(E , F ).
2. Además vale que kAk = kA ◦ ΠS k.
def
Demostración. Para probar 1, lo no trivial es ver que A es continuo siempre que B = A◦ΠS
lo sea. Para mostralo tomemos un ρ = ΠS x ∈ E/S con x ∈ E. Para todo z ∈ S vale que

kA ρk = kA ( ΠS x )k = A ( ΠS (x − z) ) ≤ kBkL(E , F ) kx − zk .
Usando que kρk = inf kx − zk, deducimos que kA ρk ≤ kBk kρk para todo ρ ∈ E/S . Con
z∈S
eso hemos probado que A ∈ L(E/S , F ) con kAk ≤ kBk. La otra desigualdad se deduce de
1.7.1
que kBk = kA ◦ ΠS k ≤ kAk kΠS k y de que kΠS k = 1. 
Corolario 1.7.5. Sean E y F dos EN’s y sea S v E. Luego:
1. Dado un T ∈ L(E , F ) tal que S ⊆ ker T , el “bajado algebráico”

T ∈ Hom (E/S , F )
e definido por la ecuación T ◦ ΠS = T ,
e (1.37)

T ∈ L(E/S , F ) i.e., un operador acotado baja acotado al cociente.


cumple que e

2. Además vale que k e


T k = kT k,
Demostración. Es una consecuencia directa de la Prop. 1.7.4, porque el bajado e
T (cuya BD
y propiedades algebráicas damos por conocidas) cumple que T ◦ ΠS = T ∈ L(E , F ).
e 

Hiperplanos
Es claro que el núcleo de un operador acotado es cerrado. Pero la recı́proca de eso es falsa en
general. Basta tomar la identidad de un E pensado con dos normas no equivalentes (núcleo
ni tiene). Sin embargo, la cosa es más agradable para las funcionales: Ser el ker de una
funcional puede caracterizarse ası́: Dado un subespacio H ⊆ E (propio),
existe ϕ ∈ E 0 tal que H = ker ϕ ⇐⇒ existe un x ∈ E tal que E = H ⊕ span {x} , (1.38)
y a tales H se los llama hiperplanos. En efecto, como ϕ 6= 0, tomando cualquier x ∈
/ ker ϕ
ϕ(y)
la prueba de ⇒ en (1.38) es fácil, ya que y − ϕ(x) · x ∈ ker ϕ para todo y ∈ E.
La recı́proca sale cocientando por H, porque E/H 'K span {x} 'K K. En otras palabras,
tenemos que los hiperplanos son aquellos subespacios H ⊆ E tales que E/H 'K K.
Una cosa interesante de los hiperplanos es que tienen que ser cerrados o densos. Esto es ası́
porque H ⊆ H ⊆ E y no queda mucho lugar (recordar que H v E).
Ahora veremos que cuando el codominio de una TL es finitodimensional (y esto incluye a
las funcionales), entonces la cerrazón del ker sı́ alcanza para asegurar continuidad:

32
Proposición 1.7.6. Sean E y F dos EN’s y asumamos que dim F < ∞. Sea T : E → F
una transformación K-lineal no nula. Entonces se tiene que

T ∈ L(E, F ) (i.e., T es continua) ⇐⇒ ker T v E .

En particular, una ϕ ∈ E 0 \ {0} cumple que ϕ ∈ E ∗ ⇐⇒ ker ϕ es un hiperplano cerrado.

Demostración. Observar que T se puede “bajar” a un K-monomorfismo



T̃ : E/ ker T → F tal que T̃ ◦ Πker T = T =⇒ dim E/ ker T ≤ dim F < ∞ .

Si asumimos que ker T v E, entonces la Prop. 1.7.1 dice que E/ ker T es un EN con la norma
cociente. Entonces, por el Cor. 1.6.5, sabemos que T̃ ∈ L(E/ ker T , F ). Finalmente, como
también Πker T es continua, queda que T = T̃ ◦ Πker T ∈ L(E, F ).
La recı́proca sale porque ker T = T −1 ({0}) y los métricos son T1 . 

Proposición 1.7.7. Sea E un EN. Dados x ∈ E y ϕ ∈ E ∗ \ {0} se tiene que

d (x , ker ϕ ) = |ϕ(x)| kϕ k−1 (1.39)

Demostración. Llamemos S = ker ϕ v E. Sea ϕ e ∈ (E/S)∗ el bajado de ϕ al cociente E/S


definido en (1.37). Como S es un hiperplano tenemos que E/S ' K, por lo que

|ϕ(
e x )| = kϕ
ek k x k para toda clase x ∈ E/S con x∈E .

Por otro lado, el Cor. 1.7.5 asegura que kϕk = kϕ


e k. Luego, todo x ∈ E cumple que

(1.35) |ϕ(
e x )| (1.37) |ϕ(x)|
d (x , ker ϕ ) = k x k = = . 
kϕek kϕ k

1.8 Algunos ejemplos de operadores.


El lector habrá notado que apenas definimos espacios normados ya empezamos a trabajar
con sus operadores acotados. Esto se justifica porque la teorı́a es una especie de álgebra
lineal topológica-métrica y los objetos que interesan son las funciones lineales en este nuevo
ambiente. Vimos algunos ejemplos de funcionales, pero faltan ver operadores acotados para ir
acostumbrándose a las macanas que hacen. Como decı́amos antes, los principales ejemplos ya
existı́an antes de que se pergreñara la teorı́a. Fundamentalmente los operadores diferenciales
(aunque estos no suelen ser acotados), integrales, y las diferenciales de funciones suaves entre
normados, a las que se les pide acotación.
Sin embargo, en esta sección focalizaremos en operadores que hacen cosas a las que uno
no está acostumbrado al laburar en Kn . El principlal generador de contraejemplos para
intuiciones pifiadas es el famoso operador shift que presentamos a continuación.

33
1.8.1 (El shift). Trabajemos en un espacio E de sucesiones, por ejemplo c0 o `p (N) para
cualquier p ∈ [1 , ∞]. Definamos al operador S ∈ L(E), que llameremos el shift, como

S(x) = (0 , x1 , . . . , xn , . . . ) para x = (xn )n∈ N ∈ E . (1.40)

Es decir que S “corre” o “shiftea” las entradas de x a la derecha en un lugar, y completa


con un cero en la primera. Formalmente se puede escribir que

S(x) = (yn )n∈ N , donde y1 = 0 e yn+1 = xn para cada n∈N.

Observar que S es mono, más aún es isométrico (normas con series o supremos ni ven al
nuevo cero, y las demás entradas son las mismas de antes aunque en otros lugares). Pero
ovbiamente S no es epi. De hecho R(S) = {(yn )n∈ N ∈ E : y1 = 0} v E.
Esto sólo ya contradice el Teor. de la dimensión de las matrices, que dice que si son endos
y monos deben ser epis. Pero es aún peor, porque S es inversible a izquierda pero no a
derecha. En principio es claro que no puede haber un A ∈ L(E) tal que SA = IE porque S
no era epi. Pero si definimos T ∈ L(E) como el shift para el otro lado:

T (y) = (y2 , y3 , . . . , yn , . . . ) para y = (yn )n∈ N ∈ E ,

nos queda que T tacha el y1 y corre el resto de y al principio. Es claro que kT k = 1 y que
este T sı́ es epi, pero ahora no es mono. Además se ve inmediatamente que T S = IE .
Otra cosa que pasa con S es que no tiene autovalores (aún si ponemos K = C). En efecto,
λ = 0 no sirve porque S era mono. Y si tomamos λ 6= 0 y existiera un x ∈ E tal que
S x = λ x, entonces tendrı́amos que S n x = λn x para todo n ∈ N. Pero si miramos bien,
vemos que S n x tiene n ceros al principio. Paso a paso, uno muestra que todas las entradas
de x son nulas y x = 0, lo que no nos sirve como autovector.
Pero la cosa es aún más rara con T , porque tiene “demasiados” autovalores. Fijensén que
si tomamos λ tal que |λ| < 1 y hacemos el vector xλ = (λn )n∈N , entonces xλ ∈ E porque
tanto el supremo como las series a la p convergen bien para las geométricas. Ahora,

T xλ = (λ2 , λ3 , . . . , λn , . . . ) = λ xλ .

Creer o reventar. Todo un disco D de autovalores para T . Y ninguno para S. A pesar de


que son operadores buenı́simos. Ya los volveremos a ver a estos shifts (conocidos como los
shifts unilaterales) a lo largo del texto. 4
1.8.2. Operadores de multiplicación.
Caso continuo: Pongamos que E = Lp = Lp (X, Σ, µ), para algún p ∈ [1 , ∞]. Fijemos una
f ∈ L∞ y definamos su operador de multiplicación

Mf ∈ L(Lp ) dado por Mf h = f · h para las h ∈ Lp . (1.41)

Es claro que multiplicarlas por una acotada no saca a las h de su Lp . De hecho vale que
R 1/p R 1/p
kMf hkp = X |f |p · |h|p d µ ≤ kf k∞ X
|h|p d µ = kf k∞ khkp .

34
Esto muestra que efectivamente Mf ∈ L(Lp ) con kMf k ≤ kf k∞ . Pero vale que

kMf k = kf k∞ para toda f ∈ L∞ . (1.42)

Para verlo, fijemos un ε ∈ (0, kf k∞ ). Si llamamos Aε = {x ∈ X : |f (x)| ≥ kf k∞ − ε} (para


un representante de la “clase” f ), sale que µ(Aε ) > 0. Si la medida fuera infinita, cambiemos
Aε por alguien de medida positiva y finita dentro de él. Tomemos ahora la función

hε (x) = µ(Aε )−1/p · ℵAε para x∈X .

Una cuenta directa muestra que khε kp = 1, por lo que hε ∈ BLp . Pero si calculamos
 1/p
−1
R p
kMf hε kp = kf · hε kp = µ(Aε ) Aε
|f | d µ

 1/p
µ(Aε )−1
R
≥ Aε
(kf k∞ − ε)p d µ = kf k∞ − ε .

Esto nos dice que kMf k ≥ kf k∞ − ε para cualquier tal ε, o sea que kMf k ≥ kf k∞ .
El espacio L∞ , además de ser Banach, es una K-álgebra, usando el producto punto a punto
de las funciones. Observar que kf · gk∞ ≤ kf k∞ kgk∞ para cualquier par f, g ∈ L∞ . Una
cosa ası́ se llama álgebra de Banach y se estudiará sistemáticamente más adelante (en el
Cap. 6). Otra álgebra ası́ es L(E) para cualquier espacio E de Banach. El producto ahı́ es
la composición de los operadores.
M
La idea de este ejemplo es que da una representación isométrica L∞ ,→ L(Lp ) por operadores
de multiplicación que, en el caso discreto (o sea `p ), se verán como operadores “diagonales”.
Notar que M ∈ L L∞ , L(Lp ) . Al decir esto, implı́citamente aseguramos que M es K-
lineal. Esto es bien fácil de probar, y también es fácil que Mf ·g = Mf ◦ Mg para f, g ∈ L∞
cualesquiera. Ası́ que M es un morfismo isométrico de álgebras.
Caso discreto: Si X = N, Σ = P(N) y µ es “contar”, uno tiene que Lp = `p . Allı́ esta
representación M se ve ası́: Dada la sucesión x = (xn )n∈ N ∈ `∞ , tenemos que

Mx y = (xn yn )n∈N ∈ `p para cada y = (yn )n∈ N ∈ `p , (1.43)

por lo que podemos pensar que Mx es una matriz infinita diagonal actuando en las columnas
infinitas de `p , porque lo que hace es multiplicar cada coordenada por un número distinto.
Sigue valiendo que kMx k = kxk∞ y que Mx My = Mx y para todo par x , y ∈ `∞ , donde el
producto en `∞ está dado por x y = (xn yn )n∈N ∈ `∞ .
Autovalores: Observar que Mx en = xn en para todo n ∈ N. Por ello todas las entradas xn
de x pasan a ser autovalores para Mx , con autovector en (los canónicos).
Sin embargo, en el caso X = [0, 1] con la medida usual, podemos tomar el operador Mt que
multiplica las h por la función f (t) = t, para t ∈ [0, 1]. Y lo que pasa es que el tal Mt
no tiene nigún autovalor. En efecto, si Mt h = λ h, entonces (t − λ)h(t) = 0 (ctp). Esto
obligarı́a a que la h sea nula (ctp), y no nos servirı́a como autovector.

35
Inversibles: Dejamos como ejercicio caracterizar las f ∈ L∞ (o las x ∈ `∞ ) tales que Mf es
un iso en el sentido de la Ec. (1.30), o sea que Mf sea “inversible” en L(Lp ). Observar que
si existiera la inversa de un Mf , no le quedarı́a otra que ser M1/f . El tema es ver cuándo
eso existe y es acotado. Sugerimos hacerlo primero en el caso discreto, usando la Ec. (1.31).
Después eso se generaliza al caso continuo con los supremos esenciales (onda los Aε ).
Veamos un ejemplo raro: Sea x = ( n1 )n∈N ∈ `∞ , que produce el operador Mx ∈ L(`p ). Por
un lado Mx no tiene al cero como autovalor, porque es mono. Sin embargo Mx no es epi (y
por ende no es iso), por ejemplo porque el mismı́simo x ∈ `p (si p > 1) pero x ∈ / R(Mx ) (si
p 6= ∞). Observar que su supuesta inversa serı́a “multiplicar por n en la n-ésima entrada”,
lo que seguro no camina (no es acotado y ni siquiera “cae” siempre en `p ). 4
1.8.3 (Núcleos). Laburemos ahora en L2 = L2 (X, Σ, µ). Pensemos en el espacio X × X
con la medida producto µ × µ. Si me dan una función k ∈ L2 (X × X), que llamaremos un
núcleo, observar que es una función de dos variables k(x, y) para x, y ∈ X (más bien es una
clase). Definamos el operador Tk ∈ L(L2 ) por la fórmula
Z
(Tk f )(x) = k(x, y) f (y) dµ(y) para cada f ∈ L2 y cada x ∈ X . (1.44)
X
x k
Observar que, como k ∈ L2 (X × X), las funciones X 3 y 7−→ k(x, y) viven en L2 (X) para
casi todo x ∈ Y (por Fubini-Tonnelli). Por Hölder, eso muestra que los valores
|(Tk f )(x)| ≤ kkx k2 kf k2 < ∞ para casi todo x∈X .
Como siempre, la linealidad de Tk sale sin problemas. Ahora calculemos
Z Z
2 2
2
kTk f k2 = |(Tk f )(x)| dµ(x) ≤ kf k2 kkx k22 dµ(x)
X X
Z Z
= kf k22 |k(x, y)|2 dµ(y) dµ(x) = kkk22 kf k22 .
X X

En resumen, vemos que efectivamente Tk ∈ L(L2 ) con kTk k ≤ kkk2 .


Es interesante observar que la fórmula (1.44) que define a Tk tiene una clara semejanza con el
producto de una matriz por un vector. Se multiplica escalarmente la “fila x” de k, moviendo
su ı́ndicey, por las entradas en y del vector f . De hecho, en el caso discreto `2 , el núcleo
k = k i,j i,j∈N es una matriz infinita y fórmula (1.44) se traduce exactamente a
X
(Tk x)i = k i,j xj para cada x = (xj )j∈N ∈ `2 y cada i ∈ N , (1.45)
j∈N

que es la multiplicación matricial sin vueltas. Si bajamos más aún al caso finito, donde es un
producto común de una matriz por un vector, veremos que la cota kTk k ≤ kkk2 es demasiado
grande. De hecho kkk2 es la norma Frobenius de la matriz k, que suele ser mucho mayor
que la norma “espectral”, que es su norma como operador sobre Kn con la norma Euclı́dea.
Esto nos hace pensar, con razón, que puede haber núcleos k mucho más “grandes” que los
de cuadrado integrable, que produzcan vı́a (1.44) un operador Tk ∈ L(L2 ). Continuará. 4

36
1.9 Ejercicios del Cap. 1 - Espacios Normados
Ejercicios aparecidos en el texto
1.9.1. Completar los detalles de la prueba de la Prop. 1.1.2: Sea (E, k · k) un EN. Luego:

1. La d (x, y) = kx − yk (para x, y ∈ E) es una métrica en E.

2. Con la topologı́a asociada a d, E nos queda un EVT. En particular las translaciones E 3 y 7→ y + x


y las flechas K 3 λ 7→ λ x (con x fijo) son continuas.

3. La función norma es continua. Más aún, vale la desigualdad



kxk − kyk ≤ kx − yk = d (x, y) , para todo par x, y ∈ E . 4

1.9.2. Completar los detalles de la prueba de la Prop. 1.1.6: Sean E y F dos EN’s. Dado T ∈ Hom (E, F ),
def 
kT k = kT kL(E,F ) = sup kT xkF : x ∈ E y kxkE ≤ 1 .

Entonces vale lo siguiente:


n o
1. kT k = sup kT xkF = mı́n M ≥ 0 : kT xkF ≤ M kxkE para todo x ∈ E .
x∈ BE

2. T ∈ C(E, F ) ⇐⇒ kT k < ∞.
 
1
1.9.3. Calcular la norma del operador de multiplicación T ∈ L(SF ) dado por T x = (1 − n ) xn
n∈N
para cada x = (xn )n∈ N ∈ SF . Probar que se puede extender a L(`p ) manteniendo su norma, para todo
exponente p ∈ [1 , ∞].

1.9.4. Hacer los detalles de las cuentas de todos los ejemplos de las Secciones 1.2 y 1.3. Parte de este laburo
(medidas, espacios Lp ) se propone con bastante detalle en subsecciones posteriores de esta sección.

1.9.5. Sea E un EN, y fijemos un subespacio cerrado S v E. Recordar la función “distancia a S”

d ( · , S) : E → R+ dada por dS (x) = d (x, S) = ı́nf kx − yk , para cada x∈E .


y∈ S

Probar que para todo x ∈ E se cumple que

1. La d (x, S) = 0 ⇐⇒ x ∈ S.

2. Para todo z ∈ x + S se tiene que d (z, S) = d (x, S).

3. Dado λ ∈ K, vale que la d (λ x , S) = |λ| · d (x , S).

4. La flecha E/S 3 x + S 7→ d (x , S) define una norma en E/S.

1.9.6. Sean E y F dos EN’s y tomemos T ∈ Hom(E, F ). Las siguientes condiciones son equivalentes:

1. Nuestro T ∈ L(E, F ) y es un iso bicontinuo.

2. Existen m, M > 0 tales que m kxkE ≤ kT xkF ≤ M kxkE para todo x ∈ E.

3. Existen m, M > 0 tales que m · BF ⊆ T (BE ) ⊆ M · BF .

En tal caso se tiene que kT k ≤ M y que kT −1 k ≤ m−1 . Comparar con el Ejer. 1.5.3.

37
1.9.7. Probar que si 1 ≤ p ≤ q ≤ ∞, entonces `p (N) ⊆ `q (N). Ya que estamos, mostrar que si p < q,
entonces la inculsión es estricta. Sugerios mostrar que para toda x ∈ CN vale que kxkq ≤ kxkp . 4

1.9.8. Probar que si


1 < p, q < ∞ y 1
p + 1
q =1 =⇒ (`p )∗ ∼
= `q .
La acción es la misma que en 1.3.1 haciendo series de productos, pero usando Hölder en vez de (1.20). 4

1.9.9. Completar los detalles de la prueba del Cor. 1.7.2: Sea E un EN. Si tenemos dos subespacios S, F v E
y además asumimos que dim F < ∞, entonces se tiene que S + F = {x + y : x ∈ S e y ∈ F} v E.

1.9.10. Sea E un EN. Dado un S v E, probar que

1. La ΠS ∈ L(E, E/S) es abierta, por lo que la topologı́a de abajo es la cociente.

2. Si tanto S como E/S son Banach’s con sus normas, entonces anche E es Banach. 4

1.9.11. Caracterizar las f ∈ L∞ (o las x ∈ `∞ ) tales que su operador de multiplicación Mf ∈ L(Lp ) es un


iso (o sea que Mf es “inversible” en L(Lp ) ). Comparar con las f que son “inversibles” en el álgebra L∞ .

Repaso de medidas complejas y signadas


Sea X un conjunto y Σ una σ-álgebra en X. Definamos las medidas complejas:

1. Una µ : Σ → C es una medida compleja si es una función σ-aditiva que nunca toma el valor ∞. En
tal caso el triplette (X , Σ , µ) es un espacio de medida compleja.

2. Denotaremos por M (X) = M (X , Σ) al conjunto de todas las medidas complejas definidas en Σ.

3. Dada µ ∈ M (X) diremos que µ es

(a) Signada si µ(∆) ∈ R para todo ∆ ∈ Σ.


(b) Positiva si es signada con signo + : µ(∆) ≥ 0 para todo ∆ ∈ Σ.
(c) Dadas µ , ν ∈ M (X) ambas signadas, se pone que µ ≤ ν si µ(∆) ≤ ν(∆) para todo ∆ ∈ Σ.

4. Fijado ∆ ∈ Σ, denotaremos PD(∆) a las particiones finitas de ∆ en conjuntos medibles (y disjuntos).


Tı́picamente notaremos por Π = {A1 , . . . , An } ∈ PD(∆) a tales particiones.

1.9.12. Demostrar las siguientes propiedades de las medidas complejas:

1. El conjunto M (X) es un C-EV. Es decir que las CL’s de medidas complejas se quedan en M (X).

2. Si µ ∈ M (X) , entonces también µ, Re(µ) y Im(µ) ∈ M (X).

La que deja de ser medida es la flecha Σ 3 ∆ 7→ |µ(∆)|, pero esto se arregla con algo de laburo:

1.9.13. Sea µ ∈ M (X , Σ). La variación total de µ es la función


( n
)
X
|µ| : Σ → [0 , +∞] dada por |µ|(∆) = sup |µ(Ak )| : Π = {A1 , . . . , An } ∈ PD(∆) ,
k=1

para cada ∆ ∈ Σ. Probar que |µ| ∈ M (X), por lo que es una medida positiva y finita.

1.9.14. Sea (X , Σ , µ) un espacio de medida compleja. Probar que

1. |µ(A)| ≤ |µ|(A) para todo A ∈ Σ.

38
2. Si λ ∈ M (X) es positiva y |µ(A)| ≤ λ(A) para todo A ∈ Σ, entonces |µ| ≤ λ.

3. Más aún, |µ| = min{λ ∈ M (X) : λ es positiva y |µ(A)| ≤ λ(A) para todo A ∈ Σ}.

Definición 1.9.15. Sean µ ∈ M (X) y E ∈ Σ. Decimos que µ esta concentrada en E si

µ(A) = µ(A ∩ E) para todo A ∈ Σ .

Definición 1.9.16. Sean µ1 y µ2 ∈ M (X). Decimos que µ1 y µ2 son mutuamente singulares (µ1 ⊥ µ2 ) si
existe Π = {E1 , E2 } ∈ PD(Σ) tal que µi está concentrada en Ei para i = 1, 2.

1.9.17. Sean µ1 , µ2 y λ ∈ M (X), con λ positiva. Demostrar que:

1. Si µ1 está concentrada en E ∈ Σ, entonces |µ1 | también.

2. Si µ1 ⊥ µ2 , entonces |µ1 |⊥ |µ2 |.

3. Si µ1 ⊥ λ y µ2 ⊥ λ, entonces (µ1 + µ2 )⊥ λ.

Definición 1.9.18. Sean µ1 y µ2 ∈ M (X). Decimos que µ1 es absolutamente continua respecto de µ2 (se
denota por µ1  µ2 ) si |µ2 |(A) = 0 =⇒ |µ1 |(A) = 0 para todo A ∈ Σ.

1.9.19. Sean µ1 , µ2 y λ ∈ M (X), con λ positiva. Demostrar que:

1. Si µ1  λ, entonces |µ1 |  λ.

2. Si µ1  λ y µ2 ⊥ λ, entonces µ1 ⊥ µ2 .

3. Si µ1  λ y µ2  λ, entonces (µ1 + µ2 )  λ.

4. Si µ1  λ y µ1 ⊥ λ, entonces µ1 = 0.

e. Si µ1  λ, entonces Re(µ1 )  λ and Im(µ1 )  λ.

1.9.20. Sea λ ∈ M (X) signada. Demostrar que existen dos (únicas) medidas λ+ y λ− ∈ M (X) positivas
tales que λ = λ+ − λ− y además λ+ ⊥ λ− .

1.9.21. Sean µ , λ ∈ M (X), con λ signada. Demostrar que:

λµ ⇐⇒ λ+  µ y λ−  µ.

def
1.9.22. Probar que la flecha M (X) 3 µ 7−→ kµk = |µ|(X) define una norma en M (X).

1.9.23. Sea (X , Σ , µ) un espacio de medida (positiva) y sea f ∈ L1 (µ). Definimos la función


Z
µf : Σ → C dada por µf (∆) = f dµ ,

para cada ∆ ∈ Σ (observar la definición es buena). Probar que

1. Toda tal µf es una medida compleja.

2. Su variación total cumple que |µf | = µ|f | .

3. Deducir que kµf k = kf k1 .

39
1.9.24. Supongamos que (X , τ ) es un espacio topológico Hausdorff. Sea Σ una σ-álgebra que contenga a τ
(y por ello a los Borelianos de X). Una medida µ ∈ M (X) es regular si cumple que
 
|µ|(∆) = ı́nf |µ|(U ) : U es abierto y ∆ ⊆ U = sup |µ|(F ) : F es cerrado y F ⊆ ∆ , (1.46)
para todo ∆ ∈ Σ. Probar que
1. Una µ es regular ⇐⇒ dados ∆ ∈ Σ y ε > 0, existen un abierto U y un cerrado F tales que
F ⊆∆⊆U y |µ|(U \ F ) < ε .

2. El conjunto Mr (X) = {µ ∈ M (X) : µ es regular } ⊆ M (X) cumple que


(a) Es un subespacio, o sea que suma de regulares es regular.
(b) Más aún, Mr (X) v M (X), o sea que es un subespacio cerrado.
def
(c) Si en Mr (X) consideramos la norma µ 7−→ kµk = |µ|(X), nos queda que Mr (X) es un Banach.
1.9.25. Supongamos ahora que (X , τ ) es un espacio topológico compacto Hausdorff. Sea Σ la σ-álgebra
de los Borelianos de X. Fijemos µ ∈ Mr (X) (insistimos: es regular). Probar que
1. Toda f ∈ C(X) (o sea que f es continua) es µ-integrable.
2. Por otro lado, se tiene la desigualdad
Z Z

f dµ ≤ |f | d |µ| ≤ kf k∞ kµk . (1.47)

X X

3. La funcional ϕµ : C(X) → C dada por


Z
ϕµ (f ) = f dµ para cada f ∈ C(X)
X

es lineal y continua, por lo que ϕµ está en C(X)∗ . Más aún, se tiene que
kϕµ k = sup |ϕµ (f )| = |µ|(X) = kµk . (1.48)
kf k∞ =1

Observar que una desigualdad sale usando (1.47). Para probar la otra es donde se usa que la µ es
regular, como se decribe en el Ejem. 1.3.3.
Observación 1.9.26. El Teorema de Riesz dice que esta flecha Mr (X) 3 µ 7→ ϕµ ∈ C(X)∗ produce que
C(X)∗ ∼ = Mr (X). El Ej. anterior es la parte fácil de su prueba, pero ya dice mucho porque asegura que una
µ ∈ Mr (X) está caracterizada por cómo actua en las continuas. Sin embargo, mucho más difı́cil (y más útil)
es ver que dicha flecha es epi. La idea no es tan rara: dada ϕ ∈ C(X)∗ una funcional positiva (esto significa
que ϕ cumpla que ϕ(f ) ≥ 0 siempre que f ≥ 0), se define la candidata a medida positiva

µϕ : Σ → R ∪ {∞} dada por µϕ (∆) = sup ϕ(g) : g ∈ C(X) y 0 ≤ g ≤ ℵ∆ .
Largas páginas de laburo permiten ver que esta idea alcanza para mostrar que la flecha era epi. 4
1.9.27. Sea X un espacio Hausdorff y Cb (X) el espacio de todas las funciones continuas acotadas definidas
en X que toman valores complejos. En Cb (X), definimos la norma
kf k∞ = max |f (x)|.
x∈X

Probar que (Cb (X), k · k∞ ) es un espacio de Banach.


1.9.28. Sea X un espacio LKH y C0 (X) el espacio de todas las funciones continuas f : X → C tales que
para todo ε > 0 el conjunto {x ∈ X : |f (x)| ≥ ε} es compacto. Probar que que C0 (X) es un subespacio
cerrado de Cb (X) y en consecuencia es un espacio de Banach.

40
Los espacios Lp .
A partir de ahora decimos que (X , Σ , µ) es us espacio de medida si µ es positiva y no necesariamente finita.
Para evitar dividir por la relación “difieren en un conjunto de medida nula”, definamos
1. Med(X) = Med(X , Σ) = {f : X → C : f es Σ-medible }, que es un C-EV.
 
2. N (X) = N (X , Σ , µ) = f ∈ Med(X) : µ |f | =
6 0 = 0 , que es un subespacio.

3. L(X) = L (X , Σ , µ) = Med(X)/N (X), el C-EV de clases en c.t.p. de funciones medibles.


Es fácil ver que todas las operaciones que uno hace en L(X) para definir los espacios Lp estarán bien definidas
en toda la clase de cada f ∈ Med(X).
1.9.29. Sea (X , Σ , µ) un espacio de medida.
1. Para 1 ≤ p < ∞ definimos
Z
Lp = Lp (X, Σ, µ) = {f ∈ L(X) : tales que |f |p dµ < ∞ } ,
X

R 1/p
con la norma kf kp = X
|f |p dµ . Probar que (Lp , k · kp ) es un espacio de Banach.

2. Fijada una f ∈ Med(X, Σ), definimos su supremo esencial como el número


 
kf k∞ = ess sup(f ) = ı́nf M > 0 : tal que µ |f | > M = 0 .

Es claro que la k · k∞ baja bien definida a L(X). Luego definimos el espacio normado

L∞ = L∞ (X, Σ, µ) = {f ∈ L(X) : kf k∞ < ∞ } .

Probar que (L∞ , k · k∞ ) es un espacio de Banach.


1.9.30. Sea (X , Σ , µ) un espacio de medida finita. Probar que
1. Si 1 ≤ p ≤ q ≤ ∞, entonces Lq ⊆ Lp .

2. Si f ∈ L∞ (X, Σ, µ) entonces kf k∞ = lim kf kp .


p→∞

3. Dar un contraejemplo del item 1 si µ no es finita.


1.9.31. Sea (X , Σ , µ) un espacio de medida. Probar que
1. Si 1 ≤ p ≤ q ≤ ∞ entonces Lp ∩ L∞ ⊆ Lq .

2. Si f ∈ Lp ∩ L∞ entonces kf k∞ = lim kf kp .
p→∞

1.9.32. Sea (X , Σ , µ) un espacio de medida finita. Fijemos 1 ≤ p , q ≤ ∞ exponentes conjugados (i.e.


1 1 q p ∗
p + q = 1). Consideremos la representación R : L → (L ) dada por
Z
Lq 3 g 7→ R(g) = ϕg donde ϕg (f ) = f g dµ para cada f ∈ Lp (X, Σ, µ) .
X

Mostrar que esta representación es un isomorfismo isométrico sobre que permite identificar (Lp )∗ con Lq .
La prueba de que es “sobre” requiere del Teorema de Radon-Nikodym. Si no lo conocen lo suficiente pueden
ir a la página http://es.wikipedia.org/wiki/Teorema de Radon-Nikodym. Lo anterior se extiende al caso en
que (X , Σ , µ) es σ-finito (i.e. X es unión numerable de cachos de medida finita), que es hasta donde llega
el TRN. Con eso R y los Rn safan.

41
1.9.33. Sea (X , Σ , µ) un espacio de medida. Consideremos el espacio S0 (X) de todas las “funciones”
f ∈ L(X) que son simples (i.e. CL de caracterı́sticas) tales que µ{x ∈ X : f (x) 6= 0} < ∞. Probar que
S0 (X) es denso en Lp para todo p ∈ [1 , ∞).

1.9.34. Supongamos que en el ejercicio anterior X es un espacio topológico LKH y que Σ es la σ-álgebra de
Borel. Probar que el subespacio Cc (X) de las funciones continuas definidas en X con soporte compacto es
denso en Lp para todo p ∈ [1 , ∞).

1.9.35. Supongamos ahora que X ⊆ Rn es un abierto y que Σ consta de los Borelianos de X. Probar que
el subespacio Cc∞ (X) de las funciones definidas en X con infinitas derivadas continuas y soporte compacto
es denso en Lp para todo p ∈ [1 , ∞).

Los espacios de Sobolev.


Definición 1.9.36. Sean Ω ⊆ R un intervalo y Cc∞ (Ω) las funciones definidas en Ω infinitamente deribables
con soporte compacto. Dada f ∈ L1loc (Ω), decimos que una función g ∈ L1loc (Ω) es la k-ésima derivada débil
de f , y lo escribimos Dk f = g, si para toda φ ∈ Cc∞ (Ω) se satisface la siguiente identidad:
Z Z
(k) k
f φ dx = (−1) g φ dx.
Ω Ω

Se puede probar que estas derivadas en el sentido débil son únicas. 4

1.9.37 (Espacios de Sobolev). Para 1 ≤ p ≤ ∞ definamos el espacio de Sobolev W n,p como el espacio
de todas las funciones f ∈ Lp (Ω) tales que para cada k ∈ In la derivada Dk f existe en el sentido débil y
pertenece a Lp (Ω). En dicho espacio se define la siguiente norma:
 
n
1/p
p
 P


 kDk f kp si 1 ≤ p < ∞
k=0

kf kW n,p =

 n
P
kDk f k∞ si p=∞ .



k=0

Probar que (W n,p , k · kW n,p ) es un espacio de Banach.

Ejemplos de operadores acotados.


1.9.38 (Shift). Sea 1 ≤ p ≤ ∞. Consideremos los operadores S : `p → `p y T : `p → `p dados por

S(x) = (0 , x1 , x2 , . . .) y T (x) = (x2 , x3 , x4 , . . .) para x = (xn )n∈ N ∈ `p .

1. Probar que S ∈ L(`p ) y que es mono. Calcular kSk.

2. Probar que T ∈ L(`p ) y que es epi. Calcular kT k.

3. Probar que T S = I, pero ST 6= I.

4. Probar que S no tiene autovalores, mientras que los de T son todo el D = {λ ∈ C : |λ| < 1}.

1.9.39. Operadores de Multiplicación.

1. Dada una ϕ ∈ C[0, 1], consideremos el operador Mϕ : C[0, 1] → C[0, 1] definido por

Mϕ (f ) = ϕf para cada f ∈ C[0, 1] . (1.49)

Probar que Mϕ ∈ L(C[0, 1]) y calcular su norma.

42
2. Dada ϕ ∈ L∞ [0, 1], definimos Mϕ : L2 [0, 1] → L2 [0, 1] igual que el (1.49). Probar:

(a) Mϕ ∈ L(L2 [0, 1]) con kMϕ k = kϕk∞ .


(b) La representación M : L∞ [0, 1] → L(L2 [0, 1]) dada por M (ϕ) = Mϕ para cada ϕ ∈ L∞ [0, 1], es
un morfismo isométrico de álgebras (i.e. es K-lineal y respeta productos).
(c) Mϕ2 = Mϕ ⇐⇒ ϕ es una caracterı́stica.

1.9.40. Sea a = (an )n∈ N ∈ CN una sucesión de números complejos. Fijado p ∈ [1 , ∞), definimos el
operador Ma : `p → `p por Ma x = (an xn )n∈N , para cada x = (xn )n∈ N ∈ `p . Probar que

1. Este Ma está bien definido (cada Ma x cae en `p ) ⇐⇒ Ma ∈ L(`p ) ⇐⇒ a ∈ `∞ .

2. En tal caso se tiene que kMa k = kak∞ .

3. La representación M : `∞ → L(`p ) dada por M (a) = Ma para cada a ∈ `∞ , es un morfismo isométrico


de álgebras (i.e. es K-lineal y respeta productos).

4. Un Ma es mono ⇐⇒ an 6= 0 para todo n ∈ N.


def
5. Un Ma es un isomorfismo (y hómeo) ⇐⇒ a es inversible en `∞ ⇐⇒ a−1 = (a−1 ∞
n )n∈N ∈ ` .

6. Sea D = {Ma : a ∈ `∞ } = R(M ). Dado un A ∈ L(`p ), son equivalentes:

(a) El tal A está en D.


(b) Está en el comnutante: A ∈ D0 , o sea que A conmuta con todos los Ma ∈ D.
(c) Algo menos: A Men = Men A para todos los en de la base canónica de SF ⊆ `p .

Comparar esta descripción de D con las matrices diagonales de L(Kn ). 4

1.9.41. Si k ∈ L2 ([0, 1] × [0, 1]), sea Tk : L2 ([0, 1]) → L2 ([0, 1]) dado por
Z 1
(Tk f )(s) = k(s, t) f (t) dt para cada f ∈ L2 [0, 1] .
0

Probar que Tk ∈ L(L2 [0, 1]) y que kTk k ≤ kkk2 . 4

Funcionales Lineales.
1.9.42. Sean E un EN y ϕ : E → C una funcional lineal tal que ϕ 6= 0. Probar que ϕ(E) = C. 4

1.9.43. Sean E un EN y ϕ ∈ ER0 . Probar que

/ ER∗ entonces toma todos los valores reales en cualquier entorno de 0.


1. Si ϕ ∈

2. ϕ ∈ ER∗ ⇐⇒ para cada c ∈ R, los conjuntos {x : ϕ(x) < c} y {x : ϕ(x) > c} son abiertos.

3. Si A ⊆ E tiene interior no vacı́o y existe a ∈ R tal que ϕ(A) ⊆ {x : ϕ(x) ≤ a}, entonces ϕ ∈ ER∗ . 4

1.9.44. Probar que las siguientes funcionales son lineales, continuas y hallar sus normas.

1. ϕ ∈ c0 dada por ϕ(x) = lim xn para cada x = (xn )n∈ N ∈ c el espacio definido en (1.12).
n→∞

R1
2. ϕ ∈ L2 [−1, 1]0 dada por ϕ(f ) = −1
t f (t) dt para cada f ∈ L2 [−1, 1].

43
3. ϕ ∈ (`∞ )0 dada por ϕ(x) = x1 + x2 para cada x = (xn )n∈ N ∈ `∞ .

4. ϕ ∈ (`2 )0 dada por ϕ(x) = x1 + x2 para cada x = (xn )n∈ N ∈ `2 .



xk
5. ϕ ∈ (`2 )0 dada por ϕ(x) = para cada x = (xk )k∈ N ∈ `2 .
P
k
k=1


xk
6. ϕ ∈ c00 dada por ϕ(x) =
P
2k
para cada x = (xk )k∈ N ∈ c0 . 4
k=1

1.9.45. Sean E un espacio de Banach, ϕ ∈ E ∗ and y ∈ E tal que ϕ(y) 6= 0. Probar que:

1. Se tiene la descomposición E = ker ϕ ⊕ span {y}.


|ϕ(y)|
2. Vale la igualdad d (y , ker ϕ) = kϕk . Probarla “a mano”, sin usar la Prop. 1.7.7.

|a|
3. Dado a ∈ C, sea H = ϕ−1 (a) = {x ∈ E : ϕ(x) = a}. Entonces d (0 , H) = kϕk . 4

1.9.46. Sean E un EN y ϕ, ψ ∈ E ∗ tales que ϕψ ≡ 0. Probar que en tal caso ϕ ≡ 0 o bien ψ ≡ 0. 4

Potpurrı́.
1.9.47. Sea (E, k · k) un EN. Son equivalentes:

1. E es un espacio de Banach.

2. La bola BE es completa.

3. La cáscara SE = {x ∈ E : kxk = 1} es completa.


P P
4. Para toda sucesión (xn )n∈N en E vale que kxn k < ∞ =⇒ xn converge en E. 4
n∈N n∈N

1.9.48. Sean E un EN, F ⊆ E un subespacio de dimensión finita y x ∈ E. Probar que existe un y0 ∈ F


que realiza la distancia, o sea que kx − y0 k = d (x , F). 4

1.9.49. Sea E un EN. Dados S , T v E definamos

def
A(S , T ) = ı́nf { ks − tk : s ∈ S , t ∈ T y ksk = ktk = 1} .

Demostrar que S + T v E ⇐⇒ A(S , T ) > 0. 4

1.9.50. Sea E un EN. Dado S v E, probar que

1. Si E es separable entonces también lo es E/S .

2. Si S y E/S son separables entonces también lo es E.

3. Dar un ejemplo en el cual E/S es separable pero E no lo es. 4

1.9.51. Sea E un EN. Probar que

1. Dados A , B ∈ L(E) vale que kABk ≤ kAk kBk.

2. La flecha L(E) × L(E) 3 (A , B) 7→ AB ∈ L(E) es continua respecto de la norma de L(E). 4

44
1.9.52. Sea E un EB. Dado A ∈ L(E) tal que kAk < 1. Demostrar que 1 − A es inversible con

X 1
(1 − A)−1 = An y k(1 − A)−1 k ≤ . 4
n=0
1 − kAk

1.9.53. Sea E un EB. Denotemos Gl (E) = {T ∈ L(E) : T es inversible }. Probar que Gl (E) es un abierto
de L(E). Sug: Probar que si T ∈ Gl (E) entonces B(T , kT −1 k−1 ) ⊆ Gl (E). 4
k·k
1.9.54. Sea E un EB. Dada una sucesión (An )n∈N en Gl (E), mostrar que si An −−−−→ A pero A ∈
/ Gl (E),
n→∞
entoces debe pasar que kA−1
n k−
−−−→ ∞. 4
n→∞

45
Capı́tulo 2

Funcionales y Operadores

2.1 Hahn Banach: El dual es grande.


El teorema de Hahn Banach es una aplicación clave del Lema de Zorn que permite levantar
a dimesión infinita buena parte de la intuición de Kn . En principio resolverá un problema
que mencionamos anteriormente: Si bien en los ejemplos concretos vimos que el dual de un
normado suele ser bien grande, en el contexto abstracto uno no sabe ni siquiera si hay alguna
funcional continua (ϕ 6= 0) para un espacio no nulo.
El teorema, cuyo enunciado es más general que lo que uno necesita para contruir funcionales
en los normados, servirá también para poder ver que los EVT’s dados por familias de semi-
normas tienen suficientes funcionales continuas (por ejemplo, familias que separen puntos
del dominio). También será clave para tratar las propiedades de los conjuntos convexos en
estos espacios. Pero para estas aplicaciones habrá que esperar hasta el Cap. 5.
Definición 2.1.1. Sea E un R-EV. Una función q : E → R se llama sublineal si cumple
la desigualdad triangular q(x + y) ≤ q(x) + q(y) y una versión parcial de sacar escalares:
q(λ x) = λ q(x) (sin módulo) , para todo x ∈ E y todo λ ∈ R+ . 4
Teorema 2.1.2. [Hahn-Banach] Sea E un R-EV, q : E → R una función sublineal, S ⊆ E
un subespacio y ϕ ∈ S 0 una funcional que cumple la acotación
ϕ(y) ≤ q(y) , para todo y∈S .
Entonces existe una funcional Φ ∈ E 0 que cumple lo siguiente:
1. Φ(x) ≤ q(x), para todo x ∈ E.
2. Φ extiende a ϕ, o sea que Φ(y) = ϕ(y), para todo y ∈ S.
Demostración. Por una Zornificación, alcanzará hacer el “paso inductivo”, que viene ahora:
Caso 1: Supongamos que S es un hiperplano, o sea que E = S ⊕ R · x para algún x ∈
/ S.
0
En tal caso, cualquier Φ ∈ E que extienda a ϕ debe actuar ası́:
Φ(y + tx) = ϕ(y) + t α , para y∈S , t∈R,

46
para algún α = Φ(x) ∈ R a elegir. Pero se busca un α tal que

ϕ(y) + t α ≤ q y + t x , para todo par y ∈ S , t ∈ R .

Si t = 0 sabemos que vale. Si t > 0, esto significa que para cualquier y ∈ S valga

−ϕ(y) + q y + t x y y 
α≤ = −ϕ +q +x .
t t t
y
Reemplazando t
por y (todo sigue en S), esto a su vez equivale a que

α ≤ −ϕ(y) + q y + x para todo y ∈ S . (2.1)

Similarmente, si t < 0 necesitamos que todos los z ∈ S cumplan



−ϕ(z) + q z + t x −t >0 −z  −z 
α≥ = ϕ −q −x
t t t
Nuevamente, esto equivale a que

α ≥ ϕ(z) − q z − x para todo z∈S . (2.2)

Juntando (2.1) y (2.2), para que un α ası́ pueda existir, habrı́a que ver que
 
ϕ(z) − q z − x ≤ −ϕ(y) + q y + x para todo par z, y ∈ S . (2.3)

Y eso alcanzarı́a porque, poniendo a α en el medio, las cuentas anteriores salen bien “hacia
arriba”. Afortunadamente podemos hacer lo siguiente: Dados z , y ∈ S se tiene que
   
ϕ(z) + ϕ(y) ≤ q(y + z) = q (y + x) + (z − x) ≤ q y + x + q z − x =⇒ (2.3) . 4

Caso general: Ahora viene Zorn. Notemos GS (E) al conjunto de subespacios de E que
contienen a S. Tomemos el conjunto de las extensiones de ϕ acotadas por q,
n o
0

C = (M, ρ) : M ∈ GS (E) , ρ ∈ M , ρ ≤ q y ρ S = ϕ

ordenado por (M, ρ) ≤ (T , σ) si M ⊆ T y σ M = ρ. Miren que C 6= ∅ porque (S, ϕ) ∈ C.
Dada una cadena (Mi , ρi )i∈I en C, la podemos acotar por el par (M, ρ), donde
[
M= Mi y ρ(x) = ρi (x) para los x ∈ Mi .
i∈I

El orden total de la cadena hace que M ∈ GS (E) (se suma en el i más grande), que ρ esté
bien definida, que sea menor que q y lineal en todo M. Claramente (M , ρ) ∈ C. Por
definición sale que (Mi , ρi ) ≤ (M , ρ) para todo i ∈ I. Listo el pollo.
Por Zorn hay un par (M0 , Φ) ∈ C que es maximal. Y por el paso inductivo del Caso 1,
este M0 tiene que ser todo E. 

47
Observación 2.1.3. Como muchas de las cuentas que siguen se hacen con funcioneales
R-lineales, sus extensiones al caso complejo se harán tomando partes reales de funcionales
complejas. Para que esto camine bien, hacen falta unas cuentitas: Sea E un C-EV.

1. Dada φ ∈ ER0 (R-lineal), se verifica que la funcional

φC : E → C dada por φC (x) = φ(x) − i φ(ix) , x ∈ E , (2.4)

es C-lineal (o sea que φC ∈ E 0 ). Esto sale porque φC es R-lineal y

φC (ix) = φ(ix) + iφ(x) = i φC (x) , para todo x∈E .

Observar que uno puede “volver” a ER0 usando que Re φC = φ.


ϕ+ϕ
2. Dada ϕ ∈ E 0 (C-lineal), luego Re ϕ = 2
∈ ER0 . Además se tiene que

toda ϕ ∈ E0 se recupera de su parte real: ϕ = (Re ϕ)C .

En efecto, para cualquier x ∈ E, igualando las partes reales de la igualdad

Re ϕ(ix) + i Im ϕ(ix) = ϕ(ix) = iϕ(x) = − Im ϕ(x) + i Re ϕ(x) ,

obtenemos que Im ϕ(x) = − Re ϕ (ix). Mirando ahora (2.4) vemos que ϕ = (Re ϕ)C .

3. Por lo tanto, dadas ϕ1 , ϕ2 ∈ E 0 , tenemos que Re ϕ1 = Re ϕ2 =⇒ ϕ1 = ϕ2 .

4. Si me dan una C-seminorma p para E, y una funcional φ ∈ ER0 , vale que

φ≤p ⇐⇒ |φC | ≤ p . (2.5)

La implicación ⇐ es obvia, porque φ = Re φC ≤ |φC | . Veamos la otra: Dado un punto


x ∈ E, pongamos que φC (x) = eiθ |φC (x)|, y consideremos ahora y = e−iθ x ∈ E. Luego

|φC (x)| = e−iθ φC (x) = φC (y) = Re φC (y) = φ(y) ≤ p(y) = p(e−iθ x) = p(x) .

Observar que podemos decir lo mismo al revés: Si ϕ ∈ E 0 , |ϕ| ≤ p ⇐⇒ Re ϕ ≤ p. 4

Teorema 2.1.4 (H-B con seminormas y módulos). Sea E un K-EV, p : E → R+ una


seminorma, S ⊆ E un subespacio y ϕ ∈ S 0 una funcional que cumple la acotación

| ϕ(y)| ≤ p(y) , para todo y∈S .

Entonces existe una funcional Φ ∈ E 0 que cumple lo siguiente:

1. | Φ(x)| ≤ p(x), para todo x ∈ E.

2. Φ extiende a ϕ, o sea que Φ(y) = ϕ(y), para todo y ∈ S.

48
Demostración. El caso K = R sale a partir del Teo. 2.1.2, usando que las seminormas son
sublineales, y que p(−x) = p(x) para todo x ∈ E, por lo que Φ ≤ p =⇒ |Φ| ≤ p.
El caso K = C se deduce del anterior usando la Obs. 2.1.3: Empiezo con una C-lineal ϕ ∈ S 0 ,
y llamo φ = Re ϕ ∈ SR0 , que también está acotada por p. Extiendo φ a una R-lineal Ψ ∈ ER0
por el caso anterior, y tomo ahora Φ = ΨC . Luego Φ sigue acotada por p, y veo que tanto
ϕ como Φ S tienen la misma parte real φ, por lo que deben coincidir. 
Teorema 2.1.5 (H-B y el dual). Sea E un EN. Sean S ⊆ E un subespacio y ϕ ∈ S ∗ .
Entonces existe una funcional Φ ∈ E ∗ que cumple lo siguiente:
1. Φ extiende a ϕ, o sea que Φ(y) = ϕ(y), para todo y ∈ S.
2. kΦkE ∗ = kϕkS ∗ .
Demostración. El hecho de que ϕ ∈ S ∗ significa que

kϕkS ∗ < ∞ , y que |ϕ(y)| ≤ kϕkS ∗ kyk para todo y∈S .

Como la flecha E 3 x 7→ p(x) = kϕkS ∗ kxk es una (semi)norma en E, y sabemos que ϕ ≤ p


en S, se puede usar el usar el Teo. 2.1.4. Aparece la exensión Φ ∈ E 0 que cumple que
|Φ(x)| ≤ kϕkS ∗ kxk para todo x ∈ E. Esto muestra que Φ ∈ E ∗ con kΦkE ∗ ≤ kϕkS ∗ . La
otra desigualdad es trivial porque Φ extiende a ϕ, que alcanza su norma en BS ⊆ BE . 
Corolario 2.1.6. Sea E un EN.
1. El espacio dual topológico (respecto a la norma) E ∗ separa puntos de E.
2. Más aún, dado x ∈ E, existe una ϕ ∈ E ∗ tal que

kϕk = 1 y |ϕ(x)| = kxk . (2.6)

3. Esto dice que se puede calcular kxk en forma dual usando a E ∗ . Es decir que

para cualquier x ∈ E vale que kxk = máx |ϕ(x)| : ϕ ∈ BE ∗ . (2.7)

Demostración. La prueba es directa a partir del Teo. 2.1.5. Veamos 2: La clave es definir
una buena ϕ0 en el dual del subespacio S = span {x} = K x. Buena significa que

ϕ0 (x) = kxk por lo que |ϕ0 (λ x)| = |λ| kxk = kλ xk para todo λ ∈ K .

Observar que kϕ0 kS ∗ = 1, ya que |ϕ0 (z)| = kzk para todo z ∈ S. Si ϕ ∈ E ∗ extiende a ϕ0
y cumple que | ϕ(y)| ≤ kyk para todo y ∈ E, es claro que kϕk = 1 como aspirábamos. A
partir de 2, la Ec. (2.7) se deduce sin dificultad. 
Ejercicio 2.1.7. Sea E un EN. Dado un subespacio S v E y un x ∈ / S, probar que existe

una ϕ ∈ E tal que S ⊆ ker ϕ , kϕk = 1 pero |ϕ(x)| = d ( x , S ) .
Se sugiere probarlo primero a mano en S ⊕ span {x} y extender por Hanh-Banach. Recién
después hacerlo usando la Ec. (2.6) en E/S . 4

49
Ejercicio 2.1.8. Sea E un EN. Dado un subespacio S ⊆ E, probar que
\
S = { ker ϕ : ϕ ∈ E ∗ y S ⊆ ker ϕ } .

Más adelante veremos que esto significa que S es el “doble anulador” de S. 4

Ejercicio 2.1.9. Sea E un EN.

1. Dado un x ∈ E y una ϕ ∈ E ∗ como en la Ec. (2.6), mostrar que ahı́ sı́ vale que
(1.39)
d (x , ker ϕ) = kxk. Comparar con la Ec. (1.27) y el Ejem. 1.4.3.

2. Asumamos que dim E = ∞. Usando recursivamente el item anterior, probar que


existen una sucesión (xn )n∈ N en E y una familia de subespacios Sn v E tales que

(a) La dim Sn = ∞ y la kxn k = 1 para todo n ∈ N.


(b) Los subespacios decrecen: Sm ⊆ Sn si n ≤ m.
(c) Para todo n ∈ N vale que xn ∈ Sn . Luego xm ∈ Sn para todo m ≥ n.
(d) Pero además vale que Sn = Sn+1 ⊕ K xn para todo n ∈ N.
(e) Observar que nos queda que E = Sn+1 ⊕ span {x1 , . . . , xn } para todo n ∈ N.
(f) Por último pedimos que la d (xn , Sn+1 ) = 1 para todo n ∈ N.

Sugerencia: Empezar con S1 = E y x1 ∈ E un unitario cualquiera. El paso inductivo es


encontrar una ϕn ∈ Sn∗ tal que d (xn , ker ϕn ) = 1 (todo en Sn ). Luego se podrá definir
Sn+1 = ker ϕn ⊆ Sn y elegir el xn+1 al azar allı́ dentro.

3. Asumiendo además que E es un EB, exhibir un T ∈ L(`∞ , E) que sea mono. 4

P unitarios y los Sn del item 2.


Sugerencia: Construir la sucesión (xn )n∈ N en E de vectores
Luego mandar cada a = (an )n∈ N ∈ `∞ a la serie T (a) = n∈N 2−n an xn ∈ E.

Ejercicio 2.1.10. Sea E un EB infinitodimensional, con dim E = α (dimensión algebráica).

1. Usando el Teor. de Baire 2.2.4, probar que α > |N| = ℵ0 .

2. Más aún, usando el Ejer. 2.1.9 y Vandermonde, mostrar que α ≥ |R| = c.


Sug: Considerar los vectores (λn )n∈N ∈ `∞ para cada λ ∈ C con |λ| < 1. 4

Veamos un ejemplo de como el Teo. de H-B nos permite maniobrar en un EN genérico:

Proposición 2.1.11. Sea E un EN. Dado un S v E tal que n = dim S < ∞, existe un
“proyector” acotado P ∈ L(E) tal que P ◦ P = P y R(P ) = S.

50
Proof. Por el Cor. 1.6.5, tenemos que S ∗ = S 0 . Sea B = {x1 , . . . , xn } una base de S. Luego
existe una base dual B 0 = {ϕ1 , . . . , ϕn } ⊆ S ∗ , es decir que ϕm (xn ) = δmn . Estendamos
estas funcionales a todo E ∗ preservando sus normas (se puede por H-B) y manteniendo sus
nombres. Ahora podemos definir el proyector
X
P ∈ L(E) dado por P x = ϕk (x) xk para cada x ∈ E .
k∈In
P
Es fácil testear que kP k ≤ k∈In kϕk k < ∞, que P y = y para los y ∈ S (acá se usa que la
base B 0 es dual de B) y que R(P ) = S. De ahı́ sale de inmediato que P ◦ P = P . 
Corolario 2.1.12. Sean E y F dos EN’s. Dado un S v E tal que n = dim S < ∞, vale
que todo operador acotado T0 ∈ L(S , F ) se puede extender a un T ∈ L(E , F ).
Se cumple que T |S = T0 y que kT k ≤ K kT0 k, donde la constante K ≥ 1 depende de E y de
S, pero es la misma para todos los operadores T0 ∈ L(S , F ) (y todos los espacios F ).
Proof. Sea P ∈ L(E) el proyector sobre S de la Prop. 2.1.11, y sea K = kP k. Como
def
R(P ) = S tiene sentido definir la composición T = T0 ◦ P ∈ L(E , F ). Eso es todo. 

La inmersión en el doble dual


2.1.13. Sea E un EN. Usando el Cor. 2.1.6, tenemos los siguientes hechos:

1. Como E ∗ es también un normado (es un Banach), podemos considerar a su dual


topológico E ∗∗ = (E ∗ )∗ .

2. Definamos la inmersión canónica J = JE : E → E ∗∗ como el morfismo inducido por la


dualidad (x, ϕ) 7→ hx, ϕi = ϕ(x). O sea que, dado un x ∈ E, definimos

JE x = Jx ∈ E ∗∗ por la fórmula Jx (ϕ) = ϕ(x) , para toda ϕ ∈ E ∗ . (2.8)

O sea que hacemos actuar a E en el espacio E ∗ vı́a “ser evaluado en”.

3. La Ec. (1.7) nos dice que J reduce normas (en particualar que las funcionales Jx son
continuas en E ∗ ). Pero el Cor. 2.1.6 asegura que J es isométrica:
(1.6) (2.8) (2.7)
kJx kE ∗∗ = sup |Jx (ϕ)| = sup |ϕ(x)| = kxkE .
ϕ∈BE ∗ ϕ∈BE ∗

4. El espacio E se dice que es reflexivo si ésta isometrı́a JE : E ,→ E ∗∗ es sobre.

5. Ojo que existen espacios F que son isométricamente isomorfos a su F ∗∗ , pero que no
son reflexivos (o sea que LA inmersión JF : F ,→ F ∗∗ no era sobre). 4

51
Ya conocemos casos de espacios reflexivos (como los `p y los Lp si 1 < p < ∞) y no reflexivos
como c0 , porque c∗∗ ∼ 1 ∗∼ ∞ ∼ ∞
0 = (` ) = ` . En este caso una sabe gratis que no vale que c0 = `
porque uno es separable y el otro no.
Pero mejor aún, mirando los isomorfismmos en cuestión, es fácil ver que la Jc0 : c0 ,→ `∞ no
es otra cosa que la inclusión (ver el Ejem. 2.6.4 para más detalles). Es porque `∞ actúa en
`1 igual a como c0 es “actuado” por `1 . Y esa inclusión no es sobre.
Observación 2.1.14. Sea E un EN. Habı́amos mencionado que a E se lo puede completar
a un Banach que lo tenga como subespacio denso. Eso se hace con las sucesiones de Cauchy
como a cualquier otro EM, aunque acá además hay que definir las operaciones y toda esa
vaina. Pero en los normados ahora hay un camino que es casi gratis.
El tema es identificar E con su imagen JE (E) ⊆ E ∗∗ . Esto vale porque JE es un iso
isométrico. Pero E ∗∗ es el dual de E ∗ y, como todo dual de un normado, es automáticamente
un Banach (por el Teo. 1.1.10). Luego el completado natural para E es

EC = JE (E) v E ∗∗ ,
def

que es Banach por ser cerrado en otro. Como decı́amos, E ∼


= JE (E) ⊆ EC vive dentro de su
completado como un subespacio denso. 4

2.2 Recordando Baires.


Repasemos el Teorema de Baire. Como es la herramienta clave para los importantes teoremas
sobre espacios de Banach de este capı́tulo, daremos una prueba completa del mismo. Para
ver una discusión previa y la versión del teorema para espacios LKH, sugerimos ir a la
Prop. A.11.3 y el Teo. A.18.1 del Apéndice.
2.2.1. Empecemos fijando notaciones sobre bolas: Si E es un EN, llamaremos

BEa (x, ε) = {y ∈ E : kx − yk < ε} y BE (x, ε) = BEa (x, ε) = {y ∈ E : kx − yk ≤ ε},

donde se fijó un x ∈ E y un ε > 0. Observar que si x = 0 y tomamos otro δ > 0, entonces


δ a δ
BEa (0 , δ) = B (0 , ε) y BE (0 , δ) = BE (0 , ε) , (2.9)
ε E ε
cosa que nombraremos como “homogeneidad”. Si ε = 1 abreviaremos BEa = BE (0, 1) y
BE = {y ∈ E : kyk ≤ 1} . Observar que, dados x ∈ E y ε > 0, tenemos que

BEa (x, ε) = x + ε · BEa y BE (x, ε) = x + ε · BE . (2.10)

Si bien las Eqs. (2.9) y (2.10) sólo tienen sentido en EN’s, se usarán los mismos nombres B a
(abierta) y B (cerrada) para bolas en un EM cualquiera X. 4
Lema 2.2.2 (Encaje). Sea (X, d) un EM completo. Sea {Fn }n∈N una familia de subconjuntos
cerrados y no vacı́os de X tales que

52
(a) Para todo n ∈ N, se tiene que Fn+1 ⊆ Fn 6= ∅ .
def
(b) La sucesión diam (Fn ) = sup{d(x, y) : x, y ∈ Fn } −−−→ 0.
n→∞
T
Luego se debe cumplir que Fn 6= ∅.
n∈N

Demostración. Si tenemos la sucesión {Fn }n∈N , elijamos un xn ∈ Fn para cada n ∈ N. Las


condiciones (a) y (b) aseguran que x = (xn )n∈ N es de Cauchy (dado ε > 0, basta tomar
n0 ∈ N tal que diam (Fn ) < ε para n ≥ n0 ). Observar que fijado un n ∈ N, toda la cola
(xk )k≥n se queda dentro de Fn (por las inclusiones pedidas en (a) ). Si xk −−−→ x, el hecho
T k→∞
de los Fn sean todos cerrados termina de mostrar que x ∈ Fn 6= ∅. 
n∈N

Sea (X, d) un EM. Recordemos que si A ⊆ X su interior es el conjunto


def
A◦ = {x ∈ A : BX
a
(x, ε) ⊆ A para cierto ε > 0} .
Ejercicio 2.2.3. Sea (X, d) un EM y sea A ⊆ X. Entonces

X \ A = (X \ A)◦ y X \ A◦ = X \ A . (2.11)

Teorema 2.2.4 (Baire). Sea X es un espacio métrico completo. Entonces para toda
familia numerable {Fn }n∈N de cerrados de X se tiene que
[ ◦
Fn◦ = ∅ para todo n ∈ N =⇒ Fn = ∅ . (2.12)
n∈N

Existen otras dos maneras de enunciar lo mismo, que conviene explicitar:


 S ◦
Fn = X), entonces algún Fn◦ 6= ∅.
S
B2: Si Fn 6= ∅ (por ejemplo si
n∈N n∈N
T
B3: Dada una sucesión {Un }n∈N de abiertos densos, se tiene que Un es también densa.
n∈N

Demostración. Probaremos el enunciado B3. Observar que, si tenemos cerrados Fn como en


B2 o (2.12), y para cada n ∈ N hacemos Un = X \ Fn , por la Ec. (2.11) nos queda que
(2.11) (2.11)
 S ◦
U n = X \ Fn = X \ Fn◦
T S
y que Un = X \ Fn = X \ Fn ,
n∈N n∈N n∈N

por lo que B3 =⇒ B2 y (2.12). Sea x ∈ X y ε > 0. Tomemos la bola cerrada B0 = B(x, ε).
Como U1 es denso, tenemos que U1 ∩ B a (x, ε) 6= ∅ y es abierto. Luego existe una bola
cerrada B1 = B(x1 , ε1 ) ⊆ U1 ∩ B a (x, ε), donde podemos asumir que ε1 ≤ ε2 .
Ahora cortamos B1◦ ⊆ B a (x1 , ε1 ) con U2 . Por la densidad de U2 podemos armar una bola
cerrada B2 , de radio no mayor a ε4 , tal que B2 ⊆ B1◦ ∩ U2 ⊆ U1 ∩ U2 . Recursivamente,
obtenemos una sucesión (Bn )n∈N de bolas cerradas tales que, para todo n ∈ N,
\ 2ε ε
Bn ⊆ Uk , Bn+1 ⊆ Bn◦ y diam (Bn ) ≤ n = n−1 .
k∈ In
2 2

53
T
El Lema 2.2.2 nos dice ahora que existe un y ∈ Bn . Y la primera condición de arriba
n∈N
Un , además de estar en B1 ⊆ B a (x, ε), que era un entorno genérico de x.
T
nos da que y ∈
n∈N T
Ası́ llegamos a que el puntito x está en la clausura de Un , cualquiera sea el x ∈ X. 
n∈N

Observación 2.2.5. Como primera aplicación directa en espacios de Banach, mostremos


que ellos no pueden tener dimensión infinita numerable: Sea E un espacio de Banach, y
agarremos un conjunto linealmente independiente B = {xn : n ∈ N} en E.
Para cada n ∈ N llamemos Fn = span {x1 , . . . , xn }. El Cor. 1.6.3 nos dice que los Fn son
todos cerrados. Tienen interior vacı́o porque si fijamos un y ∈ Fn , se ve que y + 1k xn+1 ∈
/ Fn
para ningún k ∈ N aunque, con k grande, entran en cualquier bolita alrededor de y.
S
Si B fuera una base (o sea si generara E), tendrı́amos que Fn = E. Pero el Teor. de
n∈N
Baire no permite que pase esto, ası́ que de bases numerables (para un Banach) ni hablar. 4

2.3 Teorema de la imagen abierta.


Observación 2.3.1. Hace unas secciones discutimos los isomorfismos entre normados. Se
hizo mucho incapié en que, dados dos normados E y F , para que un T ∈ L(E, F ) biyectivo
sea iso de normados, hace falta verificar que T −1 ∈ L(F, E). Es decir que la continuidad de
T no asegura a priori la de T −1 , aunque sepamos que T −1 existe.
Veamos un ejemplo de lo anterior, un T ∈ L(E, F ) tal que T −1 existe pero no es continuo:
Tomemos la identidad ISF : (SF , k · k1 ) → (SF , k · k∞ ). Como kISF xk∞ = kxk∞ ≤ kxk1
para todo x ∈ SF , nos queda que ISF es continua a la ida. Pero
1 1
xk = (1 , 2
, 0 , 0 , . . . ) ∈ SF cumple que kxk k∞ = 1 para todo k ∈ N ,
, ... , k
P 1
mientras que kxk k1 −−−→ m
= ∞. Ası́ que, a la vuelta, ISF deja de ser continua.
k→∞ m∈N

En cambio, si ya supiéramos que tanto E como F son Banach’s, el Teorema de la imagen


abierta que daremos a continuación dice que alcanza testear la continuidad de T para un
lado, porque la de la inversa serı́a automática. Pongamos en un Lema, para el que usaremos
sistemáticamente las notaciones de 2.2.1, la parte más técnica del Teorema: 4
Lema 2.3.2. Sean E y F dos espacios de Banach y T ∈ L(E, F ). Si existe un r > 0 tal que

BFa (0, r) ⊆ T (BEa ) ,

entonces para cualquier r0 < r se cumple que BFa (0, r0 ) ⊆ T BEa , ahora sin clausurar.


Demostración.
 Escribamos r0 = λ · r con λ ∈ (0, 1) y ε = 1 − λ ∈ (0, 1). Denotemos por
V = T BE . Dado y ∈ BFa (0, r), por hipótesis existe un y1 ∈ V tal que
a

ky − y1 k < ε · r , o sea que y − y1 ∈ BFa (0, ε · r) .

54
Por la Ec. (2.9) y la hómeo-ness de x 7→ ε · x, vemos que

BFa (0, ε · r) = ε · BFa (0, r) ⊆ ε · V = ε · V ε · V = T ε · BEa = T (BEa (0, ε) ) .



y que

Luego existe un y2 ∈ ε·V tal que ky−y1 −y2 k < ε2 ·r. Siguiendo inductivamente, construimos
una sucesión (yn )n∈ N en F que verifica las siguientes condiciones:
n
yn ∈ εn−1 · V and y − P yk < εn · r para todo n∈N.
k=1

Para cada n ∈ N, podemos ir eligiendo un xn ∈ E tal Pque T (xn ) = yn y kxn k < εn−1 . Como
E es Banach, la Prop. 1.1.12 nos dice que existe x = xn ∈ E. Además
n∈N
X X X
Tx = T xn = yn = y and kxk < εn−1 = (1 − ε)−1 = λ−1 .
n∈N n∈N n∈N

Luego z = λx ∈ BEa y T (z) = λy, un elemento genérico de λ · BFa (0, r) = BFa (0, r0 ). 
Teorema 2.3.3 (Imagen abierta, o TIA). Sean E y F dos espacios de Banach. Si
T ∈ L(E, F ) es sobre =⇒ T es abierto ,
o sea que T (U ) es abierto en F para todo U que sea abierto en E.
Demostración. Veamos al principio que alcanza con probar que

existe un ε > 0 tal que BFa (0, ε) ⊆ T (BEa ) . (2.13)

En efecto, si U ⊆ E es abierto y T (x) ∈ T (U ) (para un x ∈ U ), debe existir un s > 0 tal


que BEa (x, s) ⊆ U . Usando la homogeneidad (2.9) y transalciones (2.10), tendrı́amos que
(2.13)
BFa T (x), ε · s = T (x) + s · BFa (0, ε) ⊆ T (x) + s · T (BEa ) = T x + BEa (0, s) ⊆ T (U ) .
 

Ası́ que probemos (2.13). En principio, tomemos las Bn = BEa (0, n), para todo n ∈ N. Como
S S S
E= Bn y T es sobre , entonces F = T (Bn ) = T (Bn ) .
n∈N n∈N n∈N

Por el Teor. de Baire 2.2.4 (acá es donde se usa que F es Banach)


existe un n ∈ N tal que T (Bn ) ◦ 6= ∅ .
Pero todas las Bn = n · B1 , por lo que T (Bn ) ◦ = n · T (B1 ) ◦ , para todo n ∈ N (el hómeo
y 7→ n · y respeta clausuras e interiores). Luego, más que “existe un n”, lo de arriba vale
para todo n ∈ N. En particular para n = 1. Entonces debe existir una bola

BFa (y, r) ⊆ T (B1 ) = T (BEa ) .

Finalmente, si x ∈ BFa (0, r), usando (2.10) se lo puede escribir como

(y + x) − (y − x) B a (y, r) − BFa (y, r) T (B1 ) − T (B1 )


x= ∈ F ⊆ ⊆ T (B1 ) ,
2 2 2
55
donde la última inclusión sale tomando sucesiones y usando que B1 es convexa. Luego,
también tenemos que BFa (0, r) ⊆ T (BEa ). Aplicando ahora el Lema 2.3.2 (acá se usa que E
es Banach), probamos que la Ec. (2.13) se cumple para cualquier ε < r. 
Corolario 2.3.4 (Teor. de la función inversa TFI). Sean E y F dos espacios de Banach.
Si T ∈ L(E, F ) es biyectivo =⇒ T es iso de EN’s ,
o sea alcanza con que T sea continuo para que también T −1 ∈ L(F, E).
Demostración. Biyectivo implica sobre. Luego, el TIA 2.3.3 dice que T es abierto. Pero eso
es lo mismo que decir que T −1 es continuo. 
Observación 2.3.5. Si E es un K-EV (de cualquier dimensión) y tenemos dos normas N1
y N2 en E tales que ambas lo hacen Banach, entonces cada una de las desigualdades de la
Ec. (1.34) implica la otra y que son equivalentes. Esto es consecuencia del TFI 2.3.4 aplicado
a la identidad de E. 4
Corolario 2.3.6. Sean E y F dos EB’s y T ∈ L(E , F ) un epi. Entonces el “bajado”
T̃ ∈ L(E/ker T , F ) del Cor. 1.7.5 es un isomorfismo y un hómeo.
Demostración. El Cor. 1.7.5 aseguraba que T̃ era continuo. Recordemos que T̃ ◦ Πker T = T .
A partir de eso es claro que R(T̃ ) = R(T ) = F y que ker T̃ = {0} (es decir la clase nula en el

cociente E/ker T ). Luego el iso E/ker T ' F se deduce del TFI 2.3.4. No olvidar que estamos
usando la Prop. 1.7.1 para poder asegurar que E/ker T es también un EB. 
Veremos a continuación que todo EB separable es isomorfo (en el sentido de arriba) a un
cociente de `1 (N). Esto se puede leer como que no hay “tantos” de esos espacios, o bien
como que hay una inesperada multitud de subespacios cerrados de `1 = `1 (N).
Proposición 2.3.7. Sea E un EB separable. Luego existen

1. Un epimorfismo T ∈ L(`1 , E).

2. Si M = ker T v `1 , entonces existe un iso T̃ : `1 /M ←→ E.

Demostración. Como asumimos que E es separable, podemos tomar un conjunto numerable


D = {zn : n ∈ N} ⊆ BE que sea denso en la bola BE . A partir de él definimos
X
T (x) = xn zn ∈ E para cada x = (xn )n∈ N ∈ `1 .
n∈N

Sale fácil que T está BD y es lineal-continua. El hecho de que sea sobre cuesta algo más:
Sea y ∈ BE . Tomemos un zn1 ∈ D tal que 0 < ky − zn1 k < 12 . Definamos las constantes
an1 = 1 y an2 = ky − zn1 k < 12 . Luego tomemos otro zn2 ∈ D \ {zn1 } tal que
y−z 1
n1 −1
0< − zn2 = ky − zn1 k y − an1 zn1 − an2 zn2 < .

ky − zn1 k 2

56
def
Observar que an3 = ky − an1 zn1 − an2 zn2 k < 12 ky − zn1 k = 21 an2 < 14 . Siguiendo ası́
encontramos un a = (am )m∈ N ∈ `1 y unos {znk : k ∈ N} ⊆ D tales que, para cada k ∈ N,
y − Pk an zn 1 k
X 1
j=1 j j
0< − znk+1 < con ank+1 = ky − anj znj k < ,

Pk
ky − j=1 anj znj k 2 j=1
2k

mientras que los am = 0 para m ∈ / {nk : k ∈ N}. Por la construcción deducimos de inmediato
que T a = y, por lo que T es epi. El iso T̃ se construye pasando al cociente al epi T recién
construido y aplicando el Cor. 2.3.6. 

2.4 Teorema del gráfico cerrado.


Sean E y F dos EN’s y T : E → F un operador K-lineal. Su gráfico es
 
Gr (T ) = (x, y) ∈ E × F : x ∈ E e y = T x = (x, T x) : x ∈ E ⊆ E × F .

La linealidad de T hace que Gr (T ) sea un subespacio de E × F . Por otra parte, la flecha

E × F 3 (x, y) 7−→ k(x, y)kE×F = kxkE + kykF ∈ R+ (2.14)

es evidentemente una norma para E × F . Observar que produce la topologı́a producto,


porque la convergencia en E × F equivaldrá a la convergencia en ambas entradas a la vez.
Si ahora suponemos que T ∈ L(E, F ), es bien fácil ver que Gr (T ) v E × F .
k · kE k · kF
Esto es porque sabemos que xn −−−→ x =⇒ T xn −−−→ T x. Luego si tomamos una
n→∞ n→∞
sucesión (xn , yn )n∈N en Gr (T ) tal que (xn , yn ) −−−→ (x, y) ∈ E × F , como T es continuo
n→∞
k · kE
la convergencia xn −−−→ x asegura que las (yn )n∈ N = (T xn )n∈N convergen (aunque ya lo
n→∞
sabı́amos), y que su lı́mite debe ser y = T x. Ası́ que (x, y) ∈ Gr (T ), que queda cerrado.
Como uno supone por lo de arriba, la recı́proca, Gr (T ) v E × F =⇒ T ∈ L(E, F ) es falsa
en general. Porque el dato de que Gr (T ) v E × F significa que
k · kE k · kF
xn −−−→ x y T xn −−−→ y ∈ F =⇒ y = T x ,
n→∞ n→∞

mientras que afirmar la continuidad de T es probar primero que si xn −−−→ x, los T xn


n→∞
tienen que converger a algo, y recién después que el lı́mite es T x. Que el gráfico sea cerrado
ya asume que esa convergencia sucede, y sólo entonces dice que el lı́mite es el correcto.
De las consideraciones anteriores se concluye que encontrar un contexto donde la fórmula

T ∈ Hom (E, F ) y Gr (T ) v E × F =⇒ T ∈ L(E, F )

sea cierta, ayudarı́a notablemente a testear la acotación de operadores. Todo esto es el


marketing del Teorema del gráfico cerrado que viene ahora. Lo que dice es que dicha fórmula

57
sı́ es cierta, siempre que uno suponga que tanto E como F son Banach’s. Y la propaganda
de antes no es sólo verso. En repetidas ocasiones a lo largo del texto veremos que la mejora
de hipótesis que se mencionaba arriba es la clave para poder probar la acotación de muchos
operadores altamente interesantes.
Antes del enunciado, un contraejemplo si no son Banach’s los espacios: Es el mismo ejemplo
de la Obs. 2.3.1, pero para el lado opuesto. El operador es ISF : (SF , k · k∞ ) → (SF , k · k1 ),
que ya vimos que no es continuo. Sin embargo, el gráfico es la diagonal

Gr (ISF ) = ∆SF = {(x, x) : x ∈ SF } ⊆ (SF , k · k∞ ) × (SF , k · k1 ) ,

que es cerrado porque la convergencia con la k · k1 implica convergencia en k · k∞ .


En el ejemplo anterior ni E ni F son Banach’s. Un ejercicio interesante es ver que si sólo
uno de los dos espacios no es Banach, ya la cosa puede fallar. Decimos “un” ejercicio porque
en el anterior podı́amos cambiar el codominio por `1 (N), el gráfico sigue siendo cerrado y el
operador no acotado. Ası́ que faltarı́a uno donde E sı́ es completo pero F no lo es.
Teorema 2.4.1 (Gráfico cerrado, alias TGC). Sean E y F dos espacios de Banach y sea
T ∈ Hom(E, F ). Luego vale que

Gr (T ) v E × F =⇒ T ∈ L(E, F ) .

O sea que si su gráfico es cerrado, el opreador debe ser continuo.


Demostración. La idea es considerar el operador biyectivo

P ∈ L(Gr (T ) , E) dado por P (x, y) = x para (x, y) ∈ Gr (T ) .

Notar que la continuidad de P se deduce de que kxkE ≤ k(x, y)kE×F , por la definición dada
en (2.14). Que P es biyectivo es una paponia (es porque T es una función!).
La gracia es que E × F es Banach porque tanto E como F lo son (Ejercicio: Verificarlo).
Luego Gr (T ), al ser un subespacio cerrado, también es Banach. Ası́ que podemos aplicar el
Teor. de la función inversa 2.3.4 a este P , y deducir que P −1 ∈ L(E, Gr (T ) ).
Ahora bien, si miramos atentamente veremos que P −1 x = (x, T x) para todo x ∈ E. Luego

kT xkF ≤ k(x, T x)kE×F = kP −1 xkGr(T ) ≤ kP −1 kL(E,Gr(T ) ) kxkE para todo x ∈ E .

Esto muestra que T ∈ L(E, F ) con kT k ≤ kP −1 k < ∞. 

2.5 Principio de acotación uniforme.


El teorema de ésta sección es más raro para entender, pero suele ser el más útil de los tres
Teoremas de espacios de Banach (los otros son el TIA y el TGC). Aparte PAU suena mejor.
Como siempre, fijemos E y F dos Banach’s. Acá la idea es dar una familia

58
(Ti )i∈I en L(E, F ) y buscar condiciones para que M = sup kTi k < ∞ .
i∈ I

La posta será pedir que sean puntualmente acotados, o sea que


Mx = sup kTi xk < ∞ para todo x∈E . (2.15)
i∈ I

Es claro que esto es necesario, porque porque todos los Mx ≤ M kxk. Como antes, miremos
al espacio SF con la k · k∞ para ver que (2.15) no es suficiente en general. Para hacer el
contraejemplo pongamos que F = K, los ı́ndices son I = N y tomemos las funcionales
n
X
ϕn ∈ SF∗ dadas por ϕn (x) = xk , para x = (xk )k∈ N ∈ SF .
k=1

N
P
Si un x ∈ SF termina en el xN , se ve que |ϕn (x)| ≤ |xk | para todo n ∈ N. Por lo tanto
k=1
la condición (2.15) se cumple para las ϕn . Pero kϕn k = k nk=1 ek k1 = n para todo n ∈ N.
P

El problema es un tı́pico desfasaje de AF: Cada ϕn “alcanza” su norma en un x ∈ BSF


distinto. Por ello el “barrido horizontal” de todas las ϕn evaluadas en un x fijo no alcanza
a describir el supremo “doble” M = sup kϕn k = sup sup |ϕn (x)|.
n∈N n∈N x∈BSF

En vista del PAU que se viene, conviene observar que en realidad SF∗ ∼ = `1 ∼
= c∗0 , porque SF
es denso en c0 . Y lo anterior no caminaba para aquellas ϕn ∈ `1 porque el “test” de (2.15) lo
hacı́amos sólo para puntos x de SF y no en todo c0 que es Banach. Observar que allı́ (2.15)
falla porque hay elementos de z ∈ c0 que no están en `1 , y para algunos de ellos Mz = ∞.
Bueno, ahora sı́. Lo que falla en general veremos que no falla cuando E y F son espacios de
Banach. Les presentamos al famoso PAU:
Teorema 2.5.1 (PAU). Sean E y F dos EB’s. Entonces toda familia (Ti )i∈I de operadores
en L(E, F ) que sea “puntualmente acotada”, es también acotada en norma. Es decir que
Mx = sup kTi xkF < ∞ para todo x∈E =⇒ M = sup kTi kL(E,F ) < ∞ ,
i∈ I i∈ I

o sea que la familia es “uniformemente acotada” en BE .


Demostración. Consideremos el espacio `∞ (I, F ) = {f : I → F acotadas } del Ejem. 1.2.4.
Allı́ se vió que, como F es completo, entonces `∞ (I, F ) es otro EB con la k · k∞ . Sea
A ∈ Hom(E, `∞ (I, F ) ) dada por Ax = (Ti x)i∈I para x∈E ,
o sea que cada Ax es la función I 3 i 7→ Ti x ∈ F . Hay buena definición porque, mirando
quienes son los Mx , da que kAxk∞ = Mx < ∞ por lo que Ax ∈ `∞ (I, F ) para todo x ∈ E.
La linealidad es fácil, usando la de cada Ti .
Para probar el PAU alcanzarı́a con ver que este A ∈ L(E, `∞ (I, F ) ). En efecto, notar que
M = sup kTi k = sup sup kTi xk = sup sup kTi xk = sup kA xk∞ = kAk .
i∈ I i∈ I x∈BE x∈BE i∈ I x∈BE

59
El cambio de orden de los supremos es legal, como podrá demostrar fácilmente el lector
desconfiado. Para probar que A es acotado, usaremos nuevamente el TGC (dominio y
codominio son Banach’s, asi que vale). Tomemos entonces una sucesión

Gr (A) 3 (xn , A xn ) −−−→ (x, (yi )i∈ I ) ∈ E × `∞ (I, F ) .


n→∞

k · kE k · k∞ k · kF
Esto dice que xn −−−→ x y que A xn −−−→ (yi )i∈ I , por lo que Ti xn −−−→ yi para cada uno
n→∞ n→∞ n→∞
de los i ∈ I. Pero como los Ti ∈ L(E, F ), deducimos inmediatamente que cada yi = Ti x.
Luego (yi )i∈ I = A x, lo que nos asegura que el lı́mite (x, (yi )i∈ I ) ∈ Gr (A), que era cerrado.
Luego A ∈ L(E, `∞ (I, F ) ) por el TGC. 
Corolario 2.5.2. Sea E un EB y sea B ⊆ E un subconjunto cualquiera. Luego
B es k · k-acotado ⇐⇒ B es w-acotado ,
donde w-acotado significa que para toda ϕ ∈ E ∗ el conjunto ϕ(B) es acotado en C.
Demostración. La ida es obvia (porque las ϕ ∈ E ∗ son acotadas, justamente). Para la
vuelta, pongamos a B en E ∗∗ vı́a la JE : E → E ∗∗ definida en 2.1.13. Total, como JE es
isométrica alcanza ver que B es acotado allá. Pero ahora los elementos de B pasaron a ser
funcionales sobre E ∗ , y la hipótesis de w-acotación ahora significa que B es puntualmente
acotado. En efecto, tenemos el conjunto Bb = JE (B) = {b x : x ∈ B}, y fijada ϕ ∈ E ∗ ,

Mϕ = sup |b
x(ϕ)| = sup |ϕ(x)| = sup {|y| : y ∈ ϕ(B)} < ∞ por la w-acotación de B .
x∈ B x∈ B

Todo termina felizmente usando el PAU 2.5.1 (tanto E como C son Banach’s). 
Observación 2.5.3. Una consecuencia del Cor. 2.5.2 es que una sucesión (xn )n∈ N en un
Banch E que es débilmente convergente a un x ∈ E (i.e., ϕ(xn ) −−−→ ϕ(x) para toda
n→∞
ϕ ∈ E ∗ ) tiene que ser acotada en norma. El siguiente teorema avanza en esa dirección: 4
Corolario 2.5.4 (Teor. de Banach-Steinhaus). Sean E y F dos Banach’s y sea (Tn )n∈N una
sucesión de operadores en L(E, F ). Si se asume que
para todo x ∈ E existe un yx ∈ F tal que Tn x −−−→ yx ,
n→∞

entonces valen las siguientes propiedades:

1. La sucesión es acotada, o sea que M = sup kTn k < ∞.


n∈N

2. El operador T : E → F dado por

T x = yx = lı́m Tn x para cada x∈E


n→∞

es K-lineal, acotado, y tiene kT k ≤ M .

60
Demostración. Observar que, fijado un x ∈ E, la sucesión (Tn x)n∈N es convergente (esa es
la hipótesis). Luego tiene que ser acotada (por eso N y no I). Pero esa es exactamente la
condición que pide el PAU 2.5.1 (junto con que E y F sean Banach’s).
Luego ya tenemos que M < ∞ por el PAU. El hecho de que el lı́mite puntual T sea K-lineal
es inmediato tomando lı́mites y usando que los Tn lo son. Finalmente,

kT xk = lı́m kTn xk ≤ sup kTn xk ≤ sup kTn k kxk ≤ M kxk


n→∞ n∈N n∈N

para todo x ∈ E. Eso muestra que T ∈ L(E, F ) con kT k ≤ M . 


Observación 2.5.5. El Teor. de Banach-Steinhaus es bueno pero no tanto. Queremos decir
que, con las notaciones de arriba, no tiene porqué valer que Tn −−−→ T en el sentido de la
n→∞
norma de L(E, F ). O sea que nadie asegura que kT − Tn kL(E,F ) −−−→ 0.
n→∞

Sin embargo saber que las sucesiones que tienen lı́mites puntuales tienen que ser acotadas,
y que el operador al que convergen sea siempre continuo ya es bastante. Veremos muchas
aplicaciones de esto en la parte de convergencias débiles. Mostremos anticipadamente un
ejemplo interesante. Fijemos E = c0 y F = K. Tomemos la sucesión de las ϕn que aparecen
como la imagen de en ∈ `1 en c∗0 . O sea que

ϕn (x) = xn para cada x = (xk )k∈ N ∈ c0 y cada n∈N.

Como estamos justamente en c0 , vemos que ϕn (x) = xn −−−→ 0 para cualquier elemento
n→∞
x = (xk )k∈ N ∈ c0 . Luego el lı́mite puntual de las ϕn es la funcional nula. Bueno, acotada
es. Pero a la cota k0k ≤ sup kϕn k = 1 le sobra bastante.
n∈N

Además, como kϕn − 0k = kϕn k = ken k1 = 1 para todo n ∈ N, deducimos que en este
k·k
ejemplo NO se cumple que ϕn −−−→ 0, como mencionábamos arriba que podı́a ocurrir.
n→∞

Un ejemplo que es casi el mismo pero en otro contexto es cambiar las ϕn por los operadores
Pn ∈ L(c0 ) dados por Pn x = ϕn (x) · en , para x ∈ c0 . Un Pn de estos, lo que hace es tachar
todas las coordenadas del x dejándole śolo la n-ésima en el lugar n en que estaba.
Observar que para cada x ∈ c0 tenemos que kPn xk = |ϕn (x)| ken k = |ϕn (x)| −−−→ 0. Ası́
n→∞
que acá los Pn convergen puntualmente al operador nulo 0 ∈ L(c0 ). En este caso tampoco
le convergen en norma, porque kPn k = kϕn k = 1 para todo n ∈ N.
Este contexto es interesante porque los Pn son lo que se llama un sistema de proyectores
para c0 . Esto significa lo siguiente: Los Pn cumplen que

• Son proyectores, o sea que Pn2 = Pn · Pn = Pn para todo n ∈ N.

• Son ortogonales entre sı́, es decir que Pn · Pm = 0 si n 6= m.

61
• Aproximan puntualmente a la identidad (suman uno). Esto se escribe ası́:
n
puntual
X
Qn = Pk −−−−→ Ic0 ,
n→∞
k=1

en el sentido de la convergencia puntual del Teor. de B-S.


Las tres cosas se verifican sin dificultad. Por ejemplo Qn x es truncar al x a sus n primeras
coordenadas. La resta contra Ic0 x = x es quedarse con las útimas. Como estamos en c0 ,
eso converge en k · k∞ a cero, para cualquier tal x fijo. Sin embargo, los Qn tampoco van
hacia la identidad en norma, porque lo que les falta (truncar a las últimas coordenadas) sigue
teniendo siempre norma uno en L(c0 ) (basta evaluar en em con m muy grande). Fijensé que
en este caso la cota de las normas del Teor. de B-S da justito, porque kIc0 k = 1 = kQn k
para todo n ∈ N.
Dos cosas más. Primero que los Qn son también proyectores (sale
S distribuyendo el cuadrado
o mirando qué hacen) y sus imágenes crecen hacia el denso n∈N R(Qn ) = SF . La otra es
que todo este ejemplo (en sus mitades con ϕn , Pn y Qn ) se puede hacer exactamente igual
en los espacios `p para todo 1 ≤ p < ∞. Se usa que todos esos `p ⊆ c0 y que las colas de
las series convergentes van hacia el cero (para los Qn ). En cambio, en `∞ pasa que las ϕn no
convergen puntualmente (porque los elementos de `∞ no siempre tienen lı́mite). 4

2.6 Dualidad y adjuntos.


Vimos en los ejemplos de representaciones de espacios duales que por lo general el espacio
que actúa es a su ves actuado por el otro. Esto se vió concretamente en el caso de c0 (o `∞ )
y `1 (también con `p y `q ), donde la clave fué una forma bilineal
X
`1 × `∞ 3 (x , y) 7−→ hx , yi =
def
xn yn .
n∈N
R
O con C(X) y Mr (X) donde la dualidad surge de hacer hf , µi = f dµ. Ya más en general,
tenemos la dualidad que implementa la inmersión de un normado E al doble dual:

E × E ∗ 3 (x , ϕ) 7−→ hx , ϕi = ϕ(x) . (2.16)

La idea es que cualquier cordenada fija de un espacio produce una funcional en el otro. Las
ϕ ∈ E ∗ actúan en E por su naturaleza intrı́nseca, pero los x ∈ E también actúan en E ∗ , y
eso es lo que produce las funcionales JE (x) ∈ E ∗∗ . Generalicemos más:
2.6.1. Sean E y F dos EN’s. Diremos que ellos están en dualidad si existe una funcional
bilineal h· , ·i : E × F → K tal que
ρx
1. Para cada x ∈ E fijo, la flecha F 3 y 7−→ hx , yi está en F ∗ .

2. Estas funcionales separan puntos de F , o sea que si y1 6= y2 (ambos en F ), entonces

62
existe un x ∈ E tal que hx , y1 i =
6 hx , y2 i , o sea que hx , y1 − y2 i =
6 0.
T
Esto equivale a pedir que ker ρx = {0}.
x∈E

ρ0y
3. Para cada y ∈ F fijo, la flecha E 3 x 7−→ hx , yi está en E ∗ .

4. Las ρ0y separan puntos de E, es decir que ker ρ0y = {0}.


T
y∈F

Observar que la dualidad natural entre E y E ∗ dada en la Ec. (2.16) cumple 4 por Hahn
Banach, y se “extiende” a la natural entre E ∗∗ y E ∗ , siempre que incorporemos a E dentro
de E ∗∗ con la JE . Un hecho que conviene explicitar es que las condiciones 1 y 3 aseguran
que la dualidad es continua “en cada cordenada”. Por ejemplo dice que
k·k
xn −−−→ x en E =⇒ hxn , yi −−−→ hx , yi para todo y ∈ F .
n→∞ n→∞

Lo mismo moviéndose con los y’es contra un x fijo. 4


Definición 2.6.2. Sean E y F dos EN’s, y sea T ∈ L(E, F ). Definimos su operador adjunto
T ∗ ∈ L(F ∗ , E ∗ ) como el único que cumple la siguiente fórmula:

hx , T ∗ ϕi = hT x , ϕi para todo par x ∈ E , ϕ ∈ F∗ . (2.17)

Podemos decir explı́citamente cómo actúa el adjunto. Basta poner


T ∗ (ϕ) = ϕ ◦ T ∈ E ∗ para cada ϕ ∈ F∗ .
Este cumple la igualdad (2.17) (más bien la “traduce”), y es el único que lo hace, por el
hecho de que los x ∈ E separaban puntos de E ∗ a traves de sus Jx . 4
2.6.3 (Propiedades del adjunto). El tema de adjuntar operadores tiene buenas propiedades
funtoriales, la mayorı́a de ellas quasitriviales, que enumeramos a continuación:

1. Dados tres normados E, F y G, si me dan un T ∈ L(E, F ) y un S ∈ L(F, G), vale que

ϕ ◦ (S T ) = (ϕ ◦ S) ◦ T para toda ϕ ∈ G∗ =⇒ (ST )∗ = T ∗ S ∗ .

2. La adjunta de la identidad es otra identidad: (IE )∗ = IE ∗ . Es porque ϕ ◦ IE = ϕ.

3. Si T ∈ L(E, F ) es un iso, entonces T ∗ hace que E ∗ ' F ∗ , con (T ∗ )−1 = (T −1 )∗ .

4. Si el T de arriba era isométrico, también lo será T ∗ . Esto sale porque componer con
una isometrı́a sobre preserva la norma de las funcionales. El hecho clave es que un iso
T es isometrı́a ⇐⇒ T (BE ) = BF . Luego se calcula normas por definición.

5. Lo anterior se traduce a que E ∼


= F =⇒ E ∗ ∼ = F ∗ (∼= era ser isométricamente ').
Esto de hecho ya lo usamos en los ejemplos de espacios (sı́ y no) reflexivos.

63
6. La igualdad kyk = sup |φ(y)| para todo y ∈ F , vista en (2.7), muestra que
φ∈BF ∗

kT ∗ kL(F ∗ ,E∗ ) = sup kT ∗ φkE∗ = sup kφ ◦ T kE∗


φ∈BF ∗ φ∈BF ∗

= sup sup |φ(T x)|


φ∈BF ∗ x∈BE

(2.7)
= sup sup |φ(T x)| = sup kT xkF = kT kL(E,F ) ,
x∈BE φ∈BF ∗ x∈BE

para cualquier T ∈ L(E, F ). En resumen, siempre vale que kT k = kT ∗ k. 4

Ejemplo 2.6.4. En lo que sigue usaremos una convención notacional: Para evitar el doble
paréntesis, cuando un operador va hacia un dual (o cualquier espacio de funciones), la
variable irá abajito, onda Tx y en lugar de T (x)(y), donde Tx es el valor (en el dual de los
y’es) que toma el operador T en el punto x, antes de aplicárselo a y.
Sea T ∈ L(`1 , c∗0 ) el iso (isométrico) visto en 1.3.1, que implementa la dualidad
X
c0 × `1 3 (x , y) 7−→ hx , yi = Ty x = xn y n .
n∈N

Esto se extiende con el iso (isométrico) S ∈ L(`∞ , (`1 )∗ ) que nos da


X
`∞ × `1 3 (z , y) 7−→ hz , yi = Sz y = zn yn .
n∈N

Observar que T ∗ ∈ L(c∗∗ 1 ∗


0 , (` ) ) ahora sabemos que es otro iso isométrico. Una consecuencia
de esto es que c∗∗ ∼ ∞ vı́a el iso isométrico S −1 T ∗ ∈ L(c∗∗ , `∞ ).
0 = ` 0

Cuando decı́amos que c0 no es reflexivo, mencionábamos que la Jc0 : c0 ,→ c∗∗ 0 “coincidı́a”


con la inclusión Ic0 : c0 ,→ `∞ . Veamos ahora mejor eso. La identificación válida entre las
incrustaciones Jc0 e Ic0 se basa en la siguiente igualdad:

 Jc0 /
c0  cO ∗∗
0

S ◦ Ic0 = T ∗ ◦ Jc0 ∈ L(c0 , (`1 )∗ ) vı́a el diagrama Ic0 T∗


 
`∞ o S
/ (`1 )∗

En particular, eso implica que Jc0 es sobre ⇐⇒ Ic0 es sobre (los otros dos son iso-isos). Y
sabemos que Ic0 no lo es, ası́ que c0 minga reflex. Pobemoslá. Si x ∈ c0 e y ∈ `1 , entonces
X
(T ∗ ◦ Jc0 )x y = TJ∗x y = (Jx ◦ T ) y = Jx (Ty ) = Ty x = xn yn = Sx y = (S ◦ Ic0 )x y .
n∈N

64
Como valen igual para todo y ∈ `1 , vemos que (T ∗ ◦ Jc0 )x = (S ◦ Ic0 )x en (`1 )∗ para todo
x ∈ c0 . Ahı́ sı́ llegamos a que S ◦ Ic0 = T ∗ ◦ Jc0 en L(c0 , (`1 )∗ ).
Un festival semejante de dualidades, isometrı́as y diagramas justifica que si 1 < p, q < ∞
Tq

cumplen que 1
p
+ 1
q
= 1, entonces el iso isométrico `q ∼
= (`p )∗ de (1.24) produce que

  J`p
(Tq∗ )−1
`p Fb F / (`pO )∗∗
Tp FF
`p ∼ ∼ FF
= (`q )∗ = (`p )∗∗ y da un diagrama F
Tp FF" 
Tq∗

(`q )∗

cuya conmutatividad se prueba exactamente igual que la del de arriba. Esto muestra que la
inmersión J`p : `p ,→ (`p )∗∗ es un iso isométrico. Concretamente, J`p = (Tq∗ )−1 ◦ Tp que por
ello es sobre, lo que prueba que `p (y ya que estamos también `q ) sı́ es reflex. 4
Definición 2.6.5. Sea E un EN. Dados sendos subespacios S ⊆ E y T ⊆ E ∗ , definamos

1. El anulador S ⊥ de S como el subespacio de funcionales que anulan a S:

S ⊥ = {ϕ ∈ E ∗ : ϕ ≡ 0} = {ϕ ∈ E ∗ : S ⊆ ker ϕ} v E ∗ .

S

2. El preanulador ⊥ T de T como los x ∈ E anulados por las funcionales de T :


\

T = {x ∈ E : ϕ(x) = 0 para toda ϕ ∈ T } = ker ϕ v E .
ϕ∈T

Las mismas definiciones pueden aplicarse a cualquier dualidad h· , ·i : E × F → K, reem-


plazando ϕ(x) por hx, yi en donde haga falta. 4
Observación 2.6.6. La idea de anuladores asociados a dualidades hace observar que el
concepto de preanulador depende de que el espacio E ∗ esté presentado como el dual de E
y no como espacio aislado. Esto no es ser excesivamente puntilloso, porque existen espacios
de Banach que se pueden representar como el dual de dos normados bien distintos.
Sin ir más lejos, si E no era Banach, vale que E ∗ = EC∗ , donde EC es la completación de E
(la igualdad es una “casi” igualdad, porque las ϕ ∈ E ∗ se extienden sin drama a EC ). Pero
la cosa es peor: puede haber dos Banach’s E1 ∼ 6= E2 tales que E1∗ ∼= E2∗ . El ejemplo más
conocido es el de c0 y c (las sucesiones con lı́mite, no necsariamente nulo). Ambos tienen al
dual identificable con `1 pero no vale que c0 ∼ = c (Ejercicio: Verificar estas cosas).
Por ello el concepto de “predual”, que está implı́cito en la definición de los ⊥ T , es lindo
pero no siempre es muy correcto. Un comentario parecido se puede hacer sobre el operador
adjunto T ∗ . Sin embargo, al incluir en su notación al viejo T , uno ya sabe de qué espacios
preduales se está hablando. 4

65
Proposición 2.6.7. Sea E un EN. Dados sendos subespacios S ⊆ E y T ⊆ E ∗ , se tiene que

⊥
S⊥ = S T ⊆ ⊥T

y , (2.18)
donde la ⊆ de la derecha puede ser estricta. Sin embargo, siempre vale que
JE (⊥ T ) = T ⊥ ∩ JE (E) ( en E ∗∗ ) y ⊥ JE (S) = S ⊥ ( en E ∗ ) .

(2.19)
⊥
En particular, si E era reflex, ahı́ sı́ vale que T = ⊥ T .
Demostración. El hecho de que tanto anuladores como preanuladores sean cerrados se deduce
directamente de sus definiciones. Por otra parte, también es evidente que al ir y volver uno
incluye por lo menos al subespacio original. Por ello que las clausuras están dentro de los
doble anuladores es claro. Luego alcanza probar que

 \
S⊥ = ker ϕ : ϕ ∈ S ⊥ ⊆ S .

Esto se deduce del Teor. de Hahn Banach 2.1.5, y ya fue planteado en el Ejer. 2.1.8. La idea

es tomar un x ∈/ S y definir una ϕ0 ∈ S ⊕ span {x} tal que S ⊆ ker ϕ0 pero ϕ0 (x) 6= 0.
Si tomamos el espacio E = `1 y el subespacio T = c0 v `∞ ∼ = (`1 )∗ , es fácil ver que ⊥ c0 = {0}
(basta actuar con los en ∈ c0 para tachar todo). Luego ( c0 )⊥ es todo `∞ .

La Ec. (2.19) se deduce directamente (aunque trabajosamente) de las definiciones. Cuando


E es reflex, nos queda que T ⊥ = JE (⊥ T ). Pensando a T como un S, vemos que
(2.18)  (2.19) ⊥  (2.19) ⊥ ⊥
T = ⊥ T⊥ = JE (⊥ T ) = T .
En resumen, si E era reflex, hay dos igualdades en (2.18). 
Proposición 2.6.8. Sean E y F dos EN’s y T ∈ L(E, F ). Luego
ker T ∗ = R(T )⊥ ( en F ∗ ) y ker T = ⊥
R(T ∗ ) ( en E ). (2.20)
Por otra parte, el operador T ∗∗ ∈ L(E ∗∗ , F ∗∗ ) cumple que

E
T / F (2.21)
∗∗
T ◦ JE = JF ◦ T vı́a el diagrama JE JF
 
E ∗∗ / F ∗∗
T ∗∗

Demostración. Si φ ∈ F ∗ vale que φ ∈ ker T ∗ ⇐⇒ φ ◦ T = 0 ⇐⇒ R(T ) ⊆ ker φ. Eso


muestra la igualdad ker T ∗ = R(T )⊥ . En cambio, dado un x ∈ E tenemos que
\
x ∈ ker T ⇐⇒ φ(T x) = 0 para toda φ ∈ F ∗ ⇐⇒ x ∈ ker (T ∗ φ) = ⊥ R(T ∗ ) .
φ∈ F ∗

Respecto del diagrama, fijemos un x ∈ E y una φ ∈ F ∗ . Pongamos x


b = Jx . Luego
x ◦ T ∗) φ = x
Txb∗∗ φ = (b b(T ∗ φ) = x
b (φ ◦ T ) = φ(T x) = JF (T x) φ .
Como esto pasa para toda φ ∈ F ∗ , nos queda que T ∗∗ (JE x) = JF (T x) para todo x ∈ E. 

66
Observación 2.6.9. Tratemos de traducir la Prop. anterior. El diagrama (2.21) dice que,
si tanto E como F son reflex, entonces T “ = ” T ∗∗ cuando identificamos los espacios con
sus dobleduales. Más precisamente, T ∗∗ = JF T JE−1 . En general, si ahora identificamos
los
∗∗
espacios con sus imágenes en los dobleduales, nos quedarı́a que T “ = ” T .
E

De la Ec. (2.20) se pueden deducir fórmulas para los rangos:



R(T ) = ker T ∗ y R(T ∗ ) ⊆ (ker T )⊥ . (2.22)

Esto surge de aplicarle la Ec. (2.18) a las igualdades de (2.20). 4


Ejercicio 2.6.10. Sea E un EN y sea S v E. Probar que
1. El dual S ∗ se caracteiza como S ∗ ∼
= E ∗ /S ⊥ vı́a el iso-isométrico

Φ ∈ L(E ∗ /S ⊥ , S ∗ ) dado por Φ (ϕ + S ⊥ ) = ϕ|S .

Se necesita verificar buena definición, linealidad, isometricidad y epiness (por H-B).


2. Análogamente, probar que (E/S)∗ ∼= S ⊥ por el hecho de que

Π∗S ∈ L (E/S)∗ , E ∗ R(Π∗S ) = S ⊥ v E ∗ .



es isométrica y (2.23)

Recordar que Π∗S (φ) = φ ◦ ΠS para cada φ ∈ (E/S)∗ . El curro es “bajar” al cociente
las ϕ ∈ S ⊥ , vı́a el Cor. 1.7.5, que también da el isometrismo. 4

2.6.11. Sean E y F dos normados. Diremos que un T ∈ L(E, F ) es acotado inferiormente


(y abreviamos AI) si existe un ε > 0 tal que

ε · kxkE ≤ kT x kF para todo x∈E . (2.24)

Es claro que ser AI implica ser mono. Pero si E es un Banach se puede decir más: Si T es
AI, entonces debe pasar que R(T ) v F (se suele decir “T es un rango cerrado”). En efecto,

T xn −−−→ y ∈ F =⇒ kxn − xm kE ≤ ε−1 kT xn − T xm kF −−−−→ 0 .


n→∞ n,m→∞

Luego (xn )n∈ N es Cauchy y hay un x ∈ E tal que xn −−−→ x. Ası́ que T x = y ∈ R(T ).
n→∞

Es interesante observar que si tanto E como F son Banach’s, entonces

T ∈ L(E, F ) es AI ⇐⇒ T es mono y R(T ) v F . (2.25)

La ida ya la vimos en general. La vuelta sale ası́: Sea G = R(T ) v F . Luego G es un


Banach y podemos pensar a T ∈ L(E, G) para hacerlo K-iso. Por el TFI 2.3.4, tenemos que
T −1 ∈ L(G, E). Observar que dado x ∈ E, si llamamos y = T x ∈ G, entonces

kxkE = kT −1 ykE ≤ kT −1 k kykG = kT −1 k kT xkF .

Luego se cumple la Ec. (2.24) con el número ε = kT −1 k−1 > 0, por lo que T es AI. 4

67
Proposición 2.6.12. Sean E y F dos Banach’s y sea T ∈ L(E, F ). Luego

T es inversible ⇐⇒ T∗ es inversible .

Demostración. Ya sabemos que =⇒ vale, con (T ∗ )−1 = (T −1 )∗ . Si asumimos que T ∗ es


biyectiva (en particular epi), como E ∗ y F ∗ son Banach’s podemos aplicar el TIA 2.3.3, que
asegura T ∗ es abierta, por lo que existe un ε > 0 tal que

BEa ∗ (0 , 2ε) ⊆ T ∗ (BFa ∗ ) =⇒ ε · BE ∗ ⊆ BEa ∗ (0 , 2ε) ⊆ T ∗ (BFa ∗ ) ⊆ T ∗ BF ∗ ) .

Usando esto sale que T es acotado inferiormente. En efecto, dado x ∈ E, tenemos que

kT xk = sup |hT x , φi| = sup |hx , T ∗ φi| = sup |hx , ϕi|


φ∈BF ∗ φ∈BF ∗ ϕ∈T (BF ∗ )

≥ sup |hx , ϕi| = ε · sup |hx , ϕi| = ε · kxk .


ϕ∈ εBE ∗ ϕ∈BE ∗

Luego la Ec. (2.25) nos dice que T es mono y R(T ) v F . Pero al mismo tiempo, a partir de
la Ec. (2.22) llegammos que R(T ) = ⊥ (ker T ∗ ) = ⊥ {0F ∗ } = F (porque T ∗ es mono). Ası́
que R(T ) es cerrado y denso, por lo que T es también epi. 

2.7 Proyectores y subespacios complementados


Mostremos una serie de aplicaciones de los teoremas anteriores. Supongamos que tenemos
un Banach E y dos subespacios S, T ⊆ E tales que E = S ⊕ T . El sı́mbolo ⊕ (suma directa)
significa que S ∩ T = {0} y S + T = E. Luego tenemos bien definido el proyector

PS/T : E → S ⊆ E dado por PS/T (x + y) = x para x∈S e y∈T . (2.26)

La definición es buena porque todo z ∈ E se escribe en forma única como z = x + y con


x ∈ S e y ∈ T . Y además PS/T es K-lineal, por esa misma unicidad. La pregunta es qué
hace falta pedir para que este PS/T ∈ L(E).
Claramente la hipótesis que uno se imagina es que S, T v E, o sea que ambos sean cerrados.
De hecho, seguro que hace falta pedir esto, porque T = ker PS/T y S = ker(IE − PS/T ) .
Sin embargo, aún bajo esa suposición, cuando uno intentar un prueba directa la cosa se
empasta mal. Sugerimos al lector escéptico que trate de mostrar esto directamente, sin usar
los teoremas que tenemos hasta ahora. Le auguramos que le aparecerá un problemita muy
similar al que se mencionaba en el marketing previo al TGC. Antes de ver como se arregla
va un poco de notación y la caracterización algebráica de los PS/T acotados:
Observación 2.7.1. Sea E un Banach. Sabemos que L(E) es otro Banach con la norma
de operadores. Pero también es un anillo con la suma usual y el producto dado por la
composición. De hecho es una K-álgebra (de Banach, ver Cap. 6) con unidad IE .

68
Diremos que un operador P ∈ L(E) es un proyector si es un idempotente: P ◦ P = P . Y

P(E) = {P ∈ L(E) : P ◦ P = P } (2.27)

es la notación para el espacio de proyectores acotados. Notar que si P ∈ P(E) enotnces:


• También el operador Q = IE − P ∈ P(E). Notar que P Q = Q P = 0 (el ◦ ya voló).

• Nuestro P opera como la identidad en su rango S = R(P ).

• Vale que S = R(P ) = ker Q v E, y que T = R(Q) = ker P v E.

• Se cumple la descomposición S ⊕ T = R(P ) ⊕ ker P = E.

• Por lo tanto nuestro P no era otro que P = PS/T , donde S = R(P ) y T = ker P .
Las pruebas son todas directas. Veamos un poco la de la suma directa: Dado x ∈ E, es
obvio que el elemento y = P x ∈ S. Pero también tenemos que

z = x − y = x − P x = (IE − P ) x = Q x ∈ T .
x∈T x∈S
Como x = y + z ya sale que S + T = E. Que S ∩ T = {0} es facilongo (0 = P x = x).
Ası́ que hemos visto que todos los P ∈ P(E) son del tipo PS/T , el de la Ec. (2.26) para la
descomposición S ⊕ T = R(P ) ⊕ ker P = E. Ahora viene la novedad, que dice que toda tal
descomposición produce un proyector acotado. 4
Proposición 2.7.2. Sea E un Banach y sean S, T v E tales que E = S ⊕ T . Luego el
proyector PS/T de la Ec. (2.26) es acotado, o sea que PS/T ∈ P(E).
Demostración. Por el TGC 2.4.1 (y el hecho
 de que E es Banach), para ver que PS/T ∈ L(E)
bastarı́a probar que el gráfico Gr PS/T v E × E. Sea entonces una sucesión

(zn , PS/T zn )n∈N en Gr (T ) tal que (zn , PS/T zn ) −−−→ (z, x) ∈ E 2 .


n→∞

Llamemos xn = PS/T zn que es una sucesión en S. El dato de arriba significa que

zn −−−→ z y que xn −−−→ x .


n→∞ n→∞

Como S v E, tenemos al menos que x ∈ S. Pero además tenemos que todas las diferencias
yn = zn − xn ∈ T , por lo que y = z − x = lim yn ∈ T (también T v E).
n→∞

Finalmente, basta observar que z = x + y con x ∈ S e y ∈ T . Por la definición de PS/T ,


esto muestra que x = PS/T z. Entonces (z, x) ∈ Gr PS/T , que nos queda cerrado. 
Ejercicio 2.7.3. Con las notaciones de la Prop. 2.7.2, probar que kPS/T k = N −1 , para

N = máx{M ≥ 0 : kx + yk ≥ M kxk para todos los x∈S , y∈T}


(2.28)
= ı́nf{kx + yk : y ∈ T , x ∈ S1 } = d (S1 , T ) ,

69
def
donde se usa la notación S1 = {x ∈ S : kxk = 1}.
def
Sug. 1 : Utilizar en el espacio producto S × T la norma dada por k(x , y)k1 = kxk + kyk,
para cada par (x , y) ∈ S × T , con la que nos queda un EB.
Sug. 2 : Por el Cor. 1.7.5 se tiene que kPS/T k = kPeS/T k, donde PeS/T ∈ L(E/T , E) es el
bajado al cociente que cumple PS/T = PeS/T ◦ ΠT . Dado un x ∈ S1 nos queda que

1 = kxk = kPS/T xk = kPeS/T xk ≤ kPeS/T k k x k = kPS/T k d (x , T ) .

Despues se toma ı́nfimo sobre tales x ∈ S1 . Usar también que ΠT (S) da todo E/T . 4
Ejercicio 2.7.4. Sea E = `p (N), con p ∈ (1, ∞). Tomemos el operador Mx ∈ L(E)
producido como en la Ec. (1.43) por x = ( n1 )n∈N ∈ `∞ (N). Consideremos los subespacios

S = E × {0} v E × E y T = Gr(Mx ) = ( y , Mx y ) : y ∈ E v E × E ,

donde en E × E se usa la norma definida en (2.14). El hecho de que ker Mx = {0} dice que
S ∩ T = {0}. Sin embargo, proponemos probar que

d (S1 , T ) = 0 =⇒ S ⊕ T 6v E × E ,
(2.28)
porque sinó sumarı́an un Banach mientras que kPS/T k = ∞. Ya que están, prueben que
S ⊕ T = E × R(Mx ) que es denso en E × E. 4
Definición 2.7.5. Sea E un EB. Diremos que un subespacio cerrado
S v E es complementado (COM) en E si existe un T v E tal que S ⊕ T = E .
Remarquemos que complementos algebráicos siempre hay (completando bases). Lo clave acá
es que exista un complemento T para S que sea también cerrado. 4
Proposición 2.7.6. Sea E un EB y sea S v E. Las suguientes condiciones son equivalentes:

1. Nuestro S es COM en E.

2. Existe un proyector P ∈ P(E) tal que R(P ) = S (el complemento es ker P ).

3. Existe un proyector Q ∈ P(E) tal que ker Q = S (el complemento es R(Q) ).

4. Si consideramos el cociente E/S como EB con la norma cociente, y la proyección


ΠS ∈ L(E , E/S) como en la Prop. 1.7.1, existe una sección lineal y continua:

Existe U ∈ L(E/S , E) tal que ΠS ◦ U = IE/S . (2.29)

En este caso el complemento para S es R(U ).

70
Demostración. Es claro que 2 ⇐⇒ 3 poniendo Q = I − P o viceversa. Si existe el proyector
P sobre S, basta tomar T = ker P , que es cerrado y es un buen complemento de S.
En cambio si tenemos el T v E tal que S ⊕ T = E, podemos aplicar la Prop. 2.7.2 que nos
asegura que el proyector P = PS/T es acotado y tiene rango S.
Veamos ahora que 3 ⇐⇒ 4. Si existe la sección U ∈ L(E/S , E) de (2.29), basta definir el
proyector Q = U ◦ ΠS ∈ P(E) . Como U es mono sale que ker Q = ker ΠS = S.
Si existe el Q ∈ P(E) con ker Q = S del item 3, el Cor. 1.7.5 nos decı́a que existe un
U = Q̃ ∈ L(E/S , E) tal que U ◦ ΠS = Q. Observar que esta U es continua y cumple que

ΠS ◦ U (ΠS x) = ΠS (Q x) = ΠS (x) para todo x∈E ,

porque x − Q x ∈ ker Q = S. Esto muestra que ΠS ◦ U = IE/S . 


Ejercicio 2.7.7. Sea E un EB. Si nuestro subespacio S v E cumple que
def
dim S < ∞ o que codim S = dim E/S < ∞ =⇒ S es COM en E .

Recordar la Prop. 2.1.11 y el Cor. 1.6.5, aplicado a E/S . 4

En general es un problema bastante complicado (e importante en algunas aplicaciones) el


poder decidir si un S v E es COM o no. De hecho no hay métodos sistemáticos y hay que
estudiar el problema con herramientas propias de cada ejemplo concreto.
Se cae de maduro, por todo lo que venimos diciendo, que suelen existir muchos subespacios
S v E que no son COM’s en E, siempre que E sea un EB con dim E = ∞ y no sea isomorfo
a un Hilbert (de ellos se habla en el Cap. 3, sobre todo en la Prop. 3.2.5). Más aún, se ha
probado que todo tal espacio E tiene al menos uno de esos subespacios noCOM. Sin embargo
no es demasiado fácil mostrar ejemplos concretos. Ahora van un par: Un caso tı́pico es la
imagen de un Banach F no reflexivo en su dobre dual, vı́a la JF . Veamos el caso F = c0 .
Ejemplo 2.7.8. Probaremos que c0 v `∞ no es COM en `∞ . Para ello llamemos X = `∞ /c0
que es un EB, y cosideremos la proyección Π = Πc0 ∈ L(`∞ , X).
Ahora necesitamos un lindo ejercicio de cardinales: Él dice que existe una famila {Ai }i∈I de
subconjuntos de N tales que todos los Ai son infinitos, el cardinal de I es el de R, pero

Ai ∩ Aj es finito siempre que i 6= j .

No daremos los detalles del cómo hacerlo, porque es una lástima quemarlo. Sin embargo
diremos que sale de dos maneras tradicionales (al lector entusiasta le sugerimos no leer lo
que sigue, hasta que le salga): Una es tomando bandas oblicuas (que sean bastante anchitas)
en el reticulado N × N, con el “angulo” moviéndose en (0 , π/2). La otra es tomar sucesiones
adecuadas de números racionales.
Luego la familia {Ai }i∈I cumple las siguientes propiedades:
• Para cada i ∈ I sean xi = 1Ai ∈ `∞ and yi = Π(xi ) ∈ `∞ /c0 . Vale que kyi kX = 1.

71
• Más aún, si fijamos unP
F ∈ PF (I) y tenemos
P números αi ∈ C tales que |αi | = 1 para
todo i ∈ F, entonces k αi yi kX = kΠ( αi xi )kX = 1.
i∈ F i∈ F

• En particular todos los yi son vectores distintos de X, porque kyi − yj kX = 1 si i 6= j.


P
La idea de la prueba se basa en que la sucesión αi xi tiene sólo finitas entradas donde se
i∈ F
suman más de un αi , pero infinitas donde vale cada αi fijo. Por ello dista uno de c0 .
def
Sea ahora ϕ ∈ X ∗ . De lo anterior se sigue que Iϕ = {i ∈ I : ϕ(yi ) 6= 0} debe ser numerable.
En efecto, veremos que Fk = {i ∈ I : |ϕ(yi )| ≥ k} es finito para todo k ∈ N: Pongamos
αi = sgn ϕ(yi ) para cada i ∈ Iϕ , y fijemos un F ∈ PF (Fk ). Luego tenemos que
  P
P P P |F|
ϕ αi yi = αi ϕ(yi ) = |ϕ(yi )| ≥ k mientras que αi yi = 1 .

i∈ F i∈ F i∈ F i∈ F X

|F|
Ası́ vemos que k
≤ kϕk, por lo que el cardinal |Fk | no se puede pasar de k kϕk < ∞.
Volvamos ahora a nuestro problema de que c0 no puede ser COM en `∞ : Asumiremos que
existe una sección lineal y continua U ∈ L(X , `∞ ) para Π como en (2.29), y llegaremos a
una contradicción. Aplicando la Prop. 2.7.6, eso nos dirı́a que c0 no era COM en `∞ .
Consideremos las funcionales ϕn ∈ X ∗ dadas por ϕn = kn ◦ U , donde las kn ∈ (`∞ )∗ son
tomar la entrada n-ésima de un x ∈ `∞ , para cada n ∈ N. Observar que si un elemento
z = (zn )n∈ N ∈ `∞ cumple que zn = kn (z) = 0 para todo n ∈ N, entonces z = 0.
S
Finalmente notemos que I0 = n∈N Iϕn es numerable. Luego, como I era no numerable,
existe algún i ∈ I \ I0 y para él tenemos que el vector z = U (yi ) ∈ `∞ debe cumplir que
 i∈I
/ 0
kn (z) = kn U (yi ) = ϕn (yi ) = 0 para todo n∈N =⇒ z = U (yi ) = 0 .

Pero eso contradice el hecho de que kyi kX = 1 junto con que U debe ser mono (porque era la
sección de Π, o sea que Π ◦ U = IX ). Observar que la linealidad-continuidad de la supuesta
U se usó para que las ϕn ∈ X ∗ . Llegamos a una contradicción lo suficientemente flagrante
como para concluir que no hay tal U y por ello c0 no era COM en `∞ . 4

El ejemplo que viene se basa en un resultado sobre `1 = `1 (N) que es interesante en sı́ mismo.
Lo pondremos como un ejercicio para el lector. Para abreviar damos una definición:
Definición 2.7.9. Sea E un EB. Diremos que E tiene la porpiedad L si dada cualquier
sucesión (xk )k∈ N en E, se tiene que
k · kE
xk −−−→ 0 ⇐⇒ ϕ(xk ) −−−→ 0 para toda ϕ ∈ E∗ . (2.30)
k→∞ k→∞

O sea que la convergencia débil de sucesiones implica su convergencia en norma. 4

72
Ejercicio 2.7.10. Probar que `1 (N) tiene la propiedad L.
Sugerencia: La gracia es la flecha ⇐= de (2.30). Si empezamos con una sucesión (xk )k∈N
en B`1 (N) que no converge a cero con la norma uno de `1 (N) (eso alcanza por la Obs. 2.5.3),
pasando a una subsucesión (y teniendo mucho cuidado) podemos suponer que
• kxk k1 ≥ ε para todo k ∈ N.
• Existe una sucesión creciente de enteros positivos αk (con α0 = 0) tales que
αk−1 αk
X 1 X 2
|xk (m)| ≤ pero |xk (m)| ≥ kxk k1 − para todo k∈N.
m=1
k m=αk−1 +1
k

En tal caso definir z ∈ `∞ por z(m) = sgn xk (m) para αk−1 < m ≤ αk y ver que pasa con
la funcional ϕz ∈ (`1 )∗ , definida como en la Ec. (1.23). 4

En realidad, casi ningún EB tiene la L. Es una propiedad muy especı́fica de `1 (N) (y de sus
subespacios). Sugerimos mostrar que todos los otros Banachs que conocemos no la tienen.
Le pusimos nombre sólo para clarificar las cuentas en el ejemplo que viene. Pero antes otro
ejercicio que dice que la L se hereda y se transporta por isomorfismos entre EB’s :
Ejercicio 2.7.11. Sea E un EB que tiene la propiedad L. Probar que
1. Cualquier S v E tiene también la propiedad L.
2. Si F es otro EB tal que E ' F , entonces tambien F es L.
Sugerencia: Para probar 1, observar que se puede mandar toda ϕ ∈ E ∗ hacia ϕ|S ∈ S ∗ . Para
ver 2 recordar que si T ∈ L(E , F ) es un iso, entonces también T ∗ ∈ L(F ∗ , E ∗ ) lo es. 4
Ejemplo 2.7.12. Ahora veremos una gran familia de subespacios no complementados se
puede “encontrar” dentro de `1 (N). Ya verán el porqué de las comillas:
Fijemos E un EB separable. Recordando la Prop. 2.3.7 tenemos un epi T ∈ L(`1 (N) , E)
y, si llamamos M = ker T v `1 (N), sabemos que hay un iso T̃ ∈ L(`1 (N)/M , E). Si el
subespacio M que nos aparece tuviera un complemento N v `1 (N), también tendrı́amos
que E ' `1 (N)/M ' N , vı́a una sección U de la proyección ΠM que provee la Prop. 2.7.6.
Ahora vienen las propiedades L: Por el Ejer. 2.7.10 el ambiente `1 (N) tiene la L. Pero usando
ahora el Ejer. 2.7.11, podrı́amos deducir que N v `1 (N) y también E ' N deben ser L.
Por ende, para “tener” un M v `1 (N) no COM en `1 (N), bastarı́a encontrar un EB separable
E que no cumpla la propiedad L, poniendo M = ker T para un epi T ∈ L(`1 (N) , E).
Por ejemplo c0 no puede ser L, porque si (en )n∈N es la sucesión canónica de c0 , vale que
ϕ(en ) −−−→ 0 para toda ϕ ∈ c∗0 ∼
= `1 . Tampoco los `p para 1 < p < ∞ son de tipo L (sale
n→∞
usando la misma sucesión), ası́ que hay noCOM’s para tirar al techo dentro de `1 (N). 4
Veremos a continuación un par de propiedades que sirven para ver que algunos subespacios
sı́ son COM’s en su ambiente. En algún sentido generalizan la Prop. 2.7.6 :

73
Proposición 2.7.13. Sean E y F dos EB’s y T ∈ L(E , F ). Luego se tiene que
1. Si asumimos que T era un epi, entonces

ker T es COM en E ⇐⇒ existe A ∈ L(F , E) tal que T ◦ A = IF . (2.31)

2. Si en cambio asumimos que T era un mono, entonces

R(T ) v F y es COM en F ⇐⇒ existe B ∈ L(F , E) tal que B ◦ T = IE . (2.32)

Demostración. Empecemos con el caso en que T es epi. Si tiene un A que es inverso a derecha
como en (2.31), entonces vale que Q = A ◦ T ∈ P(E) y ker Q = ker T . Por la Prop. 2.7.6
vemos que ker T era COM en E. Pero si tenemos un N v E tal que ker T ⊕ N = E,
entonces nos queda que T |N ∈ L(N , F ) es un iso. Por el TFI 2.3.4 sabemos que su inversa
A = (T |N )−1 ∈ L(F , N ) ⊆ L(F , E). Pero tenemos que T ◦ A = T |N ◦ A = IF .
Si T era mono y existe el B de (2.32) (o sea que T tiene inversa a izquierda), entonces el
operador P = T ◦ B ∈ P(F ) y vale que R(T ) = R(P ) v F (la igualdad sale porque B tiene
que ser epi). Por la Prop. 2.7.6 vemos que R(T ) es además COM en F .
Si asumimos que S = R(T ) v F , entonces podemos pensar a T ∈ L(E , S) con nombre T0 ,
y allı́ es un iso entre EB’s. Por el TFI 2.3.4, su inversa B0 = T0−1 ∈ L(S , E). Si además
existe un N v F tal que R(T ) ⊕ N = F , y llamamos P = PS/N ∈ P(F ) (es acotado por la
Prop. 2.7.2), entonces podemos definir al candidato B = B0 ◦ P ∈ L(F , E). Veamos:

B ◦ T = B0 ◦ P ◦ T = B0 ◦ T0 = IE ,

donde = vale porque P actúa como la identidad en S y R(T ) = S. 

74
2.8 Ejercicios del Cap. 2 - Funcionales y Operadores
Ejercicios aparecidos en el texto
2.8.1. Sea E un EN. Dado un subespacio S v E y un x ∈
/ S, probar que existe una

ϕ ∈ E∗ tal que S ⊆ ker ϕ , kϕk = 1 pero |ϕ(x)| = d ( x , S ) . (2.33)

Se sugiere probarlo primero a mano en S ⊕ span {x} y extender por Hanh-Banach. Recién después hacerlo
usando la Ec. (2.6) en E/S . Comparar con la igualdad |ϕ(x)| = d ( x , ker ϕ ) de la Prop. 1.7.7. 4
2.8.2. Sea E un EN. Probar que

{ ker ϕ : ϕ ∈ E ∗ y S ⊆ ker ϕ } .
T
1. Dado un subespacio S ⊆ E, se tiene que S =

2. Más aún, si X ⊆ E entonces un punto

y0 ∈ span {X } ⇐⇒ todo ϕ ∈ E ∗ tal que X ⊆ ker ϕ cumple que ϕ(y0 ) = 0. 4

2.8.3. Sea E un EN.

1. Dado un x ∈ E y una ϕ ∈ E ∗ como en la Ec. (2.6) (o sea que kϕk = 1 pero ϕ(x) = kxk ), mostrar que
(1.39)
ahı́ sı́ vale que d (x , ker ϕ) = kxk. Comparar con la Ec. (1.27) y el Ejem. 1.4.3.

2. Asumamos que dim E = ∞. Usando recursivamente el item anterior, probar que existen una sucesión
(xn )n∈ N en E y una familia de subespacios Sn v E tales que

(a) La dim Sn = ∞ y la kxn k = 1 para todo n ∈ N.


(b) Los subespacios decrecen: Sm ⊆ Sn si n ≤ m.
(c) Para todo n ∈ N vale que xn ∈ Sn . Luego xm ∈ Sn para todo m ≥ n.
(d) Pero además vale que Sn = Sn+1 ⊕ K xn para todo n ∈ N.
(e) Observar que nos queda que E = Sn+1 ⊕ span {x1 , . . . , xn } para todo n ∈ N.
(f) Por último pedimos que la d (xn , Sn+1 ) = 1 para todo n ∈ N.

Sugerencia: Empezar con S1 = E y x1 ∈ E un unitario cualquiera. El paso inductivo es encontrar una


ϕn ∈ Sn∗ tal que d (xn , ker ϕn ) = 1 (todo en Sn ). Luego se podrá definir Sn+1 = ker ϕn ⊆ Sn y elegir el
xn+1 al azar allı́ dentro.

3. Asumiendo además que E es un EB, exhibir un T ∈ L(`∞ , E) que sea mono. 4

Sugerencia: Construir la sucesión (xn )n∈ NPen E de vectores unitarios y los Sn del item 2. Luego mandar
cada a = (an )n∈ N ∈ `∞ a la serie T (a) = n∈N 2−n an xn ∈ E. 4
2.8.4. Sea E un EB infinitodimensional, con dim E = α (dimensión algebráica).

1. Usando el Teor. de Baire 2.2.4, probar que α > |N| = ℵ0 .

2. Más aún, usando el Ejer. 2.1.9 y Vandermonde, mostrar que α ≥ |R| = c.


Sug: Considerar los vectores (λn )n∈N ∈ `∞ para cada λ ∈ C con |λ| < 1. 4

2.8.5. Mostrar un ejemplo de un T ∈ Hom(E , F ) que no es acotado aunque Gr (T ) v E × F y E es un EB.

Repaso: Sean E , F dos EN’s. Recordemos que un operador T ∈ L(E, F ) es acotado inferiormente (y
abreviamos AI) si existe un ε > 0 tal que ε · kxkE ≤ kT x kF para todo x ∈ E .

75
2.8.6. Sean E , F dos EN’s y sea T ∈ L(E, F ). Asumamos que E es Banach. Probar que:

1. Si T es AI, entonces T es mono y R(T ) es cerrado.

2. Se tiene que T es AI y epi ⇐⇒ T ∈ Gl (E).

3. Si también F era un EB, entonces T es AI ⇐⇒ T es mono y R(T ) es cerrado.

2.8.7. Probar que una sucesión (xk )k∈N en `1 cumple que

k·k1
xk −−−−→ 0 ⇐⇒ ϕ(xk ) −−−−→ 0 para toda ϕ ∈ (`1 )∗ ∼
= `∞ .
k→∞ k→∞

En el Ejer. 2.7.10 se da una sugerencia bastante explı́cita. Pero allı́ se pedı́a que (xk )k∈N fuera acotada.
Ahora agregamos al ejercicio el mostrar que cualquiera de las dos convergencias asegura esa acotación. 4
2.8.8. Sea E un EB y sea B ⊆ E un subconjunto cualquiera. Probar el Cor. 2.5.2:
B es k · k-acotado ⇐⇒ B es w-acotado ,
donde w-acotado significa que para toda ϕ ∈ E ∗ el conjunto ϕ(B) es acotado en C. 4
2.8.9. Dados tres normados E, F y G, un T ∈ L(E, F ) y un S ∈ L(F, G), probar lo que sigue:

1. Usando la igualdad kyk = sup |φ(y)| para todo y ∈ F , ver que kT k = kT ∗ k.


φ∈BF ∗

2. El adjunfo del producto da el producto al revés de los adjuntos: (S T )∗ = T ∗ S ∗ .

3. La adjunta de la identidad es otra identidad: (IE )∗ = IE ∗ .

4. Si T ∈ L(E, F ) es un iso, entonces T ∗ hace que E ∗ ' F ∗ , con (T ∗ )−1 = (T −1 )∗ .

5. Nuestro T es isomorfismo e isometrı́a ⇐⇒ T (BE ) = BF .

6. En tal caso, también T ∗ será isomorfismo e isometrı́a. Deducir que

E∼
= F =⇒ E ∗ ∼
= F∗ (∼
= era ser isométricamente ') .

¿ Vale la recı́proca? 4

2.8.10. Consideremos los EB’s c0 y c = c0 + K 1 = {(xn )n∈ N ∈ `∞ : existe el lim xn ∈ K }.


n→∞

1. Probar que hay isomorfismos isométricos naturales c∗0 ∼


= `1 (N) ∼
= c∗

2. Sin embargo, probar que no existe iso isométrico entre ellos, o sea que c0 ∼
6 c.
=

3. Mostrar que por lo menos sı́ vale que c0 ' c con un iso no isométrico.

Sug: Para el primero conviene observar que `1 (N) es “lo mismo” si uno empieza en x0 o en x1 . Para el
segundo se sugiere buscar extremales de las bolas cerradas (si no saben que son vean la Def. 5.4.1). 4

Ahora repasar la Def. 2.6.5 de anuladores y preanuladores.


2.8.11. Sea E un EN. Dados sendos subespacios S ⊆ E y T ⊆ E ∗ , probar que

1. Se cumple que S ⊥ v E ∗ y ⊥
T v E.

2. Además (S ⊥ ) = S y (⊥ T )⊥ ⊇ T .

76
3. Pensemos a c0 ⊆ `∞ = (`1 )∗ . Probar que (⊥ c0 )⊥ contiene extrictamente a c0 .

4. Probar en detalle la Ec. (2.19): Si JE es la inmersión canónica de E dentro de E ∗∗ ,



JE (⊥ T ) = T ⊥ ∩ JE (E) ( en E ∗∗ ) JE (S) = S ⊥ ( en E ∗ ) .

y

2.8.12. Sean E y F dos EN’s y T ∈ L(E, F ). Probar la Ec. (2.20) :

ker T ∗ = R(T )⊥ ( en F ∗ ) y ker T = ⊥


R(T ∗ ) ( en E ).

Por otra parte, mostrar el operador T ∗∗ ∈ L(E ∗∗ , F ∗∗ ) cumple la Ec. (2.21) :

E
T / F
∗∗
T ◦ JE = JF ◦ T que se ve bien en el diagrama
JE JF
 
E ∗∗ / F ∗∗
T ∗∗

Finalmente deducir la fórmula (2.22), que decı́a que


R(T ) = ker T ∗ y R(T ∗ ) ⊆ (ker T )⊥ .

2.8.13. Sea E un EN y sea S v E. Probar que

1. El dual S ∗ se caracteiza como S ∗ ∼


= E ∗ /S ⊥ vı́a el iso-isométrico

Φ ∈ L(E ∗ /S ⊥ , S ∗ ) dado por Φ (ϕ + S ⊥ ) = ϕ|S .

Se necesita verificar buena definición, linealidad, isometricidad y epiness (por H-B 2.1.5).

2. Análogamente, probar que (E/S)∗ ∼


= S ⊥ por el hecho de que

Π∗S ∈ L (E/S)∗ , E ∗ R(Π∗S ) = S ⊥ v E ∗ .



es isométrica y (2.34)

Recordar que Π∗S (φ) = φ ◦ ΠS para cada φ ∈ (E/S)∗ . El curro es “bajar” al cociente las ϕ ∈ S ⊥ , vı́a
el Cor. 1.7.5, que también da el isometrismo. 4

Repaso: Sea E un EN y sean S, T v E tales que E = S ⊕ T . El proyector PS/T de la Ec. (2.26) era

PS/T : E → S ⊆ E dado por PS/T (x + y) = x para x∈S e y∈T .

Recordemos además que otro operador P ∈ L(E) es un proyector si P 2 = P y que llamábamos

P(E) = {P ∈ L(E) : P 2 = P } (2.35)

al espacio de proyectores acotados. 4


2.8.14. Sea E un EN. Probar que si P ∈ P(E) enotnces:

1. También el operador Q = IE − P ∈ P(E), y cumple que P Q = Q P = 0.

2. Nuestro P opera como la identidad en su rango S = R(P ).

3. Vale que S = R(P ) = ker Q v E, y que T = R(Q) = ker P v E.

77
4. Se cumple la descomposición S ⊕ T = R(P ) ⊕ ker P = E.

5. Por lo tanto nuestro P no era otro que P = PS/T , donde S = R(P ) y T = ker P . 4
2.8.15. Sea E un EB y sean S, T v E tales que E = S ⊕ T . En la Prop. 2.7.2 vimos que, como E es Banach,
entonces PS/T ∈ P(E). Probar ahora que kPS/T k = N −1 , para el número N dado por

N = máx{M ≥ 0 : kx + yk ≥ M kxk para todos los x∈S , y∈T}

= ı́nf{ kx + yk : y ∈ T , x ∈ S1 } = d (S1 , T ) ,
def
donde se usa la notación S1 = {x ∈ S : kxk = 1}.
def
Sug. 1 : Utilizar en el espacio producto S × T la norma dada por k(x , y)k1 = kxk + kyk, para cada par
(x , y) ∈ S × T , con la que nos queda un EB.
Sug. 2 : Por el Cor. 1.7.5 se tiene que kPS/T k = kPeS/T k, donde PeS/T ∈ L(E/T , E) es el bajado al cociente
que cumple PS/T = PeS/T ◦ ΠT . Dado un x ∈ S1 nos queda que

1 = kxk = kPS/T xk = kPeS/T xk ≤ kPeS/T k k x k = kPS/T k d (x , T ) .

Despues se toma ı́nfimo sobre tales x ∈ S1 . Usar también que ΠT (S) da todo E/T . 4
p
2.8.16. Sea F = ` (N), con p ∈ (1, ∞). Tomemos el operador Mx ∈ L(F ) producido como en la Ec. (1.43)
por la sucesión x = ( n1 )n∈N ∈ `∞ (N). Consideremos los siguientes subespacios de F 2 = F × F :

S = F × {0} = ( y , z ) ∈ F 2 : z = 0
 
y T = Gr (Mx ) = ( y , Mx y ) : y ∈ F .

Probar ahora las siguientes cosas:


1. Ambos son cerrados: S v F 2 y T v F 2 , usando en F 2 la norma k · k1 definida en (2.14).

2. El operador Mx es mono. Recordemos que Mx y = ( n1 yn )n∈N para y = (yn )n∈ N ∈ `p (N) = F .

3. Deducir que S ∩ T = { (0 , 0) } = {0F 2 }.

4. Sin embargo, proponemos mostrar que N = d (S1 , T ) = 0, donde S1 = {w ∈ S : kwk1 = 1}.

5. Usando el Ejer. 2.8.15 deducir que S ⊕ T 6v F 2 .


2.8.15
Sug: Si E = S ⊕ T fuera un EB, valdrı́a que PS/T ∈ L(E) y también que kPS/T k = N −1 = ∞.

6. Otra forma: Mostrar que el mismı́simo (0 , x) ∈ S ⊕ T pero no está en S ⊕ T . Por este lado sale fácil
que en realidad S ⊕ T es denso en F 2 (porque R(Mx ) es denso en F ).

7. Probar que a pesar de lo anterior, pensados solitos S y T sı́ son COM dentro de F 2 . Para el caso no
trivial de T sugerimos usar la Ec. (2.32). 4
2.8.17. Sea E un EB. Si un subespacio S v E cumple que
def
dim S < ∞ o que codim S = dim E/S < ∞ =⇒ S es COM en E . 4

2.8.18. Probar que existe una famila {Ai }i∈I de subconjuntos de N tales que

|Ai | = ∞ para todo i∈I , |I| = |R| pero Ai ∩ Aj es finito siempre que i 6= j .

Sug: No indicaremos los detalles del cómo hacerlo, porque es una lástima quemarlo. Sin embargo diremos
que sale de dos maneras tradicionales (al lector entusiasta le sugerimos no leer lo que sigue, hasta que le
salga): Una es tomando bandas oblicuas (que sean bastante anchitas) en el reticulado N × N, con el “angulo”
moviéndose en (0 , π/2). La otra es tomar sucesiones adecuadas de números racionales. 4

78
2.8.19. Hacer todas las cuentas del Ejem. 2.7.8 que mostraba que c0 v `∞ no es COM en `∞ . 4
Definición 2.8.20. Diremos que un Banach E tiene la porpiedad L si dada cualquier sucesión (xk )k∈ N en
E , se tiene que
k · kE
xk −−−−→ 0 ⇐⇒ ϕ(xk ) −−−−→ 0 para toda ϕ ∈ E∗ . (2.36)
k→∞ k→∞

O sea que la convergencia débil de sucesiones acotadas implica convergencia en norma. 4


1
2.8.21. Probar que ` (N) tiene la propiedad L.
Sugerencia: La gracia es la flecha ⇐= de (2.30). Si empezamos con una sucesión (xk )k∈N en B`1 (N) que no
converge a cero con la norma uno de `1 (N) (eso alcanza por la Obs. 2.5.3), pasando a una subsucesión (y
teniendo mucho cuidado) podemos suponer que
• kxk k1 ≥ ε para todo k ∈ N.

• Existe una sucesión creciente de enteros positivos αk (con α0 = 0) tales que


αk−1 αk
X 1 X 2
|xk (m)| ≤ pero |xk (m)| ≥ kxk k1 − para todo k∈N.
m=1
k m=αk−1 +1
k

En tal caso definir z ∈ `∞ por z(m) = sgn xk (m) para αk−1 < m ≤ αk y ver que pasa con la funcional
ϕz ∈ (`1 )∗ , definida como en la Ec. (1.23). 4
2.8.22. Sean E , F dos EN’s tales que E ∼ = F vı́a un iso T ∈ L(E, F ). Si x = (xi )i∈ I es una red en E
probar que, dado un candidato a lı́mite x ∈ E
k·k k·k
1. Se tiene que xi −−→ x en E ⇐⇒ T xi −−→ T x en F .
i∈ I i∈ I

2. Además ϕ(xi ) −−→ ϕ(x) para toda ϕ ∈ E ∗ ⇐⇒ φ(T xi ) −−→ φ(T x) para toda φ ∈ F ∗ .
i∈ I i∈ I

3. La red x es acotada en E ⇐⇒ la red T x = (T xi )i∈I lo es en F . 4


2.8.23. Sea E un EB que tiene la propiedad L. Probar que
1. Cualquier S v E tiene también la propiedad L.

2. Si F es otro EB tal que E ' F , entonces tambien F es L. 4

Ejercicios nuevos
2.8.24. Sea E un EN y sea S ⊆ E un subespacio. Probar que
1. Si S no es denso en E debe existir una funcional ϕ ∈ E ∗ no nula tal que ϕ|S ≡ 0.

2. Comparar con el Ejer. 2.8.1


2.8.25. Sean E, F dos EN’s, T ∈ L(E, F ) y x ∈ E. Probar la siguiente igualdad:

d (x , ker T ) = max{|φ(x)| : φ ∈ (ker T )⊥ , kϕk ≤ 1}.

2.8.26 (El operador de Volterra.). Sea V : L2 [0, 1] → L2 [0, 1] el operador de Volterra, dado por
Z x
V f (x) = f (t) dt para cada f ∈ L2 [0, 1] .
0

Probar que V no es acotado inferiormente.

79
f (x)
2.8.27. Consideremos a E = L1 (1, +∞) como un R-EB. Sea T : E → E dado por T f (x) = x . Probar
que T es acotado pero no abierto. (Sug. 0 ∈ T (B(0, 1)) no es punto interior).
2.8.28. Sean E y F espacios normados y T ∈ L(E, F ). Probar que el Gr (T ) v E × F ⇐⇒ para toda
sucesión (xn )n∈ N en E tal que xn −−−−→ 0 y T xn −−−−→ y ∈ F , se tiene que y = 0.
n→∞ n→∞
1 0
2.8.29. Sea C [0, 1] = {f ∈ C[0, 1] : existe f ∈ C[0, 1] } con la norma infinito de C[0, 1]. Sea

D : C 1 [0, 1] → C[0, 1] dado por D(f ) = f 0 para cada f ∈ C 1 [0, 1] .

Probar que Gr (D) v C 1 [0, 1] × C[0, 1] pero D no es acotado. ¿Por qué esto no contradice el TGC?
2.8.30. Sea (E, k · k) un EB separable. Fijemos una base algebraica E = {ei }i∈I de E tal que kei k = 1
para todo i ∈ I. Con ella definamos en E otra norma k · kE del siguiente modo:
X X
Si x ∈ E se escribe x = αi ei entonces ponemos kxkE = |αi | .
i∈I i∈I

Probar ahora las siguientes cosas:

1. Antes que nada, verificar que k · kE es en efecto una norma.

2. La identidad IE : (E, k · kE ) → (E, k · k) es una contracción.

3. Si I es infinito, su “inversa” IE : (E, k · k) → (E, k · kE ) tiene gráfico cerrado pero no es acotada.

4. Ahora bien, ¿Por qué el item anterior no contradice el TGC?

2.8.31. Sean E y F dos EB’s. Probar que para todo operador T ∈ L(E , F ), su gráfico
Gr (T ) v E × F , además de ser cerrado es COM en E × F .
−1
Recordar la Ec. (2.32) y el P de la prueba del TGC. 4
2.8.32. Sea E = `p (N), con p ∈ (1, ∞) e identifiquemos E ∗ con `q (N) en la forma usual. Fijado un a ∈ `∞ (N)
consideremos el operador Ma ∈ L(E) producido como en la Ec. (1.43). Probar que su adjunto

Ma∗ ∈ L(E ∗ ) = L(`q (N) ) es el mismo Ma actuando ahora en `q (N) . 4

Definición 2.8.33. Sean E y F dos EB’s. Fijemos una sucesión (Tn )n∈N y un T , todos en L(E, F ). Decimos
S.O.T. k·k
que Tn −−−−→ T (se lee “Tn converge fuertemente a T ”) si para cualquier x ∈ E se tiene que Tn x −−−−→ T x
n→∞ n→∞
(en la norma de F ). 4
2.8.34. Sean E y F dos EB’s. Dados T, S y dos sucesiones (Tn )n∈N y (Sn )n∈N , todos en L(E, F ), probar:
S.O.T. k·k k·k
1. Si Tn −−−−→ T y xn −−−−→ x (todos en E y con su norma) entonces Tn xn −−−−→ T x.
n→∞ n→∞ n→∞

S.O.T. S.O.T. S.O.T.


2. Si Tn −−−−→ T y Sn −−−−→ S, entonces Tn Sn −−−−→ T S.
n→∞ n→∞ n→∞

3. Supongamos que para cada x ∈ E la sucesión {Tn x}n∈N es de Cauchy. Probar que existe un operador
S.O.T.
A ∈ L(E, F ) tal que Tn −−−−→ A. 4
n→∞

2.8.35. Sean E y F dos Banach’s.

1. Si S v E llamemos IS : S ,→ E la inclusión. Probar que



IS∗ es epi y que está dada por IS∗ ϕ = ϕ ◦ IS = ϕ S , para cada ϕ ∈ E∗ .

80
2. Dado T ∈ L(E, F ), probar que R(T ) v F ⇐⇒ R(T ∗ ) v E.
Sug: Si vale que R(T ) v F , bajamos T a T̃ : E/ ker T → R(T ) que es iso. Notar que

T = IR(T ) ◦ T̃ ◦ Πker T =⇒ T ∗ = Π∗ker T ◦ T̃ ∗ ◦ IR(T



) .

2.8.13
Pero por otro lado sabemos que R(Π∗ker T ) = (ker T )⊥ v E ∗ . La vuelta es similar. 4

Bases Σ y bases de Schauder.


Definición 2.8.36. Sea E un EN separable. Un conjunto (LI) B = {bn : n ∈ N} es una Σ-base de E si
P
para todo x ∈ E existe una única sucesión c(x) = (ϕn (x) )n∈ N ∈ KN tal que x = ϕn (x) bn ,
n∈N

donde la serie converge con la norma de E. En tal caso se definen las funcionales E 3 x 7→ ϕn (x) ∈ K.
Diremos que B es una S-base (o base de Schauder) si todas las funcionales ϕn ∈ E ∗ .
Asociado a B se define el espacio de sucesiones FB ⊆ KN dado por
 X
FB = a = (an )n∈ N ∈ KN : la serie an bn converge en E ,
n∈N

m
def P
dotado de la norma kakB = sup ak bk E , para cada a = (an )n∈ N ∈ FB . 4
m∈N k=1

2.8.37. Sea E un EN separable con una Σ-base B = {bn : n ∈ N}. Probar que

1. La unicidad asegura que las funcionales cordenadas ϕn ∈ E 0 , i.e. son lineales.

2. El conjunto FB ⊆ KN es un subespacio de KN .

3. La norma k · kB está bien definida (el sup es finito) y es una norma para FB .
P
4. Consideremos la flecha TB : FB → E dada por TB a = an bn para cada a = (an )n∈ N ∈ FB .
n∈N
Mostrar que este TB ∈ L(FB , E) con kTB k ≤ 1, y que es un isomorfismo K-lineal.

5. Concluir que FB = {c(x) : x ∈ E}, el conjunto de las “coordenadas” de los x ∈ E.

Supongamos ahora que E era un Banach. En tal caso se tiene que

6. El espacio de coordenadas FB con su norma k · kB es otro Banach.

7. El operador TB ∈ L(FB , E) de arriba es un iso de EB’s, o sea que es también hómeo y E ' FB .

8. Nuestra base B era también una base de Schauder. Ya que están prueben (2.37) de abajo.

9. Concluir que en los Banach’s las nociones de Σ-base y de S-base coinciden.

10. Caracterizar a E ∗ como otro espacio de sucesiones en forma similar a las dualidades de `p con `q . 4

2.8.38. Sea E un EB con una S-base B = {bn : n ∈ N}. Probar que

1. Si sus funcionales coordenadas son ϕn ∈ E ∗ para cada n ∈ N, se tiene que

1 ≤ kϕn kE ∗ kbn kE ≤ 2 k TB−1 k para todo n∈N. (2.37)

2. Si una a = (an )n∈ N ∈ FB =⇒ kan bn kE −−−−→ 0 (obvio pero ahora se la va a usar).


n→∞

81
3. Vale que sup kbn kE < ∞ ⇐⇒ ı́nf kϕn kE ∗ > 0 ⇐⇒ `1 (N) ⊆ FB .
n∈N n∈N

4. Vice versa con un agregado. Las suguientes condiciones son equivalentes:

(a) El ı́nf kbn kE > 0


n∈N

(b) El sup kϕn kE ∗ < ∞.


n∈N

(c) Toda a = (an )n∈ N ∈ FB cumple que an −−−−→ 0, i.e. FB ⊆ c0 .


n→∞

(d) Una más débil: FB ⊆ `∞ (N).


def
5. Fijado un n ∈ N denotemos por En = span {bm : m 6= n} v E. Luego

(a) Se tiene que En = ker ϕn .


kbn k
(b) Además vale que d (bn , En ) ≥ . Luego para todo n ∈ N, E = En ⊕ K bn . 4
2 k TB−1 k

2.8.39. A una S-base B = {bn : n ∈ N} de un Banch E se le dice acotada si

def def
m = ı́nf kbn kE > 0 y M = sup kbn kE < ∞ ⇐⇒ `1 ⊆ FB ⊆ c0 ,
n∈N n∈N

y se le dice unitaria si m = M = 1. Probar que si B es acotada existe una nueva norma en E que es
equivalente a la original, tal que B se hace unitaria. 4
2.8.40. Probar que la base canónica E = {en : n ∈ N} de SF se transforma en una S-base acotada de todos
los `p (N) para p < ∞ y también de c0 . Con `∞ no se plantea porque no es separable. 4

82
Capı́tulo 3

Espacios de Hilbert

3.1 Preliminares.
Definición 3.1.1. Sea H un K-EV. Un producto interno (PI) en H es una función

h· , ·i : H × H → K

que cumple las siguientes condiciones: Dados x, y, z ∈ H y λ ∈ K, vale que

1. Es sequilineal (lineal en la primera y antilineal en la segunda):

hλ x + y , zi = λ hx , zi + hy , zi y hx , λ y + zi = λ hx , yi + hx , zi ,

2. Es conjugadamente simétrico (o Hermitiano): hx , yi = hy , xi.

3. Es definido positivo: hx , xi ≥ 0 y sólo se anula si x = 0.

4. Denotaremos kxk = hx , xi1/2 , lo que pronto veremos que es la norma de x.

En el caso real la conjugación no hace nada, por lo que un PI es bilineal, simétrico y definido
positivo. Se lo llama semi PI si permitimos que hx , xi = 0 para algunos x 6= 0. 4
3.1.2 (Fórmulas con un PI). Sea H , h· , ·i un K-EV con un semi PI asociado.

1. Para todo par x, y ∈ H y todo λ ∈ K se tiene que

0 ≤ kλ x + yk2 = hλ x + y , λ x + yi = |λ|2 kxk2 + 2 Re λ hx , yi + kyk2 .



(3.1)

La prueba es directa y se deja como ejercicio. Observar que tiene una consecuencia
agradable: Tomando y = 0 en (3.1) nos queda que

kλxk = |λ| kxk para todo x ∈ H .

83
2. Por otra parte, la forma sesquilineal se puede recuperar de la cuadrática con la so
called “identidad de polarización”. Tiene dos versiones: Dados x, y ∈ H,
3
X
4 hx , yi = ik kx + ik yk2 (siempre que K = C) , (3.2)
k=0

mientras que cuando K = R se tiene una versión más agradable:

4 hx , yi = kx + yk2 − kx − yk2 . (3.3)

Las pruebas también son directas (aunque más largas) y se dejan como ejercicio.
3. Por último, veamos la famosı́sima igualdad del paralelogramo:

kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 para todo par x, y ∈ H . (3.4)

La prueba no es más que poner dos veces la Ec. (3.1), para kx + yk2 y k − x + yk2 ,
para después cancelar. Dejamos como ejercicio dar una versión para n vectores. 4
Proposición 3.1.3 (Cauchy-Schwarz). Sea H , h· , ·i un K-EV con un semi PI asociado.
Entonces para todo x, y ∈ H vale que

| hx , yi | ≤ kxk kyk . (3.5)

Demostración. Usando la Ec. (3.1), podemos considerar el siguiente polinomio en R[x] :


(3.1)
P (t) = kt x + yk2 = kxk2 t2 + 2 Re hx , yi t + kyk2 ,

para t∈R.

Observar que P tiene grado dos y que sólo toma valores positivos. Luego su discriminante
no puede ser positivo, o sea que
2
0 ≥ b2 − 4ac = 4 Re hx , yi − 4 kxk2 kyk2 =⇒ | Re hx , yi | ≤ kxk kyk . (3.6)

Para sacar la parte real escribamos hx , yi = ei θ | hx , yi |. Luego h e−i θ x , yi = | hx , yi |.


Aplicándole ahora (3.6) a los vectores x0 = e−i θ x and y, llegamos a (3.5). 
Corolario 3.1.4. Sea H , h· , ·i un K-EV con un semi PI asociado. Entonces la flecha
x 7→ kxk = hx , xi1/2 es una seminorma. Si tenı́amos un buen PI, entonces es una norma.
Demostración. Ya vimos que saca escalares en módulo y toma valores no negativos. También
sabemos que si h· , ·i es un PI entonces kxk = 0 =⇒ x = 0. Sólo falta la DT.
Dados x, y ∈ H, apliquemos la Ec. (3.1) con λ = 1 y Cauchy-Schwarz (3.5):
(3.1)
kx + yk2 = kxk2 + 2 Re hx , yi + kyk2 ≤ kxk2 + 2|hx , yi| + kyk2

C−S 2
≤ kxk2 + 2kxk kyk + kyk2 = kxk + kyk .

Tomando raı́ces cuadradas tenemos la DT y es una (semi) norma. 

84
Definición 3.1.5. A partir de ahora, cuando H , h· , ·i es un K-EV con un PI asociado,
diremos que H = (H , k · k ) es un espacio de pre-Hilbert (escribimos EPH).
Si con esa métrica resulta ser un Banach, lo llamaremos espacio de Hilbert (EH). 4
Observación 3.1.6. Sea H un EPH. La desigualdad de Cauchy Schwarz muestra que el
PI es continuo en cada coordenada (respecto de la norma que él produce). Por ejemplo, si
k·k
tomamos un vector y junto con una sucesión xn −−−→ x, todos en H, entonces
n→∞

C−S
|hx − xn , yi| ≤ kx − xn k kyk −−−→ 0 =⇒ hxn , yi −−−→ hx , yi .
n→∞ n→∞

Lo mismo se puede hacer en la segunda coordenada. 4

3.2 Ortogonalidad.
Notaciones 3.2.1. Sea H un EPH.

1. Dados x, y ∈ H, si hx , yi = 0 diremos que son ortogonales y escribiremos x ⊥ y .

2. Dado A ⊆ H denotaremos por A⊥ = {y ∈ H : x ⊥ y para todo x ∈ A}.

3. Dados A, B ⊆ H, diremos que A ⊥ B si B ⊆ A⊥ (o A ⊆ B⊥ , que es lo mismo).

4. Diremos que un B ⊆ H es un sistema ortonormal (SON) si cumple que,

kxk = 1 ∀ x ∈ H y hx , yi = 0 siempre que x 6= y , x, y ∈ B.

Si no pedimos normas uno, diremos que B es un sistema ortogonal.

5. Dado S v H, un B ⊆ S es una base ortonormal de S (se abrevia BON de S) si

B es un SON y span {B} = S .

6. Diremos que B es una BON (a secas) si lo es para todo H.

Observación 3.2.2. Sea H un EPH. En vista de la Obs. 3.1.6 es fácil ver que la flecha
A 7→ A⊥ cumple las siguientes propiedades: Dado un A ⊆ H,

1. Su ortogonal A⊥ v H (es subespacio y es cerrado).

2. También vale que, si S = span {A}, entonces A⊥ = S ⊥ = S ⊥ .

Observar que por definición, A ⊆ B =⇒ B ⊥ ⊆ A⊥ . El hecho de que A⊥ ⊆ S ⊥ sale por la


linealidad del PI en la primera coordenada. Y el que S ⊥ ⊆ S ⊥ sale por la continuidad que
ofrece la Obs. 3.1.6. El mismo tipo de argumento muestra el item 1. 4

85
Proposición 3.2.3 (Teor. de Pitágoras). Sea H un EPH. Si tenemos una familia finita
B = {x1 , x2 , . . . , xn } ⊆ H que es un sistema ortogonal, entonces se tiene que
X 2 X
xk = kxk k2 .


k∈ In k∈ In

Demostración. Hay que hacer inducción en |B| = n ∈ N. Si n = 1 es muy difı́cil. El caso en


que n = 2 sale porque kx1 + x2 k2 = kx1 k2 + 2 Re hx1 , x2 i + kx2 k2 . La prueba para n ≥ 3 la
dejamos como ejercicio para el lector inductivo. Se usa que {xn }⊥ es un subespacio. 
Sea E un K-EV, y sea A ⊆ E. Decimos que A es convexo si, dados x, y ∈ A se tiene que
def
[x, y] = {(1 − λ) x + λ y : λ ∈ [0, 1] } ⊆ A .

Observar que [x, y] denota al “segmento” recto que une a x con y dentro de E.
Teorema 3.2.4. Sea H un EH (acá es esencial que H sea completo). Dado un A ⊆ H que
sea cerrado y convexo, se tiene que para todo x ∈ H
existe un único k0 = PA x ∈ A tal que d (x , A) = kx − k0 k .
Demostración. Empecemos cambiando A por Ax = A − x = {k − x : k ∈ A}. Este Ax sigue
siendo cerrado y convexo, pero ahora hay que realizarle la distancia al x = 0. Es decir que
se busca un k0 ∈ Ax tal que kk0 k = mı́n kkk. Y después hay que ver que el tal k0 es único.
k∈Ax

Para ello llamemos M = ı́nf kkk = d (0 , Ax ) y tomemos una sucesión (kn )n∈ N en Ax tal
k∈Ax
que kkn k −−−→ M . Ahora viene el paralelogramo (3.4):
n→∞

kkn + km k2 + kkn − km k2 = 2 kkn k2 + 2 kkm k2 −−−−→ 4 M 2 .


n,m→∞

Sin embargo, por la convexidad de Ax , sabemos que


kn + km k + k 2
n m
∈ Ax =⇒ kkn + km k2 = 4 ≥ 4 M2 para todo n, m ∈ N .
2 2
Mirando fijo las dos ecuaciones de arriba podemos convencernos que no queda otra que

kkn − km k −−−−→ 0 =⇒ (kn )n∈ N es de Cauchy =⇒ kn −−−→ k0 ∈ Ax .


n,m→∞ n→∞

Acabamos de usar que H es completo y que Ax es cerrado. Bueno, ahora ya sabemos que
kkn k −−−→ kk0 k = M y que k0 ∈ Ax como anunciamos. Para ver la unicidad tomemos otro
n→∞
k ∈ Ax tal que kkk = M . Apliclándoles el paralelogramo (3.4) a k y k0 queda que

kk + k0 k2 + kk − k0 k2 = 2 kkk2 + 2 kk0 k2 = 4 M 2 .

Como antes vemos que kk + k0 k2 ≥ 4 M 2 , ası́ que kk − k0 k = 0 y k = k0 . 

86
El Teorema anterior es particularmente util cuando el rol de convexo cerrado lo cumple un
subespacio S v H. En ese caso se define PS : H → S ⊆ H dada por

PS x = y , el único y ∈ S tal que kx − yk = d (x , S) . (3.7)

Veremos que este PS es un proyector en L(H) con muchas propiedades agradables. Pero
vamos paso a paso.
Proposición 3.2.5. Sea H un EH. Dado un S v H, se tienen las siguientes propiedades:

1. La diferencia x − PS x ∈ S ⊥ para todo x ∈ H.

2. El subespacio S ⊥ es un complemento de S, o sea que S ⊕ S ⊥ = H.

3. PS ∈ L(H) con kPS k = 1 (si S =


6 {0}). Eso significa que es lineal, y que es acotado.

4. De hecho, PS = PS/S ⊥ ∈ P(H), el proyector de la Ec. (2.26) asociado a S ⊕ S ⊥ = H.

5. Por ello se cumple que PS = PS 2 , R(PS ) = S y ker PS = S ⊥ .

Demostración. El hecho clave es el item 1, que sugerimos ilustrar haciendo un dibujito en


un papel ⊆ R2 . Sean y = PS x y z = x − y. La idea es que si z no estuviera en S ⊥ se
podrı́a mejorar al y ∈ S para que la diferencia quede más ortogonal a S, y por ello mas
corta. Para formalizar eso, fijemos cualquier s ∈ S \ {0} y calculemos la distancia de x al
vector movidito y + ts ∈ S, con t ∈ R. Por la minimalidad que da el Teo. 3.7 sabemos que

0 ≤ kx − (y + ts)k2 − kx − yk2 = kz − tsk2 − kzk2

2 Rehz , si

= −2 t Rehz , si + t2 ksk2 = ksk2 t t − ksk2
.

Si Rehz , si 6= 0, el polinomio de la derecha tendrı́a dos raı́ces distintas y no podrı́a ser


siempre positivo. Luego podemos afirmar que Rehz , si = 0 para todo s ∈ S. Con el curro
de cambiar s por un eiθ s, llegamos a que z = x − PS x ∈ S ⊥ como se afirmaba.
Cualquier subespacio cumple que S ∩S ⊥ = {0}, porque los de la intersección son ortogonales
a sı́ mismos. Pero ahora sabemos que todo x ∈ H cumple que

x = PS x + (x − PS x) ∈ S + S ⊥ =⇒ S ⊕ S ⊥ = H . (3.8)

La fórmula de la izquieda de paso prueba que PS = PS/S ⊥ , el proyector asociado a la


descomposición S ⊕S ⊥ = H, porque PS x es la coordenada S-ésima de cada x ∈ H. Sabiendo
esto, la unicidad de la descomposición en coordenadas en S y S ⊥ hace que la función PS sea
lineal (recordar la Ec. (2.26) y la charla que la rodea). Esto prueba también el item 5.
Por Pitágoras vemos que kxk2 = kPS xk2 + kx − PS xk2 ≥ kPS xk2 para todo x ∈ H, por lo
que PS ∈ L(H) con kPS k ≤ 1. Salvo en el caso inútil de que S = {0}, vale que kPS k = 1,
porque PS actúa como la identidad en la bola BS . 

87
Corolario 3.2.6. Sea H un EH. Dados S v H y x ∈ H, tenemos el siguiente criterio para
identificar a PS x : Fijado un y ∈ S, las suguientes condiciones son equivalentes:
1. Nuestro y = PS x , o sea que es el único en S tal que kx − yk = d (x , S).
2. Él cumple que x − y ∈ S ⊥ , además de que y ∈ S.
3. Para todos los demás s ∈ S vale que hx , si = hy , si.
Proof. Como hx , si − hy , si = hx − y , si, es claro que 2 ⇐⇒ 3. La equivalencia de 1 con
ellos se deduce de la igualdad PS = PS/S ⊥ que mostramos en la Prop. 3.2.5. 
Corolario 3.2.7. Sea H un EH. Luego tomar “el doble ortogonal” hace esto:
1. Si A ⊆ H es cualquier cosa, entonces (A⊥ )⊥ = span {A}.
2. En particular, si S ⊆ H es un subespacio, entonces (S ⊥ )⊥ = S.
3. Es de remarcar que, si S v H, entonces S = (S ⊥ )⊥ .
Demostración. La Obs. 3.2.2 asegura que A⊥ = ( span {A} )⊥ , ası́ que alcanza probar la
igualdad S = (S ⊥ )⊥ para los S v H. Es claro que S ⊆ (S ⊥ )⊥ . Pero si x ∈ (S ⊥ )⊥ y
llamamos y = PS x ∈ S ⊆ (S ⊥ )⊥ , entonces el Cor. 3.2.6 dice que x − y ∈ S ⊥ ∩ (S ⊥ )⊥ = {0}.
En resumen, x = y ∈ S, por lo que (S ⊥ )⊥ ⊆ S y vale la igualdad. 
Corolario 3.2.8. Sea H un EH. Dado un subespacio M ⊆ H se tiene que
M es denso en H ⇐⇒ M⊥ = {0} (3.9)
En particular, si S v H, entonces S ⊥ = {0} ⇐⇒ S = H.
Demostración. El Cor. 3.2.7 dice que M = (M⊥ )⊥ . De ahı́ sale de una la flecha ⇐= , porque
3.2.2
{0}⊥ = H. La otra sale porque M⊥ = M ⊥ mientras que H⊥ = {0}. 
Observación 3.2.9. Los proyectores de la Prop. 3.2.5 se llaman proyectores ortogonales.
Hay uno para cada S v H. Son un caso particular de los proyectores PS/T ∈ P(H) estudiados
en la Ec. (2.26) y la Prop. 2.7.2, el caso asociado a las descomposiciones de un Hilbert H en
suma directa de subespacios cerrados ortogonales entre sı́: PS = PS/S ⊥ .
Recoremos aquı́ algunas propiedades vistas en la Obs. 2.7.1: Todo P ∈ P(H) (idempotente
o proyector oblicuo, y además acotado) era uno de los PS/T de la Ec. (2.26), relativo a
H = R(P ) ⊕ ker P . Es decir que que P = PR(P )/ ker P . Por otro lado, salvo el caso P = 0,
todos los P ∈ P(H) cumplen que kP k ≥ 1, porque actúan como la identidad en su rango.
Lo llamativo es que, si llamamos S = R(P ), se tiene que
kP k = 1 ⇐⇒ ker P = S ⊥ ⇐⇒ P = PS . (3.10)
En efecto, las implicaciones ⇐= ya las probamos en la Prop. 3.2.5. La otra sale ası́: Llamemos
Q = I − P , y M = R(Q) = ker P . Si kP k = 1, entonces para cada x ∈ H y cada y ∈ M,
como sabemos que Q y = y, tenemos que
kx − Q xk = kx − y + y − Q xk = k(x − y) − Q(x − y)k = kP (x − y)k ≤ kx − yk .

88
Esto dice que la distancia de cada x ∈ H al subespacio cerrado M se alcanza en su Q x. En
resumen, podemos asegurar que este Q = PM , el de la Prop. 3.2.5. Luego S = ker Q = M⊥ .
Por el Cor. 3.2.7 llegamos a que S ⊥ = (M⊥ )⊥ = M = ker P . Finalmente, en la misma
Prop. 3.2.5 vimos que PS es el proyector asociado a la descomposición H = S ⊕ S ⊥ , al igual
que P . Luego son el mismo proyector. De paso probamos esto:

Para todo S v H vale que P S ⊥ = I − PS . 4

3.3 Teorema de representación de Riesz.


Ahora viene el dual de un Hilbert. En todos los ejemplos que vimos (aquellos en que el
p = 2 = q), sale que su dual es él mismo. Incluso la notación h· , ·i es sugestiva, porque se
usa tanto para dualidades entre Banach’s como para PI’es en Hilbert’s. Sin embargo hay
un problemita, el PI es antilineal en la segunda coordenada, mientras que las bilineales son
lineales en ambas. Por eso lo que obtendremos en una “anti-isometrı́a” de H sobre H∗ .
En la práctica esa incosistencia no es significativa, porque al dual de los Hilberts ni se lo
usa. Se usan los mismos vectores de H (a la derecha del PI) y a otra cosa. Veamos:
Sea H un EH. Dado un y ∈ H definamos ϕy ∈ H∗ por la fórmula

ϕy (x) = hx , yi , para cada x∈H. (3.11)

Observar que cada ϕy es lineal bien, porque los λ ∈ K salen indemnes si están a la izquierda.
Además Cauchy-Schwarz 3.5 asegura que |ϕy (x)| = | hx , yi | ≤ kyk kxk para todo x ∈ H,
por lo que ϕy ∈ H∗ con kϕy k ≤ kyk. Sin embargo la flecha y 7→ ϕy es anti-lineal porque, si
bien respeta sumas, cumple que ϕλ y = h · , λ yi = λ h · , yi = λ ϕy para los λ ∈ K.
Teorema 3.3.1 (Riesz). Sea H un EH. La aplicación H 3 y 7→ ϕy ∈ H∗ definida en
(3.11) produce un anti-isomorfismo isométrico de H sobre H∗ . En otras palabras, para toda
ϕ ∈ H∗ existe un único y ∈ H tal que ϕ = h · , yi, que además cumple kϕk = kyk.
Demostración. Ya vimos que las ϕy ∈ H∗ con kϕy k ≤ kyk. Fijemos ahora un y ∈ H \ {0}.
y
Consideremos el vector x = kyk ∈ BH . Él realiza la norma de ϕy :

hy , yi
kϕy k ≥ |ϕy (x)| = ϕy (x) = = kyk ≥ kϕy k =⇒ kϕy k = kyk .
kyk

Con esto probamos que la representación y 7→ ϕy es isométrica. Veamos ahora que es sobre:
Sea ϕ ∈ H∗ \ {0}, y llamemos S = ker ϕ. Como S = 6 H, el Cor. 3.2.8 asegura que S ⊥ 6= {0},
por lo que existe un z ∈ S con kzk = 1. Sea y = ϕ(z) z ∈ S ⊥ . Luego

S ⊆ ker ϕy mientras que ϕy (z) = hz , ϕ(z) zi = ϕ(z) kzk2 = ϕ(z) .

Pero sabemos que S es un hiperplano, por lo que que H = S ⊕ K · z . Como ϕ y ϕy son


ambas lineales y coinciden en los dos sumandos, queda que ϕ = ϕy . 

89
Observación 3.3.2. Tampoco era antojadiza la notación S ⊥ , que se usa tanto para anu-
ladores en Banach’s como para ortogonales en Hilbert’s. El tema es que, vı́a la identificación
de H∗ con H del Teo. 3.3.1, el anulador de un S v H es lo mismo que su ortogonal. 4
Corolario 3.3.3. Sea H un EH. Luego, para todo x ∈ H y todo T ∈ L(H) se tiene que

kxk = sup |hx , yi| y kT k = sup |hT x , yi| . (3.12)


y∈BH x , y ∈BH

Demostración. El Teor. de Riesz 3.3.1 nos asegura que la bola del dual BH∗ coincide con el
conjunto {ϕy : y ∈ BH }, donde las ϕy son las de la Ec. (3.11). Luego basta que recordemos
aquella fórmula (2.7) que calculaba normas vı́a el dual. La segunda fórmula sale porque
moviendo los y ∈ BH se van calculando las kT xk para los x ∈ BH . 

P
3.4 i∈I
Sea H un EPH. Si tenemos un SON finito B = {x1 , x2 , . . . , xn } ⊆ H y consideramos el
subespacio S = span {x1 , . . . , xn }, hay una fórmula explı́cita para PS :
X
PS x = hx , xk i xk para todo x ∈ H . (3.13)
k∈ In
P
Para verlo, llamemos y = hx , xj i xj ∈ S . Usando que B es un SON sale directo que
j∈ In

D P E P
hy , xk i = hx , xj i xj , xk = hx , xj i hxj , xk i = hx , xk i para cada k ∈ In .
j∈ In j∈ In

Por linealidad sale que hy , si = hx , si para todo s ∈ S. Recordando ahora el Cor. 3.2.6,
esto determina que y = PS x y que (3.13) está probada. Por lo tanto, si
X
{x1 , . . . , xn } ⊆ H es un SON =⇒ | hx , xk i |2 ≤ kxk2 para todo x ∈ H . (3.14)
k∈ In

Esto se deduce de aplicarle Pitágoras al PS x que nos da (3.13), y de que kPS k ≤ 1.


Las cuentas de arriba se generalizan fácil a sistemas numerables usando la Ec. (3.14) que
asegurarı́a que si {xk : k ∈ N} es un SON adentro de un Hilbert H, entonces la sucesión
hx , xk i k∈N ∈ `2 (N) para todo x ∈ H. Pero como nos interesan SON’s de cualquier
cardinal, hay que desarrollar un poquito el concepto de series no numerables, y en particular
estudiar el espacio `2 (I) para cualquier conjunto I. Empecemos.
3.4.1 (Series desordenadas). Sea I un conjunto y tomemos una familia a = (ai )i∈ I ∈ RI+ .
Recordemos que PF (I) denota las partes finitas de I. Diremos que a es sumable si la serie
X def
X
ai = sup ai < ∞ .
i∈ I F∈PF (I) i∈ F

90
En el caso en que I es numerable, esto es la definición usual de serie sumable (de términos
no negativos), a la que no le importa el orden en que se sumen las cosas. En el caso que I
def
no es numerable, se ve fácil que el sop(a) = {i ∈ I : ai 6= 0} sı́ debe cumplir que es a lo
sumo numerable (porque cada conjunto {i ∈ I : ai ≥ n1 } debe ser finito).
Sumemos ahora en un normado E. Tomemos P una x = (xi )i∈ I ∈ E I y consideremos la red
de sumas finitas (xF )F∈PF (I) , donde cada xF = xi ∈ E. Es una red porque el orden en los
i∈ F
ı́ndices PF (I) dado por la inclusión es reductivo (ver A.6). Ahora decimos que
X def
la serie de x es convergente si existe xi = lı́m xF en E y con su norma .
F∈PF (I)
i∈ I

Observar que esta definición es coherente con la de términos positivos, porque


P P P
a = (ai )i∈ I ∈ RI+ =⇒ ai = sup ai = lı́m ai .
i∈ I F∈PF (I) i∈ F F∈PF (I) i∈ F

Como pasaba con las series comunes, cuando E es un Banach vale que
X X
si x = (xi )i∈ I ∈ E I y kxi k < ∞ =⇒ xi es convergente . (3.15)
i∈ I i∈ I

La prueba es similar a la de la Prop. 1.1.12: P i ∈ I, llamemos ai = kxi k. Dado un


Para cadaP
ε > 0, se encuentra un F0 ∈ PF (I) tal que i∈ I ai − i∈ F0 ai < ε. Luego se ve que para
toda parte finita G ∈ PF (I) tal que G ∩ F0 = ∅ debe verificarse que
P P P P
kxG k = ± xi ≤ ai ≤ ai − ai < ε . (3.16)
i∈ G i∈ G i∈ I i∈ F0

Con esto sale bien fácil que la red (xF )F∈PF (I) es de Cauchy en E, por lo que la serie de x
debe ser convergente.
En el caso numerable, no es lo mismo ser convergente en un orden prefijado para I (que
transforma x en una sucesión) que serlo en el sentido de arriba, porque a la definición que
dimos no le interesa ningún orden para I (ver el Ejer. 3 de abajo). Es un hecho conocido,
aunque no lo probaremos, que la x es convergente ⇐⇒ la serie de sus normas es finita. La
idea es pensar la medida de contar en la σ-álgebra P(I) del conjunto I. Luego las funciones
x “sumables” son lo mismo que las “integrables”, y deben serlo en módulo. Finalizamos esta
presentación con una “serie” de ejercicos fáciles pero necesarios: 4
Ejercicio 3.4.2. Sea E un EN y asumamos P que las series
P de las familias x = (xi )i∈ I and
y = (yi )i∈ I ∈ E I son ambas convergentes: xi = x and yi = y. Luego vale que
i∈I i∈I
P
1. La serie xi + yi es convergente, con suma x + y.
i∈I
P
2. Para cualquier λ ∈ K, queda convergente la serie λ · xi = λ · x.
i∈I

91
P
3. Si σ : I → I es biyectiva, la serie i∈I xσ(i) también converge a x.
4. Si J ⊆ I y E era un Banach, entonces valen dos cosas:
P
(a) La subserie xi también converge.
i∈J
P P
(b) Lo mismo pasa con la otra mitad, y se tiene que x = xi + xi .
i∈J i∈I\J

Se pide que E sea Banach porque lo único que se puede probar es que las redes involu-
cradas son de Cauchy. Contraejemplificar si E no es EB (sale con sucesiones).
P  P
5. Si F es otro EN y T ∈ L(E, F ), entonces T xi = T xi .
i∈I i∈I
P
6. Si E era un EH y z ∈ H, entonces la serie hxi , zi converge hacia hx , zi.
i∈I
P
7. Si pasara que E = C, también convergen los conjugados: xi = x. 4
i∈I

Ejemplo 3.4.3. Sea I un conjunto. Entonces el K-EV


n X o
`2 (I) = x = (xi )i∈ I ∈ KI : |xi |2 < ∞ ,
i∈ I

dotado del PI dado por una serie que ahora veremos que converge:
X
xi yi , para x = (xi )i∈ I , y = (yi )i∈ I ∈ `2 (I) ,

x, y =
i∈I

1/2
|xi |2
P
resulta ser un espacio de Hilbert, al que le queda la norma kxk2 = .
i∈I

Verifiquemos todo lo que hemos dicho: Si x ∈ `2 (I), es claro que lo que definimos como su
norma kxk2 < ∞. Notemos por xF a la truncación xF = (xi )i∈ F ∈ K|F| , y lo mismo para y,
para cada F ∈ PF (I). Por Cauchy-Schwarz en los Kn vale que
X
|xi | |yi | ≤ kxF k2 kyF k2 ≤ kxk2 kyk2 .
i∈ F

Esto prueba que la serie que define al hx , yi es absolutamente convergente y por ello converge
a un número de K, para todo par x , y ∈ `2 (I). De paso, esto sirve para probar que `2 (I)
es un K-EV (cada |xi + yi |2 ≤ |xi |2 + |yi |2 + 2|xi | |yi | ). Por el Ejer. 3.4.2, sabiendo que las
series que definen al candidato a PI siempre convergen, sale que es lo que tiene que ser:
sesquilineal, simétrico y positivo. Con esto ya sabemos que `2 (I) es un EPH, con el PI y la
norma definidos arriba. La completitud sale ası́:
Dada una {x(n) }n∈N de Cauchy en `2 (I), es fácil ver que podemos definir un candidato
(n)
x = (xi )i∈ I dado por xi = lı́m xi ∈K, para cada i∈I.
n→∞

92
(n)
Por si no quedó claro, cada término de la sucesión de Cauchy es un x(n) = (xi )i∈I ∈ `2 (I) .
Observar que, como la norma 2 acota el tamaño de las entradas, podemos usar que al fijar
(n)
cada i ∈ I, la sucesión numérica {xi }n∈N es de Cauchy en K y tomar su lı́mite.
Dado ε > 0, sea n0 ∈ N tal que kx(n) − x(m) k2 < ε si n, m ≥ n0 . Luego, para cada cacho
finito F ∈ PF (I) y cada n ≥ n0 fijos, podemos ver que
(n) (m) (n)
|xi − xi |2 = lı́m − xi |2 ≤ sup kx(n) − x(m) k22 ≤ ε2 .
P P
|xi
i∈ F m→∞ i∈ F m≥n0

Tomando supremo en PF (I) queda que kx−x(n) k2 ≤ ε, por lo que x ∈ `2 (I) y la convergencia
es en esa norma. Hemos llegado a que `2 (I) es un Hilbert de ley. 4
Ejercicio 3.4.4.
Q Si en el ejemplo anterior las familias x = (xi )i∈ I viven en el producto
cartesiano P = Hi de sendos Hilbert’s (Hi , h· , ·ii ), podemos definir una especie de `2 :
i∈I
M X
kxi k2i < ∞

Hi = x∈P: ,
i∈I i∈I
L
con el PI y la norma definidos por: Dados x = (xi )i∈ I , y = (yi )i∈ I ∈ Hi , se hace
i∈I

X X 1/2
hx , y = hxi , yi ii y kxk = kxi k2i .
i∈I i∈I
L P
Con éstos atributos Hi es un EH. Una forma de probarlo es definir ese PI en Hi (las
i∈I i∈I
familias con solporte finito), y luego completar. La otra es hacer la misma cuenta de arriba,
pero adaptada a los objetos
L de este caso. El ejercicio es hacer ambas cosas. La idea es que
el viejo espacio `2 (I) = K es un caso particular.
i∈I
L
Los nombres son: Hi es el producto Hilbertiano de los Hi , y si uno repite los espacios
i∈I
se obtienen tres notaciones usuales
M L
H = H I = `2 (I) ⊗ H = `2 (I , H) ,
i∈I

que se llama potencia Hilbertiana


L de H. Observar que cada uno de los Hj se puede incrustrar
adentro del porducto Hi poniendo ceros en las otras entradas. Eso queda isométrico y
i∈I L L L
se hace la identificación usual Hj v Hi . También pensamos que Hi v Hi siempre
i∈I i∈J i∈I
que J ⊆ I. Observar que esta identificación no se podı́a hacer en productos de espacios no
vectoriales porque no hay “ceros” para elegir en las coordenadas que faltan. 4

93
3.5 Bases ortonormales.
Antes de usar todo el armamento de la sección anterior para ver qué lo que hacen las BON’s
de un Hilbert, veamos que siempre hay muchas de ellas.
Proposición 3.5.1. Sea H un EH. Si B1 = {vi : i ∈ J} ⊆ H es un SON, siempre existe otro
B2 = {vj : j ∈ L} ⊆ H que lo completa a una BON de H. Es decir que

B2 es un SON , y B = B1 ∪ B2 = {vi : i ∈ J ∪ L} es una BON de H .

Demostración. Esto sale Zorneando. Es bien fácil ver que el conjunto de extensiones

Z = C ⊆ H : C es un SON y B1 ⊆ C ,

ordenado por inclusión, cumple lo de las cadenas con supremos (la unión). Pero si B es un
maximal de Z tiene que ser una BON de H. En efecto, si no lo fuera, uno podrı́a tomar el
subespacio S = span {B} 6= H y sabrı́a, por la Prop. 3.2.5, que S ⊥ 6= {0}. Luego le podrı́a
agregar a B un vector unitario de S ⊥ y quedarı́a un SON más grande. Ası́ que B serı́a minga
maximal. Teniendo ahora la BON B tal que B1 ⊆ B, basta tomar B2 = B \ B1 . 
Veamos ahora cómo se generalizan las Ec’s. (3.13) y (3.14): Dado un S v H caracterizare-
mos completamente al proyector PS , siempre y cuando tengamos una BON para S: Antes
hagamos un lema donde se testea que todas las series que se necesiten van a converger bien:
Lema 3.5.2. Sea H un EH y sea B = {vi : i ∈ I} ⊆ H un SON. Denotemos como
S = span {B} v H. Enotnces se tienen las siguientes propiedades:

Para toda familia de coeficientes a = (ai )i∈ I ∈ `2 (I), podemos asegurar que la serie
1. P
i∈I ai vi converge (con la norma de H) a un za ∈ S que además cumple

kza k = kak`2 (I) y hza , vj i = aj para todo j∈I. (3.17)



2. Para cada x ∈ H, la familia de coeficientes hx , vi i i∈I
∈ `2 (I).
2
2 el a2 = (ai )i∈ I ∈ ` (I) y un ε > 0, podemos fijar un F ∈ PF (I) tal que
Proof. Dado
P
ai < ε . Si me dan ahora G, H ∈ PF (I) tales que F ⊆ G ∩ H, entonces usando
i∈I\F
Pitágoras y razonando como en la Ec. (3.16) se tiene que
2 2 P 2
ai vi k2 = ai < ε2 .
P P P P
k ai vi − ai + ai ≤
i∈G i∈H i∈G\(H∩G) i∈H\(H∩G) i∈I\F

Por lo tanto sabemos


P que las sumas finitas (que viven en S) son de Cauchy y podemos tomar
su lı́mite za = i∈I ai vi ∈ S. Para ver la igualdad de las las normas, basta hacer
P 2 P 2 P 2 P 2
2
kza k = ai vi = lı́m ai vi = lı́m ai = ai = kak22 .

i∈I F∈PF (I) i∈F F∈PF (I) i∈F i∈I

94
Si fijamos un j ∈ I y llamamos Bj = {vi : i 6= j}, el hecho de que B sea SON asegura que

vj ∈ Bj⊥ = span {Bj }⊥ =⇒ za , vj = aj vj , vj +





P
ai vi , vj = aj ,
i6=j
P
porque i6=j ai vi ∈ span {Bj } al ser el lı́mite de las sumas finitas. Listo el item 1.

P dado un F ∈ PF (I) llamemos SF = span {vi : i ∈ F}. En la Ec. (3.13) vimos


Por otro lado,
que PSF = h · , vi i vi , de donde deducı́amos (por Pitágoras y la Prop. 3.2.5) que
i∈ F
X
| hx , vi i | 2 = kPSF xk2 ≤ kxk2 para todo x∈H y todo F ∈ PF (I) .
i∈ F

Tomando supremo sobre los F ∈ PF (I) sale que hx , vi i i∈I
∈ `2 (I) para todo x ∈ H. 
Proposición 3.5.3. Sea H un EH y sea B = {vi : i ∈ I} ⊆ H un SON. Denotemos como
S = span {vi : i ∈ I}. Enotnces se tienen las siguientes propiedades:
1. E el proyectado PS x es una serie con esos coeficientes:
X
PS x = hx , vi i vi , para todo x∈H, (3.18)
i∈I

donde la convergencia de la serie es con la norma de H.


2. Esos mismos coeficientes producen la “norma 2” de PS x, es decir que:
hx , vi i 2 ≤ kxk2 , para todo x ∈ H .
X
kPS xk2 = (3.19)
i∈I

Demostración. Para ver la igualdad (3.18), fijemos x ∈ H. Combinando los items 1 y 2 del
Lema 3.5.2 podemos deducir que la serie
def
X (3.17)
z = hx , vi i vi ∈ S y que hz , vi i = hx , vi i para todo i ∈ I .
i∈I

En otras palabras, tenemos que z ∈ S y que P x − z ∈ B ⊥ = span {B}⊥ = S ⊥ . Luego el


Cor. 3.2.6 nos permite asegurar que PS x = z = i∈I hx , vi i vi . La fórmula (3.19) se deduce
de la Ec. (3.18) y de la igualdad de las normas en la Ec. (3.17). 
Observación 3.5.4. Sean H y K dos EH’s y Φ ∈ L(H , K) un isomorfismo isométrico
sobre. Entonces φ también preserva el producto interno, o sea que

hΦ x , Φ yi = hx , yi , para todo par x, y ∈ H . (3.20)

Esto sale usando que Φ preserva normas, o sea que hΦ x , Φ xiK = hx , xiH para todo x ∈ H.
Para generalizarlo a (3.20) basta usar polarización (3.2). El hecho de que Φ preserve el PI
tiene numerosas consecuencias, como por ejemplo que Φ(S ⊥ ) = Φ(S)⊥ para todo S v H.
Pero la mejor es que Φ manda SON’s de H en SON’s de K. Mejor aún:

95
si B es una BON de H , entonces Φ(B) es otra BON de K .
En efecto, que B sea SON significa que hx, yi = δxy para todo par x, y ∈ B. Y por la
iyectividad de Φ + la Ec. (3.20), eso lo siguen cumpliendo los elementos de Φ(B). Pero
siendo SON, el hecho de que B sea BON equivale a que span {B}sea denso. Y al ser Φ un
hómeo lineal, nos queda que también span {Φ(B) } = Φ span {B} es denso, ahora en K. 4

Ahora sı́ un re-teorema donde decimos todo lo que pasa con una BON:
Teorema 3.5.5. Sea H un EH y sea B = {vi : i ∈ I} ⊆ H una BON de H. Luego:

1. Cada x ∈ H se representa unı́vocamente como una serie con esos coeficientes:


X
x = hx , vi i vi , para todo x ∈ H , (3.21)
i∈I

donde la convergencia de la serie es con la norma de H.

2. Esos mismos coeficientes producen la “norma 2” del los vectores:

hx , vi i 2 , para todo x ∈ H .
X
kxk2 = (3.22)
i∈I

3. También el producto interno de H se representa como


X
hx , yi = hx , vi i hy , vi i , para todo par x, y ∈ H . (3.23)
i∈I

4. En resumidas cuentas, la flecha Φ : H → `2 (I) dada por



Φ x = hx , vi i i∈I para cada x ∈ H

es un iso isométrico sobre, que además respeta los productos internos, o sea que

hΦ x , Φ yi`2 (I) = hx , yiH , para todo par x, y ∈ H . (3.24)

El operador Φ−1 ∈ L(`2 (I) , H) está dado por la fórmula

Φ−1 a = ai vi ∈ H , para cada a = (ai )i∈ I ∈ `2 (I) .


P
i∈I

Demostración. Los primeros tres items son una versión en detalle del item 4. Empecemos
por él: Como B es una BON, es en particular un SON y podemos aplicar la Prop. 3.5.3,
pero asumiendo que S = span {B} es ahora todo H. El operador Φ está bien definido por el
Lema 3.5.2 y es acotado por la Ec. (3.19). Además, aplicando la Ec. (3.17), podemos definir
X
Ψ ∈ L(`2 (I), H) por Ψ(a) = za = ai vi ∈ H para a = (ai )i∈ I ∈ `2 (I) ,
i∈I

96
que queda isométrica. Más aún, la Ec. (3.18) dice que Ψ ◦ Φ = PH = IH , mientras que los
PI’es de la Ec. (3.17) muestran que Φ ◦ Ψ = I`2 (I) . Esto prueba que Φ es un isomorfismo
isométrico con la inversa anunciada. Por lo tanto la igualdad (3.24) sale por la Ec. (3.20).
Ahora podemos traducir: La Ec. (3.21) significa que Ψ ◦ Φ = IH , la Ec. (3.22) que Φ es
isométrica y (3.23) es lo mismo que (3.24). 
Corolario 3.5.6. Sean H y K dos Hilbert’s.
1. Dos BON’s del mismo H tienen que tener el mismo cardinal.
2. Dadas BH una BON de H y BK una BON de K, vale que
H∼= K (isométricamente isomorfos) ⇐⇒ |BH | = |BK | . (3.25)

En resumen estamos afirmando que, módulo isomorfismos isométricos,


el cardinal de una BON es un invariante completo para los EH’s .
Demostración. Sean B1 = {vi : i ∈ I} y B2 = {wj : j ∈ J} dos BON’s para H. Veamos
que |J| = |I|. Si alguna de las dos es finita, la cosa es solo álgebra lineal, porque en tal caso
ambas son bases en el sentido algebráico. Si son infinitos, consideremos los conjuntos
Si = {j ∈ J : hvi , wj i =
6 0} para cada i ∈ I .
Como cada kvi k2 = j∈Si | hvi , wj i|2 < ∞ , podemos deducir que todos los Si son nume-
P
rables. Pero como ningún wj puede ser ortogonal a todos los vi , llegamos a que
[
J= Si =⇒ |J| ≤ ℵ0 · |I| = |I| .
i∈I

La simetrı́a es evidente, por lo que de ahı́ sale que |J| = |I| como afirmábamos.
El ⇐= de (3.25) es consecuencia del Teo. 3.5.5 pasando por un `2 (I), donde I es un conjunto
Φ
del cardinal de las dos bases. Si H ∼
= K, entonces |BH | = |Φ(BH )| = |BK |. La última igualdad
se debe a que Φ(BH ) es otra BON de K por la Obs. 3.5.4. 
Definición 3.5.7. Sea H un EH. Diremos que la dimensión Hilbertiana de H es el número
cardinal dim H = |B|, donde B es cualquier BON de H. 4
Observación 3.5.8. El corolario anterior ahora se lee ası́: H ∼= K ⇐⇒ dim H = dim K.
Por otra parte tenemos modelos standard para todos los Hilberts: Si H es un EH e I es un
conjunto tal que |I| = dim H, entonces H ∼
= `2 (I) vı́a tomas coordenadas (o coeficientes) en
una BON fija de H. Eso es lo que dice el Teo. 3.5.5. 4
Corolario 3.5.9. Si tenemos dos espacios de Hilbert H y K que son infinitodimensionales
pero separables, entonces ellos son isométricamente isomorfos: H ∼
=K∼
= `2 (N).
Demostración. Basta ver que si H es separable entonces dim H ≤ ℵ0 . La prueba sale usan-
do la misma BON que se usa para calcular la dim H. En efecto, dados u, v ∈ B, entonces
podemos calcular que ku − vk2 = 2(1 − δuv ) . Ası́ que no valen BON’s no numerables si uno
asume separabilidad. 

97
3.6 Stone-Weierstrass
Sea (X, τ ) un ET compacto Hausdorff. Estudiaremos el álgebra C(X) con su k · k∞ . Más
precisamente, buscamos condiciones sobre una subálgebra A ⊆ C(X) para que sea uni-
formemente densa en C(X). Todo empezó con el Teor. de Weierstrass de 1895 que
mostraba que los polinomios lo son en CR [a, b]. Con las décadas aparecieron numerosos re-
sultados semejantes, hasta que Stone probó en 1948 la versión más conspicua, que incluye
a las que habı́a hasta entonces, y quedó ahı́. Eso daremos ahora. Las cuentas se harán en
CR (X), y al final veremos qué hace falta para que caminen también en el caso complejo.
Sirve el caso real, porque se usan los siguientes conceptos: Dadas f, g ∈ CR (X), definimos

f ∨ g(x) = máx{f (x) , g(x)} y f ∧ g(x) = mı́n{f (x) , g(x)} , para cada x∈X .

Es claro que tanto el máximo f ∨ g como el mı́nimo f ∧ g siguen en CR (X) (sale fácil con
redes). Diremos que un A ⊆ CR (X) es cerrado por minimax si cumple que

f ∨g y f ∧g ∈A siempre que f y g ∈A.

Lema 3.6.1. Sea (X, τ ) un ET compacto Hausdorff. Sea A ⊆ CR (X) un subespacio cerrado
por minimax. Si f ∈ CR (X) cumple que para todo par x, y ∈ X existe una
(fn )n∈ N en A tal que fn (x) −−−→ f (x) y fn (y) −−−→ f (y) ,
n→∞ n→∞
k·k∞
entonces se tiene que f ∈ A , o sea kf − gn k∞ −−−→ 0 para alguna (gn )n∈ N de A.
n→∞

Demostración. Fijemos un ε > 0. Para cada par x, y ∈ X existe una fxy ∈ A tal que el
número máx{|f (x) − fxy (x)| , |f (y) − fxy (y)|} < ε. Sean

Uxy = {z ∈ X : f (z) − fxy (z) < ε} y Vxy = {z ∈ X : fxy (z) − f (z) < ε} .

Observar que ambos son abiertos, y que x, y ∈ Uxy ∩ Vxy . Fijando S x y moviendo y, los Uxy
tales que X = k∈In Uxyk . Como A era
cubren a X. Por la compacidad, existen y1 , . . . , yn W
cerrada por minimax, tenemos que el máximo fx = k∈In fxyk ∈ A. Esta fx cumple que

f (z) − fx (z) < ε =⇒ f (z) < fx (z) + ε para todo z∈X .


T
Pero también vale que fx (z) < f (z) + ε, al menos para los z ∈ Wx = k∈In VxykS. Ahora se
cubre a X con estos abiertos W Vx , y se encuentran x1 , . . . , xm tales que X = k∈Im Wxk .
Podemos armar ahora la fε = k∈Im fxk ∈ A y comprobar que

fε (z) − ε < f (z) < fε (z) + ε para todo z∈X . 

Lema 3.6.2. Sea (X, τ ) un ET compacto Hausdorff. Si A v CR (X) es una subálgebra


cerrada (con la k · k∞ ), entonces A es cerrada por minimax.

98
Demostración. Observar que se pueden obtener los máximos y mı́nimos con este curro:
f + g + |f − g| f + g − |f − g|
f ∨g = y f ∧g = .
2 2
Luego, para ver que A es cerrada por minimax, alcanzarı́a mostrar que es cerrada por “tomar
módulos”. Pero si f ∈ A, tenemos que |f | = (f 2 )1/2 . Como A era subálgebra, f 2 ∈ A. Ası́
que lo que hay que probar es que si 0 ≤ g ∈ A, entonces g 1/2 ∈ A. Esto se hace extrapolando
un curro de Análisis I. Veamos.
Dado un ε > 0, tomemos la función h : [0, 1] → R dada por h(t) = (t + ε2 )1/2 , t ∈ [0, 1]. Esta
h tiene un desarrollo en serie de potencias que le converge uniformemente en el intervalo
[0, 1]. Para ello basta desarrollar en el punto medio t = 1/2. Esto da un caso particular de
Weierstrass, o sea que existe un polinomio P ∈ R[x] tal que kh − P k∞ < ε (en el [0, 1]). En
particular vale que |P (0)| < 2 ε. Luego Q = P − P (0) ∈ R[x] también aproxima. Pero tiene
la ventaja de que, al no tener término constante, cumple que Q(g) ∈ A para toda g ∈ A.
Fijemos ahora una 0 ≤ g ∈ A con kgk∞ ≤ 1, por lo que g(X) ⊆ [0, 1]. Entonces,

kQ(g) − g 1/2 k∞ = sup P (g(x) ) − P (0) − g(x)1/2 ≤ sup P (t) − P (0) − t1/2
x∈X x∈[0,1]


≤ 2ε + sup [P (t) − h(t)] − [h(t) − t1/2 ]
x∈[0,1]


≤ 3ε + sup (t + ε2 )1/2 − t1/2 ≤ 4ε .
x∈[0,1]

Achicando con constantes y usando que A es k · k∞ -cerrada, sale que A es cerrada por tomar
raı́ces cuadaras. Por todo lo anterior, también para minimax. 
Teorema 3.6.3 (Stone-Weierstrass). Sea (X, τ ) un ET compacto Hausdorff. Si tenemos
una subálgebra A ⊆ C(X) que cumple las siguientes condiciones:
1. Es cerrada por tomar conjugación (f ∈ A =⇒ f ∈ A).

2. Las funciones constantes viven en A.

3. Separa puntos de X (si x 6= y ambos en X, existe f ∈ A tal que f (x) 6= f (y) ).


Entonces A es k · k∞ -densa en C(X).
Demostración. Llamemos AR = A ∩ CR (X). Antes que nada, si f ∈ A, tanto su parte real
como su parte imaginaria se quedan en AR , por la condición 1.
Su clausura B = AR k·k∞ es ahora una subálgebra cerrada de CR (X), por lo que se aplica
el Lema 3.6.2 y B es cerrada por minimax. Pero B también separa puntos de X (las partes
reales o imaginarias de las de A ya lo hacen).
Para ver que A es densa nos alcanza mostrar que B = CR (X). Y para mostrar esto, basta
ver que toda f ∈ CR (X) cumple (respecto de B) las hipótesis del Lema 3.6.1, porque B ya

99
es cerrada y tomar lı́mites no le agrega nada. Fijemos entonces una f ∈ CR (X) y tomemos
x, y en X tales que f (x) 6= f (y) (sinó “toco” a f en x e y con la función f (x) 1 ∈ B). Como
B separa puntos, existe una g ∈ B tal que g(x) 6= g(y). Cambiando g por λ g ∈ B (λ ∈ R),
podemos asumir que g(x) − g(y) = f (x) − f (y). Luego

h = g + f (x) − g(x) 1 ∈ B cumple que h(x) = f (x) y h(y) = f (y) .

En resumen, hay funciones de B que tocan (más que aproximan) a f en cualquier par de
puntos. Por el Lema 3.6.1 llegamos a que CR (X) = B por lo que A es densa en C(X). 
Corolario 3.6.4. Sea (X, τ ) un ET que es LKH. Sea A ⊆ C0 (X) una subálgebra que cumple
las siguientes condiciones:

1. Es cerrada por tomar conjugación (f ∈ A =⇒ f ∈ A).

2. Separa puntos de X (si x 6= y ambos en X, existe f ∈ A tal que f (x) 6= f (y) ).

3. Para todo x ∈ X existe f ∈ A tal que f (x) 6= 0.

Entonces A es k · k∞ -densa en C0 (X).


Demostración. Metamos a X en su compactado X̃ = X ∪ {∞}. Metamos también el par
A ⊆ C0 (X) ,→ C(X̃), haciendo f (∞) = 0. Ahora consideremos el álgebra A1 = A ⊕ C1
pensada dentro de C(X̃). Para ver que A1 cumple las tres condiciones del Teo. 3.6.3, sólo
falta que separe al ∞ de los puntos de X. Eso se consigue con alguna f ∈ A porque todas
ellas cumplen que f (∞) = 0, pero tenemos la condición 3.
Por el Teor. de S-W 3.6.3, ya sabemos que A1 es densa en C(X̃). Ahora, si fijamos una
f ∈ C0 (X) ⊆ C(X̃) y un ε > 0, existe una h = g + λ 1 ∈ A1 tal que kf − hk∞ < ε. Pero
|λ| = |h(∞)| = |f (∞) − h(∞)| < ε. Por lo tanto kf − gk∞ < 2 ε, con g ∈ A. 
Ejemplos 3.6.5. Si en el Teor. de SW 3.6.3 trabajamos con una A ⊆ CR (X), para que
sea densa en CR (X) alcanza que A cumpla las condiciones 2 y 3 (separa puntos y tiene
constantes). Esto sale haciendo de nuevo la cuenta, o fijándose que eso era lo que cumplı́a
la AR de allı́. Lo mismo vale para el Teo. 3.6.4 si A ⊆ C0 (X, R) para un X que es LKH.
Ya contamos que el teorema de Weierstrass decı́a que los polinomios de R[x] son uniforme-
mente densos en CR ([a, b]) para cualquier intervalo cerrado (idem con C[x] en C[a, b]) ). Esto
es porque 1 ∈ R[x] y x ∈ R[x], y con ellos alcanza.
Otro caso es el de las f ∈ C(R) que son 2π periódicas. Ellas se pueden identificar con
C(S 1 ) (enrrollándolas). Allı́ el denso posta son los polinomios en z y z (z ∈ C). Observar
que no hay productos mezclados porque z z ≡ 1 en S 1 . Es fácil ver que, volviendo a R,
quedan los llamados polinomios tigonométricos (en sen nx y cos nx). Es interesante observar
que, si bien la serie de Fourier de una f periódica continua no siempre aproxima bien a f
(uniformemente), sı́ hay siempre alguna sucesión de polis trigos que lo hace.
Veamos un ejemplo famoso en que no hay densidad porque falla la condición “cerrada por
conjugación”. Sea B = D = {z ∈ C : |z| ≤ 1}, el disco cerrado en C. Consideremos

100
A(D) ⊆ C(B) el álgebra de las f ∈ C(B) que son holomorfas en D. Es sabido (y fácil de
probar) que A(D) es cerrada para la k·k∞ , aunque separa puntos y tiene a las constantes. De
hecho, A(D) es la clausura del álgebra de polinomios C[z] que también cumple aquello, pero
no llega a ser densa en todo C(B). Lo que les falta es z. Por ello, como antes la subálgebra
que sirve para C(B) es C[z, z]. 4

3.7 Series de Fourier.


Sea B = {vi : i ∈ I} una BON de un Hilbert H y tomemos un elemento x ∈ H. Los
coeficientes hx , vi i que, según el Teo. 3.5.5, resultan ser las coordenadas de x en B en la serie
de (3.21), se suelen llamar coeficientes de Fourier de x relativos a B. Eso se debe a un
ejemplo seminal debido al tal Fourier que veremos en seguida.
El ejemplo más Hilbertiano de BON de un Hilbert es la base canónica EI = {ei : i ∈ I} del
espacio `2 (I), donde cada ei es la función caracterı́stica del conjunto unipersonal {i} ⊆ I. Lo
bueno de esa base, y por eso el mote de “canónica”, es que para cada x = (xi )i∈ I ∈ `2 (I),
sus coeficientes coinciden con sus coordenadas: hx , ei i = xi para cada i ∈ I.
Pero el ejemplo más famoso, que con mucho es anterior al invento de Hilbert de los espacios
que estamos mostrando, es la BON de Fourier de las funciones 2π-periódicas de R en R, que
podemos pensar como L2 ([0 , 2π]). Mejor aún, si llamamos T = S 1 = {z ∈ C : |z| = 1}, las
pensaremos como L2 (T), ya enrolladas. La medida que usaremos en T será la de Lebesgue
normalizada para que m(T) = 1 (o sea la medida de longitud usual, dividida por 2π).
La verdadera BON de Fourier en el cı́rculo son las funciones

en ∈ L2 (T) dadas por en (z) = z n para n∈Z y z∈T.

Si pensamos a la variable t ∈ [0 , 2π], de tal modo que z = eit , entnces

en (t) = eint = cos nt + i sen nt para n∈Z y t ∈ [0 , 2π] .

Por ello, la serie tradicional de Fourier se expresa en términos de las funciones armónicas
sen nt y cos nt. Para cada f ∈ L2 (T), sus coeficientes de Fourier están dados por
Z 2π
1
f (n) = hf , en i =
b f (eit ) e−int dt para cada n ∈ Z . (3.26)
2π 0

Reemplazando f por em , para otro m ∈ Z, y usando que las primitivas de ei(m−n)t valen lo
mismo en 0 que en 2π siempre que m 6= n, llegamos fácilmente a que F = {en : n ∈ Z} es
un SON dentro de L2 (T). Cuando veamos que F es una BON de de L2 (T), sabremos que
X X
f= fb (n) en y kf k2 = |fb (n)|2 para toda f ∈ L2 (T) . (3.27)
n∈Z n∈Z

Esto serı́a la Ec. (3.21) y la Ec. (3.22) en este caso, y se llaman igualdades de Bessel y
de Parseval. Si tomamos el subespacio P = span {F}, como z −1 = z para todo z ∈ T,

101
podemos notar de inmediato que resulta ser ni más ni menos que el conjunto de polinomios
P = {P (z , z) : P ∈ C[x, y]}. Más aún, por como z z ≡ 1 en T nos queda que
 n

k
P
P = f (z) = αk z : n ∈ N y αk ∈ C , −n ≤ k ≤ n .
k=−n

Esta es la famosa álgebra de polinomios trigonométricos. La prueba de su densidad en L2 (T)


pasa por usar Stone Weirstrass 3.6.3 en el ambiente intermedio C(T):
Proposición 3.7.1. La familia F = {en : n ∈ Z} definida arriba es una BON de L2 (T).
Demostración. Ya vimos que es un SON. Por ello solo necesitamos ver que span {F} = P
es denso en L2 (T). También vimos que P = {P (z , z) : P ∈ C[x, y]}.
Observar que esta P es una subálgebra de las continuas C(T). Además P contiene a las
constantes, es cerrada por conjugación, y separa puntos de T (para ello alcanza el elemento
e1 (z) = z de F ⊆ P). Como T es un compacto Hausdorff, estamos en las hipótesis del Teor.
de Stone-Weierstrass 3.6.3. Luego P es densa en C(T) con la k · k∞ y por ello también con
la k · k2 . Queda como ejercicio para el lector integrador culminar el asunto verificando que
las continuas de C(T) son k · k2 -densas en el espacio L2 (T). Recordar el Ejer. 1.9.34. 
Corolario 3.7.2 (Riemman-Lebesgue). Para cualquier f ∈ L2 (T), se cumple que sus coefi-
cientes de Fourier convergen a cero. En fórmulas esto se escribe:
Z 2π
1
fb (n) = f (eit ) e−int dt −−−−→ 0 .
2π 0 n→±∞

Demostración. Basta mirar la iguadad de Parseval que está en la Ec. (3.27). 


Observación 3.7.3. Hemos visto el Ejemplo 1.8.1 del shift y su adjunto en los espacios
`p (N). Ese shift se llama el unilateral. Si bajamos a p = 2, pero subimos a `2 (Z), tenemos
también dos shifts bilaterales (correr a la derecha o a la izquierda) que ahora son isomorfismos
isométricos, porque como las entradas no se terminan, uno las corre pero ni tacha nada ni
le quedan ceros sueltos. Pongámosle nombres U , V ∈ L(`2 (Z) ), dados por
U x = (xn−1 )n∈Z y V x = (xn+1 )n∈Z , para cada x = (xn )n∈Z ∈ `2 (Z) .
Si ahora pensamos en el iso-iso entre L2 (T) y `2 (Z) que nos brinda el Teo. 3.5.5 vı́a la base
F de Fourier, nos aparece que los shifts de arriba se transforman en hermosos operadores de
multiplicación, como los de 1.8.2. De hecho queda que U ∼ = Mz y V ∼ = Mz . En efecto,
Z 2π Z 2π
1 1
[
M z f (n) = eit f (eit ) e−int dt = f (eit ) e−i(n−1)t dt = fb (n − 1) ,
2π 0 2π 0
porque el Mz actuaba haciendo (Mz f ) w = wf (w) para f ∈ L2 (T) y w ∈ T. Por lo tanto
vemos que Mz corre los coeficientes de Fourier de las f de la misma manera que U lo hace
con las coordenadas de los x (que son sus coeficientes en la canónica).
Al tomar el isomorfismo Φ : L2 (T) → `2 (Z) de tomar coeficientes, queda que U ◦Φ = Φ◦Mz .
Es decir que U = Φ ◦ Mz ◦ Φ−1 . Por una cuenta similar (o porque son los inversos de los
anteriores), vemos que V = Φ ◦ Mz ◦ Φ−1 . 4

102
3.7.4. La transformación L2 (T) 3 f 7−→ fb ∈ `2 (Z) se llama la transformada de Fourier
(discreta). Es un hecho general que esta transformada es un isomorfismo isometrico. En
nuestro caso eso sale directamente por el Teo. 3.5.5. Se la puede definir también, siguiendo
la fórmula (3.26), para funciones de Lp (T), porque las en están en todos los Lq (T).
Uno de los problemas iniciáticos de lo que hoy se llama análisis armónico fue el estudio de
n
fb (k) ek a la f original, de acuerdo al Lp (T) en el que
P
cómo converge la serie de Fourier
k=−n
esté la f . En los años 60 se pudo probar que cuando p > 1 hay convergencia en c.t.p. (eso no
lo probamos nosotros ni para p = 2, aún ahı́ es un teoremazo del 67 de Carlesson). Mucho
antes Kolmogorov habı́a mostrado que no hay tal convergencia para todas las f ∈ L1 (T). 4

103
3.8 Ejercicios del Cap. 3 - Espacio de Hibert
Ejercicios aparecidos en el texto
3.8.1 (Fórmulas con un PI). Sea H , h· , ·i un K-EV con un semi PI asociado.

1. Para todo par x, y ∈ H y todo λ ∈ K se tiene que

0 ≤ kλ x + yk2 = hλ x + y , λ x + yi = |λ|2 kxk2 + 2 Re λ hx , yi + kyk2 .



(3.28)

Deducir que kλxk = |λ| kxk para todo x∈H.

2. Mostrar que la forma sesquilineal se puede recuperar de la cuadrática con la so called “identidad de
polarización”. Tiene dos versiones: Dados x, y ∈ H, si estamos con K = C,

3
X
ik kx + ik yk2 = kx + yk2 − kx − yk2 + i kx + iyk2 − kx − iyk2 ,
 
4 hx , yi = (3.29)
k=0

mientras que cuando K = R se tiene una versión más agradable:

4 hx , yi = kx + yk2 − kx − yk2 . (3.30)

3. Probar la famosı́sima igualdad del paralelogramo:

kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 para todo par x, y ∈ H . (3.31)

4. Sea n ∈ N y An = {−1 , 1}n , cuyos elementos llamaremos ε = (ε1 , . . . , εn ) ∈ An . Probar que

P 2
= 2n kxk k2
P P
εk xk


ε∈An k∈In k∈In

para toda n-unpla x1 , . . . , xn en H. Observar que para n = 2 queda (3.31) dos veces. 4

3.8.2. Sea H un EPH. Dado A ⊆ H denotábamos A⊥ = {y ∈ H : x ⊥ y para todo x ∈ A}. Probar que la
flecha A 7→ A⊥ cumple las siguientes propiedades: Para todo A ⊆ H, se cumple que

1. Su ortogonal A⊥ v H (es subespacio y es cerrado).

2. También vale que, si S = span {A}, entonces A⊥ = S ⊥ = S ⊥ . 4

3.8.3. Probar la Prop. 3.2.3 (multiPitágoras) para n > 2. 4


3.8.4. Sea H un EH. Probar que para todo x ∈ H y todo T ∈ L(H) se tiene que

kxk = sup |hx , yi| y kT k = sup |hT x , yi| . 4


y∈BH x , y ∈BH

3.8.5. A diferencia de las series comunes, probar que cuando E es un Banach,


X X
si x = (xi )i∈ I ∈ E I vale que kxi k < ∞ ⇐⇒ xi es convergente . 4
i∈ I i∈ I

3.8.6. Sea E Pun EN y asumamos


P que las series de las familias x = (xi )i∈ I , y = (yi )i∈ I ∈ E I son ambas
convergentes: xi = x and yi = y. Luego vale que
i∈I i∈I

104
P
1. La serie xi + yi es convergente, con suma x + y.
i∈I
P
2. Para cualquier λ ∈ K, queda convergente la serie λ · xi = λ · x.
i∈I
P
3. Si σ : I → I es biyectiva, la serie xσ(i) también converge a x.
i∈J

4. Si J ⊆ I y E era un Banach, entonces valen dos cosas:


P
(a) La subserie xi también converge.
i∈J
P P
(b) Lo mismo pasa con la otra mitad, y se tiene que x = xi + xi .
i∈J i∈I\J

P  P
5. Si F es otro EN y T ∈ L(E, F ), entonces T xi = T xi .
i∈I i∈I
P
6. Si E era un EH y z ∈ H, entonces la serie hxi , zi converge hacia hx , zi.
i∈I
P
7. Si pasara que E = K, también convergen los conjugados: xi = x. 4
i∈I
Q
3.8.7. Consideremos el producto cartesiano P = Hi de sendos Hilbert’s (Hi , h· , ·ii ), cuyos elementos son
i∈I
las familias x = (xi )i∈ I ∈ P. Definamos el espacio
M def
X
kxi k2i < ∞

Hi = x∈P: ,
i∈I i∈I

L
con el PI y la norma definidos por: Dados x = (xi )i∈ I , y = (yi )i∈ I ∈ Hi , se hace
i∈I

X X 1/2
hx , y = hxi , yi ii y kxk = kxi k2i .
i∈I i∈I

L P
Probar que, con éstos atributos, Hi es un EH. Una forma de probarlo es definir ese PI en Hi (las
i∈I i∈I
familias con solporte finito), y luego completar. La otra es hacer la misma cuenta del Ejem. 3.4.3, pero
adaptada a los objetos de este caso. El ejercicio es hacer ambas cosas. Probar admás que
L
1. Cada uno de los Hj se puede incrustrar adentro del porducto Hi poniendo ceros en las otras
i∈I
entradas.
L
2. Eso queda lineal e isométrico y se hace la identificación usual Hj v Hi .
i∈I
L L
3. También vale que Hi v Hi siempre que J ⊆ I.
i∈J i∈I

4. Observar que esta identificación no se podı́a hacer en productos de espacios no vectoriales porque no
hay “ceros” para elegir en las coordenadas que faltan. 4

3.8.8. Probar que las continuas de C(T) son k · k2 -densas en el espacio L2 (T).

105
Ejercicios nuevos
3.8.9. Sea B : H × K → C una forma sesquilineal (no necesariamente simétrica ni positiva), donde H y K
son dos C-EV’s cualesquiera. Probar que vale la fórmula de polarización:
3
X
4 B(x , y) = ik B(x + ik y , x + ik y) para todo par (x , y) ∈ H × K . (3.32)
k=0

La novedad sobre (3.29) es que no se le pide nada a B.


Obs: El tema es que al hacer las 4 cuentas, los términos ik B(x , ik y) = B(x , y), porque el ik sale conjugado,
mientras que los ik B(ik y , x) = (−1)k B(y , x), y por eso estos se cancelan. 4
3.8.10. Sea H un EH real (o sea que K = R). Probar que H × H es un espacio de Hilbert complejo cuando
su estructura lineal y producto interno son definidos del siguiente modo: Dados (x , y) , (u , v) ∈ H × H,

1. Suma: (x, y) + (u, v) = (x + u, y + v),

2. Escalares: Si α + iβ ∈ C, se pone (α + iβ)(x, y) = (αx − βy, βx + αy)

3. El PI: h(x, y), (u, v)i = hx, ui + hy, vi + i hy, ui − i hx, vi.

3.8.11. 1. Sea E un EN. Probar que existe un producto escalar que induce la norma de E (y que hace
de E un EPH) si y sólo si k k verifica la identidad del paralelogramo:

kx + yk2 + kx − yk2 = 2 (kxk2 + kyk2 ) para todo par x, y ∈ E .

(Sugerencia: Para la vuelta, definir el producto interno via la identidad de polarización)

2. Deducir que (`p , k kp ), si p 6= 2 y (C[0, 1], k k∞ ) no son espacios de Hilbert.


3.8.12. Sobre bases ortonormales:

1. Probar que la canónica {en }n∈N de `2 , donde (en )k = δk , n es una BON de `2 .


int
e
2. Probar (con detalles) que { √ 2π
: n ∈ Z} es una BON de L2 [−π, π].

3.8.13. Probar que el conjunto { xn : n ∈ N0 } es LI y genera un subespacio denso en el EH real L2 [−1, 1].
Probar que su ortogonalización de Gram-Schmidt {en }n∈N0 satisface que
 2n + 1 1/2 1 d n 2
en (x) = Pn (x) donde Pn (x) = (x − 1)n
2 2n n! dx
son los polinomios de Legendre. Lo de arriba vale para todo n ∈ N0 y todo x ∈ [−1 , 1].
3.8.14. En (R2 , k k∞ ), K = {(0, t) : −1 ≤ t ≤ 1} es un convexo cerrado. Si h = ( 12 , 1), probar que existen
infinitos k ∈ K tales que kh − kk = d(h, K). ¿Qué hipótesis del Teorema de proyección sobre un convexo
cerrado no se cumple?
3.8.15. Supongamos que {e1 , e2 , e3 , . . .} es una base ortonormal de un espacio de Hilbert H y definamos S
del siguiente modo:
∞ 
( 2 )
X 1 2
S= y∈H: 1+ | hy, en i | ≤ 1 .
n=1
n
Probar que S es un conjunto convexo acotado y cerrado que no posee un elemento con norma máxima. 4

Un U ∈ L(H) es unitario si es un iso isométrico sobre. Llamaremos U(H) = {U ∈ L(H) : U es unitario }.


3.8.16. Sea H un EH. Probar que

106
1. Si B = {vi : i ∈ I} es una BON de H, entonces un

U ∈ L(H) es unitario ⇐⇒ {U vi : i ∈ I} es otra BON de H .

2. Más aún, si C = {wi : i ∈ I} es cualquier otra BON de H, entonces existe un

U ∈ U(H) tal que U vi = wi para todo i∈I.

3. El conjunto U(H) es un subgrupo cerrado de Gl (H). ¿Es compacto?

4. Dado A ⊆ H convexo y cerrado, sea U (A) = {U ∈ U(H) : U (A) = A}. Luego

def
AU (A) = { y ∈ A : Uy = y para todo U ∈ U (A) } =
6 ∅. 4

3.8.17. Sea H un EH. Fijemos S , M v H tales que dim S < ∞ y que dim S < dim M. Probar que con
esas condiciones debe cumplirse que S ⊥ ∩ M =
6 {0}. 4
3.8.18. El “cubo de Hilbert” de `2 (N) es el conjunto

1
⊆ `2 (N) .

Q= x = (xn )n∈ N ∈ CN : |xn | ≤ para todo n∈N
n

Probar que Q es convexo y compacto (con la norma). Realizar a Q = T (BE ) para ciero T ∈ L(E , `2 ) donde
E es algún EB. De paso calcular kT k. 4
3.8.19 (Repaso del texto). Sea H un EH. Dado S v H un subespacio propio, probar que

1. Existe x ∈ H \ S tal que x⊥ S. Es decir que S ⊥ = {x ∈ H : x⊥ S} 6= {0}.

2. Se tiene que S ⊥ v H y S ⊕ S ⊥ = H.

3. Para estos S vale que (S ⊥ )⊥ = S.

4. Dar contraejemplos de (2) y (3) si S no es cerrado.

3.8.20. En `2 (N) sea S = {x ∈ `1 (N) : xn = 0}. Probar que S es un subespacio denso de `2 (N).
P
n∈N
Observar que si lo pensamos dentro de `1 (N), se tiene que S v `1 (N), porque S = ker ϕ1 .
3.8.21. Sea H un EH. Si {xn : n ∈ N} una BON de H y C = {yn : n ∈ N} es un SON en H que verifica
X
kxn − yn k2 < 1 =⇒ C era otra BON de H . 4
n∈N

3.8.22. Sea H un EH. Probar que si x ∈ H es unitario, entonces es un punto extremal de la bola unidad.
3.8.23. Sean µ y ν medidas positivas y finitas sobre un espacio (X, Σ) tales que ν << µ. Probar que

1. Vale que L2 (µ + ν) ⊆ L2 (µ) (¿Qué pasa con coincidir en c.t.p. ?).

2. La funcional ϕ dada por L2 (µ) 3 f 7→ ϕ(f ) = X f dµ , no sólo esta bien definida sino que ϕ ∈ L2 (µ)∗ .
R

¿Cuál es la h ∈ L2 (µ) que la realiza vı́a el Teor. de Riesz?

3. Si restringimos ϕ a L2 (µ + ν) queda más acotada que antes, al pensarla con la norma de L2 (µ + ν).

¿Qué relación existe entre dµ y la función g ∈ L2 (µ + ν) que la realiza ahora? 4

107
Capı́tulo 4

Operadores en espacios de Hilbert

Dados H1 y H2 dos EH’s, denotábamos por L(H1 , H2 ) al EB de operadores acotados entre


ellos. Dado T ∈ L(H1 , H2 ), su norma era
kT k = sup kT xkH2 = mı́n{M ≥ 0 : kT xkH2 ≤ M kxkH1 para todo x ∈ H1 } .
x∈BH1

Si ahora fijamos un Hilbert H y trabajamos en L(H) = L(H , H), le daremos un nuevo


nombre a los isomorfismos que están en L(H). De hecho, como L(H) es una K-álgebra,
a partir de ahora pasarán a llamarse operadores inversibles. Observar que, de existir su
inverso T −1 , el TFI 2.3.4 asegura que T −1 también vive en L(H), por lo que es su inverso
para el producto del álgebra L(H) (que es la composición). Denotaremos por
n o n o
Gl (H) = T ∈ L(H) : ker T = {0} y R(T ) = H = T ∈ L(H) : existe T −1 ∈ L(H) .

Es importante remarcar que Gl (H) es un grupo con el producto de L(H). De hecho es mucho
más que eso. Más adelante veremos que Gl (H) es abierto en L(H).

4.1 El adjunto.
A los operadores de L(H1 , H2 ) se les puede aplicar la teorı́a de los adjuntos que vimos
en la seccón 2.6. Sin embargo, en vista del Teor. de Riesz 3.3.1, definiremos a los adjuntos
operando en los mismos EH’s y no en sus duales. Por simplicidad de la presentación, y porque
es el caso más importante, lo haremos en principio solo para endomorfismos de un L(H),
donde H es un EH con respecto al cuerpo C. Dejaremos como ejercicio la generalización al
caso de operadores en L(H1 , H2 ) con el cuerpo K.
Definición 4.1.1. Sea H un EH, y sea B : H×H → K una forma sesquilineal (FS). Diremos
que B es acotada (y B será una FSA) si existe una M ≥ 0 tal que
|B(x , y)| ≤ M kxk kyk para todo par x, y ∈ H .
La norma de B será la mejor tal constante: kBk = sup |B(x , y)|. Al espacio (normado)
x , y∈BH
de todas estas FSA’s lo denotaremos por Sq(H). 4

108
El siguiente resultado, conocido como el Teor. de Lax-Milgram, dice que como pasa en
dimensión finita donde las sesquilineales están dadas por una matriz (o sea un operador),
las B ∈ Sq(H) para un Hilbert H también se representan con un operador de L(H).
Proposición 4.1.2. Sea H un EH. La flecha L(H) 3 T 7→ BT ∈ Sq(H) dada por la fórmula

BT (x , y) = hT x , yi para todo par x, y ∈ H , (4.1)

define un isomorfismo isométrico entre esos Banach’s. Es decir que toda sesquilineal acotada
en H proviene de un T ∈ L(H) (de la misma norma) vı́a el PI.
Demostración. La linealidad sale fácil. Para ver que es isométrica (en particular que es mono
y que cada BT es una FSA) basta recordar que para todo T ∈ L(H)
(3.12) def
kT k = sup |hT x , yi| = kBT k .
x , y ∈BH

Para mostrar que es epi, fijemos una B ∈ Sq(H). Para cada x ∈ H tenemos la funcional

φx ∈ H∗ dada por φx (y) = B(x , y) para y∈H,

que tiene norma no mayor que kBk kxk. Observar que cada funcional φx esputa bien los
escalares que multiplican al y porque se los conjuga dos veces. Por el Teor. de Riesz 3.3.1
debe existir un (único) vector que hábilmente llamaremos

Tx∈H tal que kT xk = kφx k y φx (y) = hy , T xi para todo y∈H.

Luego llegamos a la igualdad que necesitamos:

B(x , y) = φx (y) = hy , T xi = hT x , yi para todo par x, y ∈ H .

La flecha x 7→ T x es claramente lineal, porque al multiplicar al x por un λ ∈ K, al sacarlo


se lo conjuga dos veces: una al hacer φλx y la otra la del Teor. de Riesz. Además vimos que
kT xk = kφx k ≤ kBk kxk, por lo que T ∈ L(H) y B = BT . Final de la porfı́a. 
Observación 4.1.3. Hay una consecuencia trivialonga de la Prop. 4.1.2, que sin embargo
es una de las cosas que más se usa en la práctica: Dados S , T ∈ L(H) vale que

hS x , yi = hT x , yi para todo par x , y ∈ H =⇒ S = T . (4.2)

No es otra cosa que la inyectividad de la flecha del Prop. 4.1.2. En particular dice que si
todos los hT x , yi = 0 entonces T = 0. Si K = C se puede mejorar esta condición: 4
Corolario 4.1.4. Sea H un EH. Se asume que K = C. Dados T , S ∈ L(H) se tiene que

hS x , xi = hT x , xi para todo x ∈ H =⇒ S = T . (4.3)

109
Proof. Hace falta mejorar la polarización vista en (3.2): Dados x , y ∈ H, vale que
3
X
4 B(x , y) = ik B(x + ik y , x + ik y) para toda B ∈ Sq(H) . (4.4)
k=0

Es importante aclarar que no se asume que B sea simétrica como en (3.2). La Ec. (4.4) ya se
planteó en el Ejer. 3.8.9 con una ayuda más que suficiente, ası́ que la aceptaremos (también
vale hacer la cuenta, que sale). Poniendo B(x , y) = h (T − S) x , y i para todo par x , y ∈ H
vemos que usando (4.4) sale que (4.3) =⇒ (4.2) =⇒ S = T . 
Observación 4.1.5. Observar que en  cambio, la polarización real vista en (3.3) sı́ usa la
0 1
simetrı́a y no hay tu tı́a: La matriz ∈ L(R2 ) nos muestra que la Ec. (4.3) falla
−1 0
cuando K = R. ¿Porque no falla si a esa matriz la pensamos en L(C2 )? 4
Teorema 4.1.6. Sea H un EH. Para todo T ∈ L(H) existe un único T ∗ ∈ L(H) tal que

hT x , yi = hx , T ∗ yi para todo par x, y ∈ H . (4.5)

Además, se cumplen las siguientes propiedades: Dados T, S ∈ L(H), se tiene que

1. (T S)∗ = S ∗ T ∗ y (T ∗ )∗ = T .

2. kT ∗ k = kT k y kT ∗ T k = kT k2 .

3. La flecha T 7→ T ∗ es antilineal y, por lo de arriba, isométrica sobre e involutiva.

4. En particular, Tn −−−→ T =⇒ Tn∗ −−−→ T ∗ .


n→∞ n→∞

Demostración. Dado T ∈ L(H), tomemos la B ∈ Sq(H) dada por B(x , y) = hx , T yi, para
cada par x , y ∈ H. El testeo de que efectivamente B ∈ Sq(H) con kBk ≤ kT k es directo.
Llamemos T ∗ ∈ L(H) el operador asociado a B que da el Teo. 4.1.2. Luego se tiene que
conjugar
hy , T xi = B(y , x) = hT ∗ y , xi =⇒ hT x , yi = hx , T ∗ yi para todo par x , y ∈ H .

La unicidad del T ∗ sale de la Ec. (4.2). Sean ahora S , T ∈ L(H).


unicidad
hT S x , yi = hS x , T ∗ yi = hx , S ∗ T ∗ yi para todo x , y ∈ H =⇒ (T S)∗ = S ∗ T ∗ .

Por otro lado, por la Ec. (4.5) sale que para todo par x , y ∈ H se tiene que
(4.2)
hT ∗∗ x , yi = hy , T ∗∗ xi = hT ∗ y , xi = hx , T ∗ yi = hT x , yi =⇒ T ∗∗ = T .

Para el item 2 hagamos la siguiente cuenta: Para cualquier x ∈ BH vale que

kT xk2 = hT x , T xi = |hx , T ∗ T xi| ≤ kT ∗ T k kxk2 ≤ kT ∗ T k .

110
Deducimos que kT k2 ≤ kT ∗ T k ≤ kT ∗ k kT k (la última vale siempre con un producto). Esta
desigualdad implica las dos del item 2. Primero que kT k ≤ kT ∗ k (para todo T ∈ L(H) ),
por lo que también kT ∗ k ≤ kT ∗∗ k = kT k. Mirando arriba llegamos a que kT k2 = kT ∗ T k.
La antilinealidad es trivial y se deja como ejercicio para el lector obsesivo. 
Observar que dados T ∈ L(H) y dos vectores x , y ∈ H, también vale que

hx , T yi = hT y , xi = hy , T ∗ xi = hT ∗ x , yi .

Ası́ que, al cambiar T por T ∗ , se lo puede pasar libremente hacia cualquiera de los dos lados
del PI. Usaremos esa herramienta hasta el cansancio en todo el texto. Otra cosa que se usará
sin más aclaraciones es que I ∗ = I. Si uno mira (4.5) no lo duda ni un segundo.
Proposición 4.1.7. Sea H un EH. Dado un T ∈ L(H) se tienen las siguientes igualdades:

ker T ∗ = R(T )⊥ y R(T ∗ ) = (ker T )⊥ . (4.6)

Demostración. Veamos primer la fórmula para el núcleo. Dado un x ∈ H, se tiene que

x ∈ R(T )⊥ ⇐⇒ hx , T yi = 0 para todo y∈H

⇐⇒ hT ∗ x , yi = 0 para todo y∈H

⇐⇒ T ∗ x = 0 .

Luego R(T )⊥ = ker T ∗ . Aplicando esta igualdad a T ∗ ∈ L(H), nos queda que
3.2.7 ⊥
R(T ∗ )⊥ = ker T ∗∗ = ker T =⇒ R(T ∗ ) = R(T ∗ )⊥ = (ker T )⊥ . 

En la Prop. 2.6.12 vimos el siguiente resultado para los viejos adjuntos que operaban en
los duales. Lo reprobamos ahora con las técnicas Hilbertianas para este contexto. Antes
def
adelantemos una notación: Llamaremos A(H) = {A ∈ L(H) : A∗ = A} (los autoadjuntos).
Corolario 4.1.8. Sean H un EH y T ∈ L(H). Las suguientes condiciones son equivalentes:

1. Nuestro T ∈ Gl (H).

2. Su adjunto T ∗ ∈ Gl (H).

3. Tanto T como T ∗ son AI (acotados inferiormente).

4. Ambos dos T y T ∗ son monos y tienen sus rangos cerrados.

Si todo esto pasa, vale que (T ∗ )−1 = (T −1 )∗ . O sea que invertir y adjuntar conmutan. Esto
dice, en particular que si T ∈ A(H) ∩ Gl (H) =⇒ T −1 ∈ A(H).

111
4.1.6
Demostración. Si T ∈ Gl (H) entonces T −1 T = I =⇒ T ∗ (T −1 )∗ = I ∗ = I. Análogamente
se ve que T T −1 = I =⇒ (T −1 )∗ T ∗ = I. O sea que (T −1 )∗ es el inverso de T ∗ . Si aplicamos
esto a T ∗ y asumimos que T ∗ ∈ Gl (H), como T ∗∗ = T ya tenemos que 1 ⇐⇒ 2.
Ya hemos visto que si T ∈ Gl (H) =⇒ T es AI. La cota inferior era kT −1 k−1 . En el mismo
lugar, la Ec. (2.25), vimos que AI ⇐⇒ mono y rango cerrado (se usa que H es completo).
Por lo tanto el tandem de 1 y 2 implica el de 3 ⇐⇒ 4.
Si ahora asumimos 4, tenemos que ker T ∗ = {0} y además que R(T ∗ ) = (ker T )⊥ = H,
porque también T era mono. Llegamos a que R(T ∗ ) es denso y cerrado. En resumen, ya
sabemos que T ∗ es mono + epi, o sea que T ∗ ∈ Gl (H). 
Ejemplos 4.1.9.
1. Sea H = Cn con su PI tradicional. Fijemos B = {v1 , . . . , vn } una BON de Cn . A
cada T ∈ L(Cn ) se le asigna vı́a B una matriz A = [T ]B ∈ Mn (C) dada por

Aij = hT vj , vi i para cada par i , j ∈ In .

Esto hace que las coordenadas de T x sean el producto de matrices [T ]B [x]B , donde
[x]B es el vector columna de entradas hx , vj i, para j ∈ In . Observar que la columna
j-ésima de A tiene a los coeficientes de Fourier de T vj . Como uds. seguro ya saben,
la matriz B = [T ∗ ]B se calcula usando la de T : Basta hacer

Bij = hT ∗ vj , vi i = hvj , T vi i = Aji para i , j ∈ In =⇒ B = At .

O sea que al fijar una BON de Cn , el proceso de adjuntar un operador de L(Cn ) consiste
en transponer y conjugar su matriz.
En presencia de una BON “larga” de un Hilbert H cualquiera, se puede hacer la matriz
(infinita) igual que arriba, y opera bien el las columnas largas de coeficientes de los
x ∈ H. También sale que adjuntar es transponer y conjugar. Pero no es tan util como
en el caso finito, porque es difı́cil saber cuando una de esas supermatrices proviene o
no de un operador acotado. Más adelante veremos algunos criterios al respecto. Por
ejemplo el llamado “test de Schur” del Ejer. 4.7.21.
2. Sea ahora H = `2 y S, T ∈ L(`2 ) los shifs del Ejem. 1.8.1. Una cuenta directa muestra
que T = S ∗ . De hecho, de sus definiciones se desprende que
xn yn+1 para los x = (xn )n∈ N , y = (yn )n∈ N ∈ `2 .
P
hSx , yi = hx , T yi =
n∈N

Si miramos ahora los bilaterales U, V ∈ L(`2 (Z) ) definidos en la Obs. 3.7.3, es igual de
fácil ver que V = U ∗ . La suma es la misma de arriba, pero con n ∈ Z.
3. Sea ahora f ∈ L∞ (para X, Σ , µ fijos) y Mf ∈ L(L2 ) el operador de multiplicación
Mf g = f g para g ∈ L2 , definido en el Ejem. 1.8.2. Como los Mf son los análogos
a las matrices diagonales, era de esperar que Mf ∗ = Mf . La verificación es directa
mirando las integrales, ya que (f g) h = g( f h ).

112
4. En los operadores nucleares del Ejem. 1.8.3, si k(s, t) ∈ L2 (X × X) y tomamos el
nuclear Tk , entonces Tk ∗ = Tk∗ , donde k ∗ (s, t) = k(t, s) para s, t ∈ X. La prueba
no es más que aplicar un Fubini adecuado a funciones de L1 . Observar la analogı́a de
estas fórmulas con la idea de transponer y conjugar matrices.

4.2 Clases de operadores.


Usando que dado un T ∈ L(H), su T ∗ también vive en el álgebra L(H), podemos hacerlos
interactuar. Eso enriquece notablemente la teorı́a de operadores en EH’s por sobre la de EB’s.
A los distintos comportamientos interactivos de T y T ∗ se les pondrá distintos nombres, todos
ellos ya conocidos de las matrices.
Definición 4.2.1. Sean H un EH y T ∈ L(H). Diremos que T es:

1. Normal si T T ∗ = T ∗ T , o sea si T y T ∗ conmutan.

2. Autoadjunto o Hermitiano si T = T ∗ . Denotaremos por

A(H) = {T ∈ L(H) : T = T ∗ } ,

que es un R-subespacio cerrado de L(H).

3. Positivo (se escribe T ≥ 0) si T ∈ A(H) y hT x , xi ≥ 0 para todo x ∈ H. Denotaremos

L(H)+ = {T ∈ L(H) : T ≥ 0} ,

que es un cono convexo cerrado dentro de A(H).

4. Su interior es el conjunto Gl (H)+ de los estrictamente positivos (va como T > 0),
que son aquellos T ∈ L(H)+ tales que hT x , xi ≥ ckxk2 para cierto c > 0.

5. Isométrico si T ∗ T = I. Ya veremos que la notación es consistente.

6. Isometrı́a parcial si (T ∗ T )2 = T ∗ T . Eso significa que T ∗ T ∈ P(H).

7. Unitario si T ∈ Gl (H) y T −1 = T ∗ . Denotaremos por

U(H) = {T ∈ L(H) : T es unitario } ⊆ Gl (H) ,

que es un subgrupo de Gl (H). Es cerrado por composiciones porque tanto adjuntar


como invertir dan vuelta el producto. 4

A continuación viene una serie de caracterizaciones alternativas elementales de las clases


recién definidas de operadores. Recordemos la Ec. (4.3) del Cor. 4.1.4 que decı́a que, para
que un T ∈ L(H) sea nulo, alcanza con ver que hT x , xi = 0 para todo x ∈ H. Por supuesto,
vimos que eso sólo vale si K = C. Esta será la herramienta clave para lo que viene ahora.

113
4.2.2. Sean H un EH sobre C y T ∈ L(H). Empecemos con los normales:

T es normal ⇐⇒ kT xk = kT ∗ xk para todo x∈H. (4.7)

En efecto, ambas implicaciones salen usando (4.3) y observando la siguiente igualdad:

kT xk2 − kT ∗ xk2 = h T x , T xi − hT ∗ x , T ∗ xi = h (T ∗ T − T T ∗ ) x , xi

para todo x ∈ H. Observar que la Ec. (4.7) dice en particular que


(4.6)
T es normal =⇒ ker T = ker T ∗ =⇒ ker T = R(T )⊥ . (4.8)

Con respecto a los autoadjuntos tenemos otra buena:

T ∈ A(H) ⇐⇒ hT x , xi ∈ R para todo x∈H. (4.9)

Esta sale porque h (T − T ∗ ) x , xi = hT x , xi − hT x , xi para todo x ∈ H. En particular

T ∈ L(H)+ ⇐⇒ hT x , xi ≥ 0 para todo x∈H, (4.10)

porque lo de la derecha ya sabemos que asegura que T ∈ A(H). Una fórmula semejante vale
también para chequear si T > 0. Usando esto salen fácil las afirmaciones de arriba de que
L(H)+ es un cono convexo y cerrado dentro de de A(H), y que Gl (H)+ es exactamente el
interior de L(H)+ . Hay una forma usual de exhibir positivos:

Si B ∈ L(H) =⇒ B ∗ B ∈ L(H)+ . (4.11)

La prueba surge de que hB ∗ B x , xi = hB x , B xi = kB xk2 ≥ 0 para todo x ∈ H. En


realidad vale que todo positivo es como los de (4.11), pero todavı́a nos falta data para
probarlo. Veamos ahora que las isometrı́as U ∈ L(H) son lo que son:

U es una isometrı́a (i.e. U ∗ U = I) ⇐⇒ kU xk = kxk para todo x∈H. (4.12)

Como antes, esto se deduce de (4.3) y de que cada kU xk2 − kxk2 = h (U ∗ U − I) x , xi. Otra
caracterización, si bien es bastante obvia, es sumamente util en las aplicaciones:

U es una isometrı́a ⇐⇒ hU x , U yi = hx , yi para todo par x, y ∈ H . (4.13)

Es decir de dos maneras que U ∗ U = I. Vamos ahora hacia los unitarios:

U ∈ U(H) (i.e. U ∗ = U −1 ) ⇐⇒ U es una isometrı́a sobre . (4.14)

En realidad, es una consecuencia de (4.12), porque al asumir que U ∈ Gl (H), un inverso a


izquierda tiene que ser EL inverso de U . Observar que los U ∈ U(H) son normales.
Falta decir algunas cosas sobre las isometrı́as parciales, pero hace falta avanzar un poco
más para poder hacerlo, ası́ que esperen un poco. No olvidemos remarcar que casi todas las
implicaciones ⇐ de esta lista fallan si K = R, aunque las ⇒ valen en general. 4

114
Recordemos que, si H es un EH, llamábamos P(H) = {E ∈ L(H) : E 2 = E}. Ahora
caracterizaremos una subclase especial de P(H).
Proposición 4.2.3. Sean H un EH y P ∈ P(H). Llamemos S = R(P ) v H. Ahora
podemos agregar nuevas condiciones a la Ec. (3.10): Son equivalentes
1. P = PS , es decir que ker P = S ⊥ .
2. kP k = 1.
3. P ∈ L(H)+ .
4. P ∈ A(H), o sea que P ∗ = P .
5. P es normal.
Demostración. Vimos en la Ec. (3.10) que 1 ⇐⇒ 2. Si asumimos ahora que P = PS y me
dan cualquier x = y + z ∈ S ⊕ S ⊥ = H, entonces
(4.10)
hP x , xi = hy , y + zi = hy , yi ≥ 0 =⇒ P ∈ L(H)+ .
Hemos visto que L(H)+ ⊆ A(H) ⊆ los normales. Pero si P fuera normal, entonces la
Ec. (4.8) ya nos da que ker P = ker P ∗ = R(P )⊥ = S ⊥ . Y quedó todo enrrollado. 

4.2.4. Es usual restrigir la palabra “proyector” para los de la Prop. 4.2.3. También se los
bate proyectores ortogonales o autoadjuntos. Hay una formulita abreviada para describirlos:
Un P ∈ L(H) es un tal proyector ⇐⇒ P = P ∗ P
(lo último incluye la info de que P 2 = P ) En adelante denotaremos por
P(H) = {P ∈ L(H) : P = P ∗ P } = {P ∈ P(H) : P = P ∗ } (4.15)
al espacio de todos los proyctores (autoadjuntos) de L(H). Observar que P(H) ⊆ BH y
que el conjunto P(H) está en correspondencia biunı́voca con la “Grasmanniana” de H, que
consta de todos los S v H.
Los E ∈ P(H) que sólo cumplen que E 2 = E se quedan con otros nombres. A veces les
diremos proyectores oblicuos. Otras idempotentes a secas. 4
4.2.5 (Partes real e imaginaria). Sean H un EH y T ∈ L(H). Denotaremos por
T + T∗ T − T∗
Re T = ∈ A(H) e Im T = ∈ A(H) . (4.16)
2 2i
Es fácil ver que ellos son los únicos A, B ∈ A(H) tales que T = A + i B.
Se suele decir que un C ∈ L(H) es antihermitiano si C ∗ = −C. Es fácil ver que el
conjunto de tales operadores coincide con i A(H), o sea que todo C antihermitiano cumple
que C = i B para algún B ∈ A(H). Lo que decı́amos arriba se expresa como que
L(H) = A(H) ⊕ i A(H) , (4.17)
y que T 7→ Re T y T 7→ i Im T son las dos proyecciones (R-lineales) asociadas. Observar
que ambas son contractivas, o sea que k Re T k ≤ kT k y lo mismo con las partes Im’s. 4

115
Ejercicio 4.2.6. Sea T ∈ L(H). Probar que

T es normal ⇐⇒ A = Re T conmuta con B = Im T , (4.18)

y que en tal caso T ∗ T = T T ∗ = A2 + B 2 . Suena conocido, no? 4

4.3 Positivos.
4.3.1. Venı́amos diciendo que L(H)+ es un cono cerrado dentro de A(H). Aclaremos y
usemos aquello. El conjunto L(H)+ cumple, dentro del R-EV ambiente A(H), que

(a) Es cerrado (con la norma).


(b) Es cerrado por sumas y por multiplicación por escalares positivos.
(c) Es convexo, i.e., A, B ∈ L(H)+ y λ ∈ [0, 1] =⇒ λA + (1 − λ)B ∈ L(H)+ .
(d) Para todo A ∈ A(H) se tiene que A + kAk I ∈ L(H)+ y que

A + µ I ∈ Gl (H)+ para todo µ > kAk .

Las tres primeras porpiedades se deducen inmediatamente de la Ec. (4.10). La cuarta


también, si uno se aviva de usar que para todo A ∈ A(H) y todo x ∈ H vale que

|hA x , xi| ≤ kA xk kxk = kAk kxk2 = kAk hx , xi =⇒ (A + kAk I) x , x ≥ 0 .



Con todas esas propiedades es evidente que podemos definir el siguiente orden en A(H):

Dados A, B ∈ A(H) decimos que A≤B si B − A ∈ L(H)+ . (4.19)

Esto es un orden (es antisimétrico, reflexivo y transitivo). Pero este orden no es total
(pensar en matrices 2 × 2) y ni siquiera es un reticulado (no siempre hay supremos e ı́nfimos,
ni siquiera de a dos operadores). Observar que, dados A, B ∈ A(H), se tiene que

A ≤ B ⇐⇒ hA x , xi ≤ hB x , xi para todo x∈H. (4.20)

Las mejores propiedades de este orden necesitan de la “raı́z cuadrada” positiva de los oper-
adores positivos, que veremos más adelante. Pero empecemos por lo más fácil: 4
Proposición 4.3.2. Sea H un EH. Dados A, B ∈ A(H) tales que A ≤ B, se tiene que

1. Para cualquier T ∈ L(H) también T ∗ AT ≤ T ∗ BT .

2. Si además pasaba que A ∈ L(H)+ , entonces kAk ≤ kBk.

3. A cualquier A ∈ A(H) se lo ensangucha con múltiplos de la identidad:

−kAk I ≤ A ≤ kAk I . (4.21)

116
4. A ∈ Gl (H)+ ⇐⇒ A ≥ c I para cierto c > 0.

Demostración. Antes que nada, obervar que tanto T ∗ AT como T ∗ BT sigen estando en A(H)
(basta estrellarlos y ver). Ahora bien, dado un x ∈ H podemos hacer lo siguiente:
(4.20) (4.20)
hT ∗ AT x , xi = hA T x , T xi ≤ hB T x , T xi = hT ∗ BT x , xi =⇒ T ∗ AT ≤ T ∗ BT .
def
Si A ∈ L(H)+ , entonces la sesquilineal H2 3 (x, y) 7→ hx , yiA = hA x , yi es un semi PI.
Esto se deduce de la Ec. (4.10) y de que L(H)+ ⊆ A(H). Luego, si x, y ∈ BH , se tiene que
C−S C−S
|hA x , yi|2 = |hx , yiA |2 ≤ hA x , xi hA y , yi ≤ hB x , xi hB y , yi ≤ kBk2 .

Aplicando ahora la Ec. (3.12) del Cor. 3.3.3, podemos ver que

kAk2 = sup kA xk2 = sup |hA x , yi|2 ≤ kBk2 .


x ∈BH x , y ∈BH

Ası́ llegamos a que kAk ≤ kBk. Finalmente, observar que



hA x , xi ≤ kAk kxk2 = kAk I x , x


para todo x ∈ H .

Eso claramente implica las desigualdades de (4.21). Una cuenta similar muestra 4. 
El siguiente teorema es un adelanto del cálculo funcional continuo para operadores autoa-
juntos. Lo queremos dar antes, para poder aplicarlo a muchas propiedades más básicas de
L(H), porque el desarrollo de aquel cálculo requiere mucho más andamiaje teórico. Para
hacerlo de la nada, no nos queda otra que hacer un montón de cuentas. A apechugar.
Ejercicio 4.3.3 (Criterio de Dini). Sea f = (fn )n∈ N una sucesión en C[0, 1] que cumple:

1. Existe f ∈ C[0, 1] tal que fn (t) −−−→ f (t) para todo t ∈ [0, 1].
n→∞

2. La sucesión f es creciente: fn (t) ≤ fn+1 (t) para todo n ∈ N y todo t ∈ [0, 1].

Con esas hipótesis probar que la convergencia fn −−−→ f es uniforme en todo [0, 1]. 4
n→∞

Lema 4.3.4. Sea f ∈ C[0, 1] dada por f (t) = 1 − (1 − t)1/2 para t ∈ [0, 1]. Afirmamos que
existe una sucesión (qn )n∈N de polinomios tales que

1. Todos tienen coeficientes reales y no negativos.

2. También las restas qm − qn para n < m tienen coeficientes no negativos.

3. qn (t) ∈ [0, 1] para todo t ∈ [0, 1] y todo n ∈ N.

4. kf − qn k∞ −−−→ 0 (convergencia uniforme en el [0, 1]).


n→∞

117
t
Demostración. La sucesión se define inductivamente. Se empieza por q0 ≡ 0, q1 (t) = 2
,y

1
t + qn (t)2

qn+1 (t) = para t ∈ [0, 1] y n∈N. (4.22)
2
Inductivamente vemos que los coeficientes de los qn son no negativos y que en todos los
n ∈ N y todos los t ∈ [0, 1] vale que también qn (t) ∈ [0, 1]. Observar que

2(qn+1 − qn ) = qn2 − qn−1


2
= (qn − qn−1 ) (qn + qn−1 ) para todo n∈N.

Luego vemos (inductivamente) que todas las diferencias qn+1 −qn también tienen coeficientes
no negativos (sumando, eso da el item 2). En particular, en cada t ∈ [0, 1], se tiene que la
sucesión (qn (t) )n∈N es creciente y acotada por 1, por lo que qn (t) −−−→ q(t) ∈ [0, 1].
n→∞
2
Pero por (4.22), los lı́mites cumplen la ecuación 2q(t) = t + q(t) . Luego
2
1 − t = q(t)2 − 2q(t) + 1 = 1 − q(t) =⇒ q(t) = 1 − (1 − t)1/2 = f (t)

para todo t ∈ [0, 1]. (la otra raı́z q(t) − 1 es negativa). O sea que tenemos convergencia
puntual. Pero al estar f y todas las qn en C[0, 1] y ser crecientes, el criterio de Dini visto en
el Ejer. 4.3.3 nos asegura que la convergencia qn −−−→ f es uniforme. 
n→∞

Para construir la raı́z positiva de un A ∈ L(H)+ evaluaremos polinomios de coeficientes


positivos en A. Para que todo camine nos falta esto:
Lema 4.3.5. Sean H un EH y A ∈ L(H)+ . Luego An ∈ L(H)+ para todo n ∈ N.
Demostración. Se hace por inducción. El caso n = 1 es joda. Para n = 2, basta observar
que A2 = A∗ A ∈ L(H)+ por la Ec. (4.11). Si ahora tomamos n > 2, la HI dice que 0 ≤ An−2 .
Conjugando con A llegamos a que 0 ≤ A An−2 A = An por la Prop. 4.3.2. 
Teorema 4.3.6. Sean H un EH y A ∈ L(H)+ . Luego existe un único B ∈ L(H)+ tal que
B 2 = A. De ahora en más la denotaremos B = A1/2 . Además, se tiene que:

Si C ∈ L(H) cumple que AC = CA =⇒ también A1/2 C = CA1/2 . (4.23)

Demostración. Asumamos en principio que A ≤ I. Si tomamos S = I − A vemos que


también 0 ≤ S ≤ I. Por la Prop. 4.3.2, esto implica que kSk ≤ kIk = 1. Tomemos los polis
qn del Lema 4.3.4 y definamos Sn = qn (S) para cada n ∈ N. Por las propiedades de 4.3.1, el
Lema 4.3.5 y los coeficientes positivos de los qn , sale con fritas que todos los Sn ∈ L(H)+ .
Recordemos que los qn convergen uniformemente en el [0, 1]. Por ello, dado un ε > 0 existe
n0 ∈ N tal que cualquier par n, m ≥ n0 con n < m cumple que
M
X
0 ≤ qm (t) − qn (t) = αk (n , m) tk < ε para todo t ∈ [0, 1] , (4.24)
k=0

118
donde los αk (n , m) son ciertos coeficientes (los que den la cuenta) todos no negativos (por
el item 2 del Lema 4.3.4) que terminan en algún M ∈ N. Entonces vemos que
M M
X X
k
Sm − Sn = qm (S) − qn (S) =
αk (n , m) S ≤ αk (n , m) kSkk < ε .
k=0 k=0

Luego Sn = qn (S) −−−→ R ∈ L(H)+ . Haciendo una cuenta como la de recién sale que
n→∞

(4.21)
kSn k = kqn (S)k ≤ qn ( kSk ) ≤ 1 para todo n ∈ N =⇒ kRk ≤ 1 =⇒ 0 ≤ R ≤ I .
(4.22)
Nuestro candidato a raı́z de A es I − R ∈ L(H)+ . Como qn (t)2 = 2 qn+1 (t) − t, entonces
2  
(I − R)2 = lı́m I − Sn = lı́m I − 2 qn (S) + qn (S)2
n→∞ n→∞

(4.22)
 
= lı́m I − 2 qn (S) + 2 qn+1 (S) − S
n→∞


= I − S + 2 lı́m Sn+1 − Sn = I − S = A .
n→∞

Luego podemos tomar A1/2 = I −R ∈ L(H)+ y tenemos al menos una raı́z cuadrada positiva
para A. Observar que, en tanto lı́mite de polinomios evaluados en A, nuestro A1/2 cumple
la condición (4.23) sin problemas (en la Obs. 4.3.7 se ve bien de qué polinomios se trata).
Tomemos ahora otra B ∈ L(H)+ tal que B 2 = A. Por (4.23), esta B (como conmuta con su
cuadrado, que es A) conmuta con A1/2 . Entonces hagamos esta cuenta:
(A1/2 − B)(A1/2 + B) x = (A − B 2 ) x = 0 para todo x∈H.
def
Eso dice que (A1/2 − B) y = 0 para todo y ∈ S = R(A1/2 + B). Ya sabemos que en el
subespacio S, las dos raı́ces A1/2 y B coinciden. Veamos que pasa en S ⊥ = ker(A1/2 + B).
El tema es que allı́ ambas se anulan. Mostrémoslo para B:
0 ≤ hB z , zi ≤ h(A1/2 + B) z , zi = 0 para todo z ∈ S⊥ .
Como ya hemos probado que algún B 1/2 existe (no olvidar que B ∈ L(H)+ ), vemos que
kB 1/2 zk2 = hB 1/2 z , B 1/2 zi = hB z , zi = 0 =⇒ B 1/2 z = 0 para esos z .
1/2 1/2 ⊥
B z = B (B z) = 0 para z ∈ S . La misma cuenta se puede hacer para
Por lo tanto ver
que A S ⊥ ≡ 0. Después de todo este laburo podemos afirmar (usando que S ⊕ S ⊥ = H)
1/2

que B = A1/2 por lo que la raı́z cuadrada positiva de A es única.


El caso general se pasa al anterior, porque todo A ∈ L(H)+ \ {0} cumple que
(4.21) A
A ≤ kAk I =⇒ C = ≤I .
kAk
Luego basta tomar A1/2 = kAk1/2 C 1/2 . La unicidad también sale achicando. 

119
Observación 4.3.7. Mantengamos las notaciones de los resultados anteriores sobre la raı́z
cuadrada. Si tenemos un A ∈ L(H)+ tal que 0 ≤ A ≤ I, los polinomios que convergen hacia
su raı́z A1/2 son, rastreando las cuentas del Teo. 4.3.6, los siguientes:
k · k∞
pn (t) = 1 − qn (1 − t) −−−→ t1/2 uiformemente en [0, 1] .
n→∞

En efecto, la convergencia sale de que los qn del Lema4.3.4 convergen a 1 − (1 − t)1/2 , y


además vimos en el Teo. 4.3.6 que A1/2 = I − R = lı́m I − qn (I − A) = lı́m pn (A).
n→∞ n→∞

Lo importante del asunto es que los mismos polinomios pn cumplen que

pn (A) −−−→ A1/2 para todo A ∈ L(H)+ tal que 0≤A≤I . (4.25)
n→∞

Repetimos: los polis no dependen de A. La misma sucesión produce la raı́z de cualquier


positivo menor que I. Otra cuestión importante es que pn (0) −−−→ 01/2 = 0. Luego podemos
n→∞
cambiar a esos pn por Pn = pn − pn (0) y siguen produciendo las raı́ces. Pero ahora todos
tienen término constante nulo. Estos hechos se usarán repetidamente en lo que sigue. 4
Corolario 4.3.8. Sea H un EH y sea A ∈ L(H). Luego vale que

1. Nuestro A ∈ L(H)+ ⇐⇒ existe un B ∈ L(H) tal que B ∗ B = A.

2. Si A ∈ L(H)+ y x ∈ H, entonces hA x , xi = 0 ⇐⇒ A x = 0 ⇐⇒ A1/2 x = 0.

Demostración. En la Ec. (4.11) vimos que cualquier B ∗ B ∈ L(H)+ . En cambio, si asumimos


que A ∈ L(H)+ , basta tomar B = A1/2 . Si ahora A = B ∗ B ∈ L(H)+ y x ∈ H, entonces

0 = hA x , xi = hB ∗ B x , xi = hB x , B xi = kB xk2 =⇒ Ax = B ∗ (B x) = 0 . 

Corolario 4.3.9. Sea H un EH y sean A, C ∈ A(H) tales que AC = CA. Entonces:

1. El producto AC ∈ A(H).

2. Si tanto A como C estaban en L(H)+ , entonces también AC ∈ L(H)+ .

Demostración. En principio (AC)∗ = C ∗ A∗ = CA = AC ∈ A(H). Si son positivos, el


Teo. 4.3.6 dice que A1/2 C = CA1/2 . Luego, por la Prop. 4.3.2, tenemos que
(4.23)
0 ≤ C =⇒ 0 = A1/2 0 A1/2 ≤ A1/2 CA1/2 = A1/2 A1/2 C = A C . 

Ahora vamos a justificar la notación de Gl (H)+ para los estrictamente positivos. Antes
podemos refrasear su definición: Un A ∈ Gl (H)+ ⇐⇒ A ≥ c I para cierto c > 0.
Proposición 4.3.10. Sea H un EH. Luego Gl (H)+ = L(H)+ ∩ Gl (H). O sea que los
estrictamente positivos son los positivos inversibles. Además, si A ∈ Gl (H)+ vale que

1. A−1 ∈ Gl (H)+ .

120
def
2. A1/2 ∈ Gl (H)+ y su (A1/2 )−1 = (A−1 )1/2 = A−1/2 .

3. Si me dan un B ≥ A, entonces B ∈ Gl (H)+ y B −1 ≤ A−1 .


Demostración. Sea A ∈ Gl (H)+ . Es claro por las definiciones que ker A = {0}. Como A es
(4.8)
normal, vale que R(A)⊥ = ker A =⇒ R(A) es denso. Si A no fuera epi no podrı́a ser AI.
Pero si existiera una sucesión (xn )n∈ N de unitarios tales que A xn −−−→ 0, entonces también
n→∞
pasarı́a que hA xn , xn i −−−→ 0, y eso contradice la definición de que A ∈ Gl (H)+ .
n→∞

Sea ahora A ∈ L(H)+ ∩ Gl (H). Notar que la igualdad A = A1/2 A1/2 dice que

H = R(A) ⊆ R(A1/2 ) y {0} = ker A ⊇ ker A1/2 =⇒ A1/2 ∈ Gl (H) ∩ L(H)+ .

En particular existe una b > 0 tal que bkxk ≤ kA1/2 xk para todo x ∈ H (se puede tomar la
constante b = k(A1/2 )−1 k−1 ). Luego

hA x , xi = hA1/2 x , A1/2 xi = kA1/2 xk2 ≥ b2 kxk2 = b2 hx , xi para todo x∈H.

Tomando c = b2 nos queda que A ≥ c I por lo que A ∈ Gl (H)+ .


Vimos que A ∈ Gl (H)+ =⇒ A1/2 ∈ Gl (H)+ . Llamemos B = (A1/2 )−1 ∈ A(H). Entonces

A B 2 = (A1/2 )2 B 2 = I =⇒ A−1 = B 2 = B ∗ B ∈ L(H)+ =⇒ A−1 ∈ Gl (H)+ . (4.26)

Probado el item 1, se lo podemos aplicar a A1/2 ∈ Gl (H)+ . Nos queda que su inverso
B = (A1/2 )−1 ∈ Gl (H)+ . Por otro lado, la igualdad A−1 = B 2 significa (usando la unicidad
del Teo. 4.3.6) que (A1/2 )−1 = B = (A−1 )1/2 . Desde ahora será A−1/2 .
Agarremos ahora un C ≥ I. Aplicando la Prop. 4.3.2 tenemos que

I = C −1/2 C C −1/2 ≥ C −1/2 I C −1/2 = C −1 .


def
Si tomamos ahora un B ≥ A ≥ cI, sale igual que C = A−1/2 BA−1/2 ≥ I. Luego

I ≥ C −1 = A1/2 B −1 A1/2 =⇒ A−1 = A−1/2 A−1/2 ≥ A−1/2 (A1/2 B −1 A1/2 )A−1/2 = B −1 ,

como se aseveraba. 
Observación 4.3.11. La notación A > 0 es polémica. Bien podrı́a haberse definido la
noción de estrictamente positivo como que hA x , xi > 0 para todo x 6= 0. Cabe destacar que
esto no equivale a que A ∈ Gl (H)+ . Al menos cuando dim H = ∞. Por ejemplo, podemos
tomar el operador diagonal Mx ∈ L(`2 ) dado por la sucesión x = ( n1 )n∈N ∈ `∞ . Luego
X yn X |yn |2
hMx y , yi = yn = > 0 para todo y = (yn )n∈ N ∈ `2 \ {0} .
n∈N
n n∈N
n

Sin embargo Mx ∈/ Gl (H) porque Mx en = enn para todo n ∈ N, por lo que el operador Mx
no puede ser AI y menos inversible. De hecho hMx en , en i = n1 −−−→ 0 y no está acotado
n→∞

121
desde abajo por ninguna c > 0. Nosotros elegimos que los re-positivos sean los inversibles,
y estos otros serán muy positivos, pero no estrictamente.
Una razón alternativa es que el interior de L(H)+ es solo Gl (H)+ , y estos muy positivos igual
quedan en el borde de L(H)+ . En el ejemplo anterior es claro que Mx − m1 I −−−→ Mx , o
m→∞
sea que a Mx le converge una sucesión desde afuera de L(H)+ .
Recordemos que, como siempre, esta disyuntiva desaparece si dim H < ∞. Esto es ası́ porque
la cáscara de la bola SH = {x ∈ H : kxk = 1} es compacta en ese caso. Luego, si nunca se
anulan ahı́, los productos hA x , xi deben quedar acotados desde abajo. 4
Ejercicio 4.3.12. Sea H un EH. Probar que el orden ≤ de A(H), restringido al conjunto
P(H) de los proyectores, ahı́ sı́ produce un reticulado (con sup e ı́nf de a muchos). Más
especı́ficamente, dados P, Q ∈ P(H) con R(P ) = S y R(Q) = M, entonces son equivalentes

1. P ≤ Q

2. S ⊆ M

3. P Q = QP = P
def
4. Q − P ∈ P(H) (y proyecta sobre M S = M ∩ (S ∩ M)⊥ ).

Luego el orden de P(H) coincide con el de la inclusión entre los S v H. Y estos subespacios
cerrados tienen sup e ı́nf (aún de familias infinitas) sin dramas.
Sugerimos usar que, vı́a Pitágoras, x ∈ M ⇐⇒ kxk2 = kQ xk2 . 4

4.4 Descomposición polar.


Recordemos de la Ec. (4.11) que, dado un T ∈ L(H), se tiene que T ∗ T ∈ L(H)+ . Además

ker T ∗ T = ker T para todo T ∈ L(H) , (4.27)

porque hT ∗ T x , xi = kT xk2 para cada x ∈ H y T ∗ T ∈ L(H)+ .


Definición 4.4.1. Sea H un EH. A cada operador T ∈ L(H) le adjuntaremos un operador
positivo |T | = (T ∗ T )1/2 ∈ L(H)+ llamado módulo de T . 4

Dado T ∈ L(H), la principal semejanza entre T y |T | es que

kT xk2 = hT x , T xi = hT ∗ T x , xi = h|T | x , |T | xi = k |T | xk2 para todo x ∈ H . (4.28)

Luego es natural pensar que se los puede relacionar usando algún tipo de isometrı́a entre
sus imágenes. Esa es la idea de la descomposición polar. Antes de presentarla en sociedad
necesitamos estudiar mejor las isometrı́as parciales que serán un ingrediente clave:

122
4.4.2 (Isometrı́as parciales). Sea H un EH. Dado un U ∈ L(H), decı́amos que U es isometrı́a
parcial (I P) si P = U ∗ U ∈ P(H) (o sea que es un proyector). Llamemos S = R(P ) v H.
Veremos que en tal caso U se comporta de la siguiente manera:

U S : S → U (S) es isométrico , mientras que U S ⊥ ≡ 0 . (4.29)
En efecto, si recordamos que U ∗ U = P = PS , entonces vemos que
kU zk2 = hU z , U zi = hP z , zi para todo z∈H.
Si el z ∈ S = R(P ), entonces tenemos que kU zk2 = hP z , zi = hz , zi = kzk2 . En cambio,
si z ∈ S ⊥ = ker P , lo de arriba implica que U z = 0. Observar que (4.29) implica que
ker U = S ⊥ y que R(U ) = U (S) v H . (4.30)
Otra consecuencia de (4.29) es la siguiente: Como R(I − P ) = S ⊥ = ker U ,
U (I − P ) = 0 =⇒ U P = U =⇒ U U ∗ U = U =⇒ (U U ∗ )(U U ∗ ) = U U ∗ ∈ P(H) ,
por lo que también U ∗ es una I P. Si ahora llamamos M = R(U U ∗ ), vimos antes que
M⊥ = ker U ∗ = R(U )⊥ =⇒ M = R(U ) = R(U ) = U (S) .
Análogamente sale que U ∗ (M) = R(U ∗ ) = S y que ker U ∗ = M⊥ . Resumamos: 4
Proposición 4.4.3. Sean H un EH y U ∈ L(H). Se cumple que
U una I P ⇐⇒ existe un S v H tal que U cumple la Ec. (4.29) respecto de S . (4.31)
En tal caso, si llamamos M = R(U ) y S = R(U ∗ ), valen las siguiente propiedades:
1. También U ∗ es una I P.
2. Tanto M = (ker U ∗ )⊥ v H como S = (ker U )⊥ v H.
3. U U ∗ = PM y U ∗ U = PS .
4. U = PM U = U PS = PM U PS .
En adelante, para decir que U es una I P, diremos que
U : S → M es una I P “de S en M” , con “dominio” S e “imagen” M .
Demostración. Ya hicimos casi todo en 4.4.2. Solo falta el ⇐ de (4.31). Si existe un S v H
tal que U cumple (4.29) con respecto a S y S ⊥ y denotamos por P = U ∗ U ∈ L(H)+ , es bien
fácil ver que kP k = kU k2 ≤ 1, por lo que 0 ≤ P ≤ I. Si z ∈ S, entonces
hP z , zi = kU zk2 = kzk2 = hz , zi =⇒ h(I − P ) z , zi = 0 .
Aplicando el Cor. 4.3.8 y el hecho de que I − P ≥ 0, llegamos a que P z = z para todo z ∈ S.
Por otro lado, en S ⊥ tanto U como P deben anularse. En resumen, hemos probado que el
producto U ∗ U = P = PS ∈ P(H), por lo que U : S → U (S) es una I P. 

123
Teorema 4.4.4. Sea H un EH. Para todo operador T ∈ L(H) existe una U ∈ L(H) que es
una I P, única si le exigimos que U : (ker T )⊥ → R(T ), tal que T = U |T |. Además

1. U ∗ T = |T |.

2. T T ∗ = U (T ∗ T )U ∗ .

3. El otro módulo |T ∗ | = (T T ∗ )1/2 cumple que |T ∗ | = U |T |U ∗ .

4. Por lo tanto T = |T ∗ |U .

La igualdad T = U |T | es la descomposición polar (DP) de T , mientras que T = |T ∗ |U (que


sale con la misma U ) es la DP a derecha de T .
Demostración. Observar que (4.28) asegura que ker T = ker |T |. Luego si definimos

U0 : R(|T |) → R(T ) ⊆ H dada por U0 (|T | x) = T x para x∈H, (4.32)

tenemos que U0 está bien definida, es lineal e isométrica, otra vez por (4.28). Es claro que
U0 se puede extender, manteniendo aquellas propiedades y su nombre, a una isometrı́a

U0 : R(|T |) → R(T ) v H .
def
Observar que R(|T |) = (ker T )⊥ = S. Luego si extendemos a U0 a una

U : H → H tal que U S = U0 y U S ⊥ ≡ 0 ,

nos queda que U = U0 ◦ PS ∈ L(H) y por la Ec. (4.31) ya tenemos que U : S → R(T ) es una
I P. Además, ella cumple que U |T | = U0 |T | = T por la Ec. (4.32). Si le fijamos el dominio
S, esta U es la única I P que cumple T = U |T | porque cualquier otra, a través de una cuenta
tipo (4.32), tiene que coincidir con ella en R(|T |) que es denso allı́.
Como S = R(|T |) y U ∗ U = PS (Prop. 4.4.3), es claro que U ∗ T = U ∗ U |T | = |T |. Además

T T ∗ = (U |T |) (U |T |)∗ = U |T |2 U ∗ = U (T ∗ T )U ∗ .

Observar U ∗ U = PS =⇒ T U ∗ U = T . Luego (T T ∗ )n = U (T ∗ T )n U ∗ para todo n ∈ N. Por


ello, si tenemos un polinomio p ∈ R[x] tal que p(0) = 0, vale que p(T T ∗ ) = U p(T ∗ T )U ∗ .
Asumamos que T ∗ T ≤ I y también T T ∗ ≤ I. Tomemos ahora los polinomios Pn ∈ R[x] de
la Obs. 4.3.7. Recordar que Pn (0) = 0 para todo n ∈ N. Luego

|T ∗ | = (T T ∗ )1/2 = lı́m Pn (T T ∗ ) = lı́m U Pn (T ∗ T )U ∗


n→∞ n→∞

lı́m Pn (T ∗ T ) U ∗ = U (T ∗ T )1/2 U ∗ = U |T |U ∗ .
 
=U
n→∞

El caso en que no sean menores que I se arregla con una constante positiva ad hoc. Final-
mente, observar que T = T U ∗ U = (U |T |U ∗ )U = |T ∗ |U . 

124
Notación 4.4.5. Sea T ∈ L(H). De ahora en adelante diremos que
“ T = U |T | es la DP de T ” , o bien que “la DP de T está dada por T = U |T | ”
cuando asumimos (o afirmamos) que U es la única I P del Teo. 4.3.6, con dominio (ker T )⊥
(la imagen no hace falta fijarla porque la igualdad T = U |T | dice quien es).
En cambio diremos que “ T = V |T | es una DP de T ” si V ∈ L(H) es alguna I P que lo
cumple, pero no aseguramos que es la I P posta del Teorema. 4
Observación 4.4.6. Sea T ∈ L(H) cuya DP está dada por T = U |T |. La iso parcial U no
es única (en general) si uno no le fija el dominio S = (ker T )⊥ = R( |T | ).
En efecto, si S 6= H y R(T ) no es denso en H, entonces se puede “extender”
U a otra iso
parcial V : N → M, definida en algún N más grande que S, y tal que V S = U . Esto se
puede hacer mandando gente de S ⊥ hacia R(T )⊥ isométricamente. Cualquiera de estas V
cumplirá que V |T | = U |T | = T , porque V S = V R( |T | ) = U .
Lo natural que a uno se le ocurre es querer extender U hasta un V ∈ U(H). Lamentable-
mente, eso no siempre puede hacerse. En el Ejer. que viene veremos contraejemplos, pero
también daremos una serie de condiciones bajo las cuales sı́ existe tal unitario V .
Desde yá podemos comentar que si T es mono, entonces su U es una isometrı́a (ya no es
parcial porque su dominio es (ker T )⊥ = H). Por ende si T es mono pero no tiene rango
denso, la U será una isometrı́a que no es sobre (no queda unitaria) y no se la puede extender
porque ya no queda lugar. 4
Observación 4.4.7. Veamos algunos casos especiales en los que la DP se describe bien. Las
pruebas son directas y se dejan como ejercicio:
Sea T ∈ L(H) cuya DP está dada por T = U |T |. Luego

1. Dada una constante λ = ei θ |λ| ∈ C, entonces

λ T = ei θ U
 
|λ T | = |λ| |T | y que |λ| |T | es la DP de λT .

2. La (única) DP de T ∗ está dada por T ∗ = U ∗ |T ∗ |.

3. Si T es normal y S = (ker T )⊥ es el dominio de U , entonces:

(a) |T | = |T ∗ |.
(b) Los tres operadores T , U y |T | conmutan entre sı́.
(c) Se tiene que U : S → S (recordar que ker T = R(T )⊥ ).

4. Si T ∈ A(H) entonces también U ∈ A(H) (porque U ∗ sirve como I P para T ).

5. Si empezamos con un T ∈ L(H)+ , entonces se tiene que |T | = T y que su DP estará


dada por T = PR(T ) T (muy util en este caso).

125
6. Si T es una isometrı́a, entonces T ∗ T = |T | = I y U = T . Es decir que la DP de T está
dada por T = T I (más util aún). Notar que aquı́ U es única (S = H).

7. Si T ∈ Gl (H), entonces sı́ vale que U = T |T |−1 ∈ U(H), y también en este caso esa U
es la única I P posible para la DP de T .

8. Exhibir algunos ejemplos en que U no pueda ser reemplazada por un V ∈ U(H) (tal
que T = V |T | ). Pensar en nuestro amigo el shift. ¿Qué pasa con su adjunto?

9. Si se cumple alguna de estas condiciones:

(a) T es normal.
(b) T es inversible.
(c) dim H < ∞.

Entonces sı́ existe un V ∈ U(H) que extiende a U , o sea que T = V |T | con V ∈ U(H).
En el caso donde T es normal se usa que U : S → S. En el que dim H = n < ∞, sale
porque dim R( |T | ) = dim R(T ) = n − dim ker T . 4

Ejercicio 4.4.8. Sea H un EH. Dada U : S → M una I P en L(H), a veces conviene


presentarla como U : P → Q, donde P, Q ∈ P(H) son P = PS y Q = PM . Probar que

1. Dados P, Q ∈ P(H), vale que U : P → Q es una I P ⇐⇒ U ∗ U = P y U U ∗ = Q.

2. En particular toda P ∈ P(H) es una I P pensadda como P : P → P .

3. Definamos en P(H) la siguiente relación: Dados P, Q ∈ P(H),

P ∼ Q si existe una U ∈ L(H) tal que U ∗ U = P y UU∗ = Q .

Obvio que tal U debe ser una I P. Esta relación cumple lo que sigue:

(a) Es una relación de equivalencia.


(b) Como tal es poco novedosa: Dados P, Q ∈ P(H), vale que
P ∼Q ⇐⇒ dim R(P ) = dim R(Q) .

La gracia de ∼ es que su definición vı́a las I P’s no usa los rangos, lo que permitirá
definirla en álgebras de operadores donde seá mucho más util. 4

126
4.5 Subespacios invariantes y matrices
Sea T ∈ L(H). Uno de los problemas más famosos de la teorı́a de operadores es el de carac-
terizar los subespacios invariantes de un tal T . Lo famoso es una conjetura que dice que todo
T debe tener alguno, aparte de los obvios H y {0}. Entre las matrices la cosa no tiene gracia,
porque uno sabe que hay autovectores, que por serlo generan “rectas” invariantes. Pero si
alguno de los amigos lectores pudiese probar tal conjetura para H = `2 (N), seguro que in-
ventarı́an el Nobel de matemática para dárselo. Les anticipo que casi todos los matemáticos,
cuando cursábamos funcional, encontramos alguna prueba de eso. Lástima que todavı́a no
hubo ni una que fuera correcta. Ası́ que revisen los detalles. En esta sección no iremos para
ese lado, pero sı́ daremos algunas propiedades interesantes que aparecen cuando uno ya tiene
a tales subespacios. Y las matrices que se usan para ello.
Definición 4.5.1. Sean H un EH y T ∈ L(H). Dado un subespacio S ⊆ H diremos que

– S es invariante por T , o que es T - invariante, si T (S) ⊆ S.

– S reduce a T si tanto S como S ⊥ son T - invariantes.

– Daremos la siguiente notación para las familias de tales subespacios


 
Lat (T ) = S v H : T (S) ⊆ S y Latr (T ) = S v H : S reduce a T .

Observación 4.5.2. Sean H un EH y T ∈ L(H). Hay varias cosas para comentar sobre la
definición anterior. Las pruebas son fáciles y van como ejercicio.

1. Notar que si un S es T -invariante, entonces S ∈ Lat (T ).

2. Si ahora S v H y consideramos el PS ∈ P(H), entonces

S ∈ Lat (T ) ⇐⇒ T PS = PS T PS y
(4.33)
S ∈ Latr (T ) ⇐⇒ T PS = PS T i.e., si T y PS conmutan .

Identificando S ←→ PS pordemos pensar que Latr (T ) ⊆ Lat (T ) ⊆ P(H).

3. La notación Lat viene de latice o reticulado. Observar que dados S , M ∈ Lat (T ),


def def
S ∧ M = S ∩ M ∈ Lat (T ) y S ∨ M = S + M ∈ Lat (T ) .

Lo mismo vale para Latr (T ), porque dados S , M v H cualesquiera

(S ∨ M)⊥ = (S + M)⊥ = S ⊥ ∧ M⊥ y (S ∧ M)⊥ = S ⊥ ∨ M⊥ . (4.34)

La primera sale fácil y la segunda de deduce de la primera poniendo otro ⊥ . El orden


en cuatión es ⊆ . Adivinen quienes son max Latr (T ) y mı́n Latr (T ). 4

127
Proposición 4.5.3. Sean H un EH y T ∈ L(H). Dado un S v H, las suguientes condiciones
son equivalentes:
1. El tal S reduce a T , o sea que S ∈ Latr (T ).
2. Lo mismo para T ∗ : S ∈ Latr (T ∗ ).
3. Se cumple que T (S) ⊆ S y T ∗ (S) ⊆ S, es decir S ∈ Lat (T ) ∩ Lat (T ∗ ).
Demostración. Sea P = PS ∈ P(H). Del hecho de P sea autoadjunto se ve en seguida que
(4.33)
T P = P T ⇐⇒ P T ∗ = T ∗ P S ∈ Latr (T ) ⇐⇒ S ∈ Latr (T ∗ )
   
=⇒ .
Es claro que cualquiera de las anteriores implica que S ∈ Lat (T )∩Lat (T ∗ ). Pero si asumimos
esto, por (4.33) sale que T P = P T P y además T ∗ P = P T ∗ P =⇒ P T = T P . Listo. 
Corolario 4.5.4. Sea H un EH. Si A ∈ A(H) entonces Lat (A) = Latr (A), por lo que todo
S v H que sea A-invariante cumple automáticamente que S ⊥ es también A-invariante.
Demostración. Evidente a partir de la Prop. 4.5.3. 
Ejemplo 4.5.5. Sea H = `2 (Z) y U ∈ U(H) el shift unitario hacia la derecha. Hay libros
enteros sobre cómo es el conjunto Lat (U ). Pero veamos algunos ejemplos sencillos:
Sea B = {en : n ∈ Z} la BON canónica de H. Recordemos que U está caracterizado
por el hecho de que U (en ) = en+1 para todo n ∈ Z. Por lo tanto todos los subespacios
Sn = span {em : m ≥ n} v H cumplen que Sn ∈ Lat (U ). De hecho podemos ser más
especı́ficos, porque uno muestra de inmediato que
U (Sn ) = Sn+1 ⊆ Sn para todo n∈Z. (4.35)
Observar que U , en tanto unitario, es normal. Cuando uno labura en un Hilbert de dimensión
finita, es un ejercicio fácil ver que el Cor. 4.5.4 se generaliza a matrices normales. Sin embargo
el shift tiene una actitud contraejemplar. En efecto, U es normal, todos los Sn ∈ Lat (U ),
pero ninguno de ellos están en Latr (U ). Para mostrarlo basta ver que
en ∈ Sn pero U ∗ = U −1 =⇒ U ∗ en = en−1 ∈ / Lat (U ∗ )
/ Sn =⇒ Sn ∈
para todo n ∈ Z. Luego la Prop. 4.5.3 no permite que los Sn reduzcan a U . 4

Matrices de 2 × 2
4.5.6. Sea H un EH. Fijado un S v H llamemos P1 = PS y P2 = PS ⊥ = I − P1 . Para
dar coherencia a los subı́ndices pongamos que S1 = S y S2 = S ⊥ . Si ahora agarramos un
T ∈ L(H), a partir de la descomposición H = S ⊕ S ⊥ podemos pensar que la acción de
T : S ⊕ S ⊥ → S ⊕ S ⊥ se describirá completamente con cuatro mitades del T operado entre
los cuatro sumandos en cuestión. Concretamente, de ahora en más escribiremos
   
T11 T12 S T11 T12 S1
T = ⊥ = donde Tij = Pi T Pj ∈ L(Sj , Si ) , (4.36)
T21 T22 S T21 T22 S2

128
para i , j ∈ {1 , 2}. También podrı́amos pensar que cada Tij = Pi T |Sj ∈ L(Sj , Si ). Es muy
importante remarcar que estamos pensando a los Tij operando desde Sj hacia Si y no en
todo L(H). Estos datos recuperan a T , porque si me dan un x ∈ H y lo descompongo como
x = x1 + x2 ∈ S1 ⊕ S2 , entonces podemos ver fácimente que
 
T x = P1 T x + P2 T x = T11 x1 + T12 x2 + T21 x1 + T22 x2 ∈ S1 ⊕ S2 = H .
Pero mejor todavı́a es pensar que x = (x1 , x2 ) (vector columna) y entonces
    
T11 T12 x1 S1 T11 x1 + T12 x2
Tx= = ∈ S1 ⊕ S2 = H .
T21 T22 x2 S2 T21 x1 + T22 x2
La gracia de hacer esta representación es que tiene las propiedades usuales de las matrices:
1. Si B ∈ L(H) y le hacemos su matriz como en (4.36), queda que la matriz de B T se
calcula como el producto formal de sus dos matrices de bloques de 2 × 2:
 
   B11 T11 + B12 T21 B11 T12 + B12 T22 S1
B11 B12 T11 T12
BT = =   .
B21 B22 T21 T22
B21 T11 + B22 T21 B21 T12 + B22 T22 S2
Observar que todos los productos y sumas en cuestión tienen sentido, y quedan ubica-
dos de acuerdo al dominio y codominio de cada bloque que interviene.
2. Lo que vimos hasta ahora se puede hacer en un contexto más general: Basta que
P12 = P1 y que P2 = I − P1 , pero no es imprescindible que ellos sean ortogonales. La
fórmula del producto de arriba y otras que veremos más adelante seguirán valiendo en
aquel contexto. Esto es importante sobre todo si uno labura en L(E) donde E es sólo
un Banach, por lo que autoadjuntos ni hay. Sin embargo, nos quedaremos en el caso
de que P1 , P2 ∈ P(H) porque en tal caso la representación matricial funciona bien con
la operación de tomar adjuntos. En efecto, si T ∈ L(H), nos quedará que
 ∗
A C∗
  
A B S ∗ S
T = ⊥ =⇒ T = ∗ ∗ , (4.37)
C D S B D S⊥
es decir que la matriz de T ∗ es una especie de transpuesta conjugada de bloques.
La prueba es inmediata a aprtir de (4.36). Observar que todo camina porque cada
proyector Pi∗ = Pi . Por eso la observación anterior es clave para esto.
Ejercicio 4.5.7. En lo anterior se usó implı́citamente esto: Sean H , K dos EH’s.
Generalizar a los T ∈ L(H , K) la noción de adjunto T ∗ ∈ L(K , H) tal que
hT x , yiK = hx , T ∗ yiH para todo par x ∈ H, y ∈ K , (4.38)
y todas las propiedades que puedan sobrevivir en este contexto. Se sugiere considerar
   
0 0 H ∗ (4.37) 0 S H
AT = ∈ L(H ⊕ K) usando que AT = ,
T 0 K 0 0 K
y que el tal S ∈ L(K , H) cumple (4.38) contra T , ası́ que uno define T ∗ = S. 4

129
3. Fijensé que la Ec. (4.37) nos dice cómo son las matrices de los autoadjuntos:
 
A B S
T = ∈ A(H) ⇐⇒ A ∈ A(S) , D ∈ A(S ⊥ )
C D S⊥
(4.39)
y C = B ∗ ∈ L(S , S ⊥ ) .

4. Remarquemos cómo quedan nuestros proyectores en esta repre:


   
IS 0 S 0 0 S
PS = y PS ⊥ = . (4.40)
0 0 S⊥ 0 IS ⊥ S⊥

Ahora veremos una conscuencia interesante de estos hechos: 4


 
A B S
Proposición 4.5.8. Sean H un EH , S v H y T ∈ L(H). Si T = , luego
C D S⊥
 
A B
1. El S ∈ Lat (T ) ⇐⇒ C = 0 ⇐⇒ T = es “triangular superior” de bloques.
0 D
2. En cambio nuestro subespacio S reduce a T si y sólo si
 
A 0
B = 0 y C = 0 ⇐⇒ T = es “diagonal” de bloques .
0 D

Demostración. Usando la versión matricial de P = PS dada en (4.40), tenemos que


   
(4.33) A 0 A 0
S ∈ Lat (T ) ⇐⇒ T P = P T P ⇐⇒ T P = = = PTP ,
C 0 0 0
    
A B I 0 A 0
porque por ejemplo T P = = . Otra forma de verlo es que si
C D 0 0 C 0
x ∈ S entonces T x ∈ S ⇐⇒ PS ⊥ T x = 0. Pero PS ⊥ T |S es justamente C ∈ L(S , S ⊥ ).
Sabiendo esto, para probar la otra parte basta recordar que Latr (T ) = Lat (T ) ∩ Lat (T ∗ )
(por la Prop. 4.5.3), y después aplicar la Ec. (4.37). 
Ejercicio 4.5.9. 1. Dado S v H, probar que un Q ∈ L(H) cumple que
 
2 IS X S
Q = Q con R(Q) = S ⇐⇒ Q = ,
0 0 S⊥

para algún X ∈ L(S ⊥ , S). ¿Cómo serán lo idempotentes R tales que ker R = S?
1/2
2. Deducir que kQk = 1 + kXk2 = kIH − Qk.
Es interesante observar que la igualdad kQk = kIH − Qk, que vale para todos los proyectores
oblicuos Q ∈ P(H) en un espacio de Hilbert, no sigue siendo cierta para proyectores en un
espacio de Banach, a pesar de la fórmula (2.28) que parecı́a tan simétrica. 4

130
Ejercicio 4.5.10. Sean T ∈ L(H) y S ∈ Lat (T ). Si vale que dim S < ∞ probar que

1. Si T ∈ Gl (H), entonces T (S) = S y por ello S ∈ Lat (T −1 ).

2. Usando lo anterior, probar que se tiene esta equivalencia:


 
A B S
T = ∈ Gl (H) ⇐⇒ A ∈ Gl(S) y D ∈ Gl(S ⊥ ) . (4.41)
0 D S⊥

Acá es imprescindible recordar que A y D operan sólo en sus “lugares”.

3. Mostrar un ejemplo donde lo anterior falle si dim S = ∞.

4. Probar que aún en tal caso, la flecha ⇐= de (4.41) sigue siendo válida.

5. Si ahora S ∈ Latr (T ) y tiene cualquier dimensión, postular y probar una versión de


(4.41) para ese caso. 4

4.6 Operadores de rango finito.


Notaciones 4.6.1. Sea H un EH. Dado T ∈ L(H), notamos rk(T ) = dim R(T ) (es un
cardinal). Por otra parte, conbsideraremos los siguientes conjuntos de operadores:

1. L1 (H) = {T ∈ L(H) : rk(A) ≤ 1}.

2. LF (H) = {T ∈ L(H) : rk A < ∞}.

Observar que LF (H) es un subespacio de L(H), porque rk(A + B) ≤ rk A + rk B < ∞


para cualquier par A , B ∈ LF (H). Su clausura la estudiremos a fondo más adelante. A
continuación daremos una caracterización muy util de los A ∈ L1 (H). 4

Observar que un x ∈ H se puede pensar como un operador x : K → H por la fórmula

x ∈ L(K , H) dado por x(λ) = λ x para λ∈K.

Es claro que su norma como operador coincide con la que tenı́a como vector. Por lo tanto
tenemos que H ∼= L(K , H), donde una flecha es la de arriba, y su inversa es x 7→ x(1).
Pensado ası́, el teorema de representación de Riesz 3.3.1 lo que dice es que todas las fun-
cionales acotadas ϕ ∈ H∗ son del tipo ϕ = y ∗ para algún y ∈ H ∼= L(K , H).
En efecto, si tomamos tal y, pensado como operador, su adjunto cumple que

y ∗ ∈ L(H , K) = H∗ and y ∗ (z) = hy ∗ (z) , 1i = hz , y(1)i = hz , yi ,

para todo z ∈ H, por lo que y ∗ es nuestra vieja ϕy de Riesz. Ahora los tensores:

131
Definición 4.6.2. Sea H un EH. Dados x , y ∈ H consideremos el operador

x y = x ◦ y ∗ ∈ L(H) .
def
(4.42)

Observar que x y actúa en H de la siguiente manera:

x y(z) = x ◦ y ∗ (z) = y ∗ (z) · x = hz, yi x para todo z ∈ H . (4.43)

Por lo tanto, se tiene que R(x y) ⊆ span {x}, por lo que x y ∈ L1 (H). 4
def
Por ejemplo, si x ∈ H tiene kxk = 1, entonces Px = x x ∈ P(H) ∩ L1 (H) es el proyector
sobre span {x}. En efecto, observar que x x(z) = hz, xi · x, la conocida fórmula de dicho
proyector. Otra forma de verlo es que el tal x ∈ L(K , H) es una isometrı́a, por lo que
x x∗ ∈ P(H) con el mismo rango que x, o sea K · x = span {x}.
Proposición 4.6.3. Sea H un EH. Si A ∈ L(H), se tiene que
A ∈ L1 (H) ⇐⇒ existen z , w ∈ H tales que A = z w .
Es decir que L1 (H) = {z w : z , w ∈ H}.
Demostración. Si rkA = 1, tomemos z ∈ R(A) unitario. Luego R(A) = K · z. Entonces para
todo x ∈ H vale que A x = ϕ(x) · z, donde uno verifica sin dificultad que la ϕ ∈ H∗ . Todo
termina eligiendo el w ∈ H que cumple que ϕ = ϕw = w∗ . 
A continuación va un lista con las propiedades básicas de los tensores:
Proposición 4.6.4. Sea H un EH. Fijemos x , y ∈ H. Luego:

1. La norma: kx yk = kxk kyk.

2. El adjunto: (x y)∗ = (xy ∗ )∗ = y x∗ = y x.

3. El espectro: El único autovalor de x y que puede ser no nulo es λ1 = hx, yi.

4. Si A , B ∈ L(H), se tiene que A ◦ x = A x ∈ L(K , H). Luego


∗
A · (x y) = A · x · y ∗ = (Ax) y and (x y) · B = B ∗ · (y x) = x (B ∗ y) .


5. Dados v , w ∈ H, se tiene que (x y) · (v w) = hv, yi · x w ∈ L1 (H).


x x 1
6. Si x 6= 0, el proyector Px = kxk
kxk
= kxk2
x x .

Demostración. Algunos items vienen con su prueba. Veamos el de las normas: Tenemos que

kx y(z)k = |hz , yi| kxk = | y ∗ (z)| kxk para todo z∈H.

Recordar que y 7→ y ∗ = h · , yi era isométrica. Ası́ sale que kx yk = kxk kyk. 

132
4.6.5 (I P’s con rango finito). Si ahora tomamos x , y ∈ H ambos unitarios, entonces
U = x y : Py → Px es una I P .
En efecto, se tiene que U ∗ U = (y x) · (x y) = y y mientras que U U ∗ = x x. Esto
se puede generalizar del siguiente modo: Si B1 = {uk : k ∈ In } y B2 = {vk : k ∈ In } son dos
SON’s finitos del mismo cardinal, y llamamos S = span {B1 } , M = span {B2 }, entonces
X
U= vk uk : S → M es una I P .
k∈ In
P
En efecto, si B1 = B2 , usando (3.13) sale que PS = Puk = U . Si no son iguales,
k∈ In
X X X
U ∗U = uj vj · vk uk = hvk , vj i uj uk = uk uk = PS
j , k∈ In j , k∈ In k∈ In

Análogamente sale que U U ∗ = PM . Observar que cada vk = (vk uk ) uk = U uk .


De hecho, ası́ se representa cualquier V ∈ LF (H) que sea I P. Más concretamente, si la I P
es V : N → T y nos dan B = {wk : k ∈ In } que es una BON de N , entonces V (B) es una
BON de T y, si llamamos yk = V wk para cada k ∈ In , queda que
X
V = yk wk .
k∈ In

En efecto, como V es iso desde N hasta T , luego dim N = dim T = n < ∞. El resto de la
cuenta sale porque ambas expresiones tienen el mismo dominio y coinciden en cada wk . 4

4.6.6 (Operadores de rango finito). Si tomamos ahora cualquier T ∈ LF (H) y tomamos


B1 = {uk : k ∈ In } una BON de S = (ker T )⊥ , entonces vale la fórmula
P P
T = T PS = T uk uk = T uk uk .
k∈ In k∈ In

Esto muestra que LF (H) = span {L1 (H)}. Observar que LF (H) no sólo es un subespacio,
sino que es un ideal bilátero del álgebra L(H). Esto sale por el item 4 de la Prop. 4.6.4.
Pero mejor aún, si T = U |T | es la DP de T , podemos pensar a |T | : S → S. Ahı́ |T |
tiene una BON de autovectores, ası́ que asumimos que cada |T | uk = sk (T ) uk , donde los
sk (T ) > 0 son los autovalores de |T | dentro de S, también llamados valores singulares de T .
Además, como U : S → U (S) = R(T ), nos queda que U (B) es una BON de R(T ). Si
llamamos a cada U uk = vk , nos queda la hermosa fórmula
P P
T = U |T | = U sk (T ) uk uk = sk (T ) vk uk , (4.44)
k∈ In k∈ In

que describe todo T ∈ LF (H) en términos de dos SON’s (uno genera S y el otro el R(T ) ) y de
los valores singulares de T . Observar que la Ec. (4.44) nos asegura de una que si T ∈ LF (H),
entonces también T ∗ ∈ LF (H). Este tipo de expresiones serán generalizadas (a series) en el
Capı́tulo de operadores compactos. 4

133
Observación 4.6.7. Casi todo lo que vimos en esta sección se puede generalizar a operdores
entre dos Hilberts distintos. Por ejemplo, si x ∈ K and y ∈ H, entonces x y ∈ L1 (H , K),
y ellos generan el subespacio LF (H , K) (con las definiciones obvias).
Más aún, todo lo anterior (salvo lo que use la * y la DP) se puede generalizar a un espacio de
Banach E y sus operadores L(E). Allı́ habrá que usar tensores ϕ x para x ∈ E y ϕ ∈ E ∗ .
Ası́ podemos hacer que actúen haciendo ϕ x(z) = ϕ(z) · x para z ∈ E.
Y ya que estamos, también se hace en L(E , F ) donde F es otro EB. Dejamos como ejercicio
(para el lector tenáz) reescribir toda la sección en cada uno de estos contextos nuevos. 4

134
4.7 Ejercicios del Cap 4: Operadores en EH’s
Ejercicios aparecidos en el texto
4.7.1. Veamos más detalles en un espacio producto tipo el del Ejer. 3.8.7, cuando son 2 coordenadas. Sean
H y K dos EH’s. Luego el espacio H ⊕ K con la estructura usual de C-EV (sumando y multiplicando por
escalares en cada coordenada) y el PI dado por


(x1 , y1 ) , (x2 , y2 ) = hx1 , x2 iH + hy1 , y2 iK para (x1 , y1 ) , (x2 , y2 ) ∈ H ⊕ K

es un nuevo EH. Se llama la “suma ortogonal” de H y K. Probar que

1. Dado un (x , y) ∈ H ⊕ K su norma cumple que k (x , y) k2 = kxk2H + kyk2K .

2. La convergencia es en las dos coordenadas a la vez. Deducir que H ⊕ K era completo.

3. Dados subespacios S ⊆ H y T ⊆ K su suma S ⊕ T ⊆ H ⊕ K es un subespacio tal que

S ⊕T =S ⊕T ya que (S ⊕ T )⊥ = S ⊥ ⊕ T ⊥ .

4. La flecha H 3 x 7→ (x , 0) ∈ H ⊕ {0} v H ⊕ K es una isometrı́a y por ello hómeo con la imagen.

5. Idem para K ,→ {0} ⊕ K v H ⊕ K.

6. Con las identificaciones del caso, queda que H⊥ = K y que K⊥ = H, siempre dentro de H ⊕ K.

Dados ahora M ∈ L(H) y N ∈ L(K), sea

M ⊕ N ∈ L(H ⊕ K) dado por M ⊕ N (x , y) = (M x , N y) ∈ H ⊕ K

para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas:

1. Primero hay que verificar que efectivamente M ⊕ N ∈ L(H ⊕ K).

2. Más aún, se tiene que kM ⊕ N k = max{ kM k , kN k }.

3. Entre estos operadores, las operaciones sumar, multiplicar (i.e. componer), adjuntar e invertir (si se
puede), se hacen en cada coordenada.

4. Dado λ ∈ K se tiene que M ⊕ N − λ IH⊕K ∈ Gl (H ⊕ K) ⇐⇒ M − λ IH ∈ Gl (H) y N − λ IK ∈ Gl (K).

5. R(M ⊕ N ) = R(M ) ⊕ R(N ) ⊆ H ⊕ K, y es cerrado ⇐⇒ ambos rangos lo son.

6. ker(M ⊕ N ) = ker M ⊕ ker N v H ⊕ K.

7. Un T ∈ L(H ⊕ K) es de estos diagonales ⇐⇒ conmuta con las proyecciones a PH y PK . 4

4.7.2. Sea T ∈ L(H). Probar que

T es normal ⇐⇒ A = Re T conmuta con B = Im T , (4.45)

y que en tal caso T ∗ T = T T ∗ = A2 + B 2 . Suena conocido, no? 4


4.7.3. Sea H un EH. Trabajemos dentro de A(H) pensado como un R-EN. Probar que

1. El conjunto L(H)+ es un cono convexo cerrado dentro de A(H).

2. Gl (H)+ = {A ∈ A(H) : A ≥ c I para algún c > 0} es exactamente el interior de L(H)+ .

135
3. Deducir que Gl (H)+ es abierto en A(H). 4
4.7.4 (Criterio de Dini). Sea f = (fn )n∈ N una sucesión en C[0, 1] que cumple:
1. Existe f ∈ C[0, 1] tal que fn (t) −−−−→ f (t) para todo t ∈ [0, 1].
n→∞

2. La sucesión f es creciente: fn (t) ≤ fn+1 (t) para todo n ∈ N y todo t ∈ [0, 1].
Con esas hipótesis probar que la convergencia fn −−−−→ f es uniforme en todo [0, 1]. 4
n→∞

4.7.5. Sea H un EH. Probar que el orden ≤ de A(H), restringido al conjunto P(H) de los proyectores, es
un reticulado (con sup e ı́nf de a muchos). Más especı́ficamente, probar que
1. Dados P, Q ∈ P(H) con R(P ) = S y R(Q) = M, entonces son equivalentes

(a) P ≤ Q
(b) S ⊆ M
(c) P Q = P o también (c’) QP = P
(d) Q − P ∈ P(H).
def
2. En tal caso Q − P = PM S , donde M S = M ∩ (S ∩ M)⊥ .

3. Deducir que el orden de P(H) coincide con el de la inclusión entre los S v H.

4. Verificar que los subespacios cerrados tienen sup e ı́nf (aún de familias infinitas) sin dramas.

Sugerimos usar que, vı́a Pitágoras, x ∈ M ⇐⇒ kxk2 = kQ xk2 . 4


4.7.6. Sea T ∈ L(H) cuya DP está dada por T = U |T |. Probar que:
1. Dada una constante λ = ei θ |λ| ∈ C, entonces

λ T = ei θ U
 
|λ T | = |λ| |T | y que |λ| |T | es la DP de λT .

2. La (única) DP de T ∗ está dada por T ∗ = U ∗ |T ∗ |.

3. Si T es normal y S = (ker T )⊥ es el dominio de U , entonces:

(a) |T | = |T ∗ |.
(b) Los tres operadores T , U y |T | conmutan entre sı́.
(c) Se tiene que U : S → S (recordar que ker T = R(T )⊥ ).

4. Si T ∈ A(H) entonces también U ∈ A(H) (porque U ∗ sirve como I P para T ).

5. Si T ∈ Gl (H), entonces sı́ vale que U = T |T |−1 ∈ U(H), y que U es la única I P posible para la DP
de T .

6. Si T es una isometrı́a, entonces T ∗ T = |T | = I y U = T . Es decir que la DP de T está dada por


T = T I (muy util en este caso). También aquı́ U es única (S = H).

7. Exhibir algunos ejemplos en que U no pueda ser reemplazada por un V ∈ U(H) (tal que T = V |T | ).
Pensar en nuestro amigo el shift. ¿Qué pasa con su adjunto?

8. Si se cumple alguna de estas condiciones:

(a) T es normal.

136
(b) T es inversible.
(c) dim H < ∞.

Entonces sı́ existe un V ∈ U(H) que extiende a U , o sea que T = V |T | con V ∈ U(H).
Sug: En el caso de T normal usar que U : S → S. En el que dim H = n < ∞, usar que dim R( |T | ) =
dim R(T ) = n − dim ker T . 4

4.7.7. Sea H un EH. Dada U : S → M una I P en L(H), a veces conviene presentarla como U : P → Q,
donde P, Q ∈ P(H) son P = PS y Q = PM . Probar que

1. Dados P, Q ∈ P(H), vale que U : P → Q es una I P ⇐⇒ U ∗ U = P y U U ∗ = Q.

2. En particular toda P ∈ P(H) es una I P pensadda como P : P → P .

3. Definamos en P(H) la siguiente relación: Dados P, Q ∈ P(H),

P ∼ Q si existe una U ∈ L(H) tal que U ∗U = P y UU∗ = Q .

Obvio que tal U debe ser una I P. Esta relación cumple lo que sigue:

(a) Es una relación de equivalencia.


(b) Como tal es poco novedosa: Dados P, Q ∈ P(H), vale que
P ∼Q ⇐⇒ dim R(P ) = dim R(Q) .

La gracia de ∼ es que su definición vı́a las I P’s no usa los rangos, lo que permitirá definirla en álgebras
de operadores donde seá mucho más util. 4

4.7.8. Sean H un EH y T ∈ L(H). Probar que

1. Si un subespacio S es T -invariante, entonces S ∈ Lat (T ).

2. Si ahora S v H y consideramos el PS ∈ P(H), entonces

S ∈ Lat (T ) ⇐⇒ T PS = PS T PS y
(4.46)
S ∈ Latr (T ) ⇐⇒ T PS = PS T i.e., si T y PS conmutan .

Identificando S ←→ PS pordemos pensar que Latr (T ) ⊆ Lat (T ) ⊆ P(H).

3. La notación Lat viene de latice o reticulado. Mostrar que dados S , M ∈ Lat (T ),

def def
S ∧ M = S ∩ M ∈ Lat (T ) y S ∨ M = S + M ∈ Lat (T ) .

4. Lo mismo vale para Latr (T ), porque dados S , M v H cualesquiera

(S ∨ M)⊥ = (S + M)⊥ = S ⊥ ∧ M⊥ y (S ∧ M)⊥ = S ⊥ ∨ M⊥ . 4

4.7.9. Sea H un EH. Dado T ∈ L(H), probar que Latr (T ) = Lat (T ) ∩ Lat (T ∗ ).
4.7.10. Sea H un EH. En el Cor. 4.5.4 se probó que si A ∈ A(H) entonces Lat (A) = Latr (A), o sea que
todo S v H que sea A-invariante cumple automáticamente que S ⊥ es también A-invariante.

1. Probar a mano que lo de arriba es cierto.

137
2. Si ahora N ∈ L(H) es normal, mostrar que la igualdad Lat (N ) = Latr (N ) sigue valiendo si uno
asume que dim H < ∞.

3. Sean H = `2 (Z) y U ∈ U(H) el shift unitario hacia la derecha. Observar que U , en tanto unitario, es
normal. Sea B = {en : n ∈ Z} la BON canónica de H.

(a) Mostrar que U está caracterizado por el hecho de que U (en ) = en+1 para todo n ∈ Z.
(b) Los subespacios Sn = span {em : m ≥ n} v H cumplen que Sn ∈ Lat (U ).
(c) De hecho podemos ser más especı́ficos:

U (Sn ) = Sn+1 ⊆ Sn para todo n∈Z. (4.47)

(d) Probar que, sin embargo, ningumo de los Sn ∈ Latr (U ).


/ Lat (U ∗ ) para todo n ∈ Z.
Sug: Mostrar primero que Sn ∈ 4

4.7.11. Verificar los detalles de todas las cuentas matriciales de 4.5.6. 4


4.7.12. 1. Dado S v H, probar que un Q ∈ L(H) cumple que
 
IS X S
Q2 = Q con R(Q) = S ⇐⇒ Q = ,
0 0 S⊥

para algún X ∈ L(S ⊥ , S). ¿Cómo serán lo idempotentes R tales que ker R = S?
1/2
2. Deducir que kQk = 1 + kXk2 = kIH − Qk. 4
4.7.13. Sean T ∈ L(H) y S ∈ Lat (T ). Si vale que dim S < ∞ probar que

1. Si T ∈ Gl (H), entonces T (S) = S y por ello S ∈ Lat (T −1 ).

2. Usando lo anterior, probar que se tiene esta equivalencia:


 
A B S
T = ∈ Gl (H) ⇐⇒ A ∈ Gl(S) y D ∈ Gl(S ⊥ ) . (4.48)
0 D S⊥

Acá es imprescindible recordar que A y D operan sólo en sus “lugares”.

3. Si se cumple lo de (4.48), describir la matriz de T −1 .

4. Mostrar un ejemplo donde (4.48) falle si dim S = ∞.

5. Probar que aún en tal caso, la flecha ⇐= de (4.48) sigue siendo válida.

6. Si S ∈ Latr (T ) y tiene cualquier dimensión, postular y probar una versión de (4.48) para ese caso.

7. De nuevo en el caso S ∈ Latr (T ), comparar la representación matricial de T con los operadores


diagonales A ⊕ D ∈ L(S ⊕ S ⊥ ) del Ejer. 4.7.1. 4

4.7.14. Sean H , K dos EH’s. Generalizar a los T ∈ L(H , K) la noción de adjunto T ∗ ∈ L(K , H) tal que

hT x , yiK = hx , T ∗ yiH para todo par x ∈ H, y ∈ K , (4.49)

y de todas las propiedades que puedan sobrevivir en este contexto. Se sugiere considerar el operador

0 T∗
   
0 0 H H
AT = ∈ L(H ⊕ K) usando que A∗T = . 4
T 0 K 0 0 K

138
4.7.15. Sea H un EH. Fijemos x , y ∈ H. Recordemos que el tensor x y ∈ L1 (H) era
x y(z) = x ◦ y ∗ (z) = y ∗ (z) · x = hz, yi x para todo z ∈ H .
Probar las siguientes cosas:
1. Vale que R(x y) = span {x} y que su núcleo es ker x y = {y}⊥ .

2. La norma: kx yk = kxk kyk.

3. El adjunto: (x y)∗ = y x.

4. El espectro: El único autovalor de x y que puede ser no nulo es λ1 = hx, yi. (adivinen quién es el
autovector).

5. Si A , B ∈ L(H), las composiciones con x y quedan ası́ :


A ◦ (x y) = (Ax) y and (x y) ◦ B = x (B ∗ y) .

6. Dados v , w ∈ H, se tiene que (x y) · (v w) = hv, yi · x w ∈ L1 (H).


x x 1
7. Si x 6= 0, el proyector Px = kxk kxk = kxk2 x x .

8. Los espacios L1 (H) = {z w : z , w ∈ H} y LF (H) = span {z w : z , w ∈ H} = span {L1 (H)}.

9. Concluir que LF (H) es un ideal bilátero de L(H).

Ejercicios nuevos
4.7.16. Sea H un EH. Dados S , M v H, llamemos P = PS y Q = PM . Probar que son equivalentes:
1. Ellos conmutan P Q = QP .

2. S = S ∩ M ⊕ S ∩ M⊥ .
   

3. M = M ∩ S ⊕ M ∩ S ⊥ .
   

4. P Q = PS∩M ∈ P(H).

5. QP = PS∩M ∈ P(H).
Deducir que 2 y 3 por lo general NO son válidas. Convencerse de eso dibujando tres rectas en R2 . De paso
mostrar que si dim S = dim M = 1 entonces lo de arriba vale ⇐⇒ S = M o bien S ⊥ M. 4
4.7.17. Sea H un EH. Probar que los puntos extremales de la bola BL(H) = {T ∈ L(H) : kT k ≤ 1} son las
isometrı́as {U ∈ L(H) : kU xk = kxk para todo x ∈ H}.
Sug. Usar que los puntos extremales de la bola BH son los vectores de norma uno, Ejer. 3.8.22.
4.7.18. Sea H un EH. Probar que las proyecciones de P(H) son los puntos extremales del conjunto:
def
[0, I] = {A ∈ L(H) : 0 ≤ A ≤ I} .
4.7.19. Sea P ∈ P(H) cuyo rango es R(P ) = S. Esta proyección induce una descomposición de los
operadores de A ∈ L(H) en matrices de 2 × 2, del siguiente modo:
 
A11 A12 S
A=
A21 A22 S⊥

donde A11 ∼ P AP pero pensado en L(S), y análogamente se toman las compresiones A12 = P A(I − P ),
A21 = (I − P )AP y A22 = (I − P )A(I − P ) a los espacios donde actúan. Probar:

139
1. Si A ∈ A(H), entonces su matriz asociada tiene la siguiente forma:
 
C B S
A= con C ∈ A(S) y D ∈ A(S ⊥ ) .
B∗ D S⊥

Más aún, si A ∈ L(H)+ entonces C ∈ L(S)+ y D ∈ L(S ⊥ )+ .


 
C 0 S
2. Si un A ∈ L(H) se representa A = y nos dan un P ∈ C[X], entonces
0 D S⊥
 
P (C) 0 S
P (A) = . 4
0 P (D) S⊥

4.7.20. Sea A ∈ L(H)+ y tomemos su raiz cuadrada A1/2 ∈ L(H)+ . Probar que

ker A = ker A1/2 pero R(A) ⊆ R(A1/2 ) ⊆ R(A) .

Mostrar además que si R(A) 6v H entonces las inclusiones son estrictas. 4


4.7.21. [Test de Schur] Sean {anm }n , m∈N ∈ K N×N
y {λn }n∈N ∈ R+ tales que
N

P P
|anm | λn ≤ b λm para todo m ∈ N, y |anm | λm ≤ c λn para todo m∈N,
n∈N m∈N

para ciertas constantes b , c ∈ R. Probar que

1. Existe un operador T ∈ L(H) que tiene a {anm } como matriz (respecto a una BON de H).

2. Además vale que kT k2 ≤ bc. 4

4.7.22 (Matriz de Hilbert). Sea H un EH con una BON {en : n ∈ N}. Queremos un T ∈ L(H) tal que

1
hT em , en i = para todo par n, m ∈ N .
n+m−1

Probar que el tal T existe. Mostrar además que T = T ∗ y que kT k ≤ π.


Sug.: usar el test de Schur con λn = (n − 1/2)−1/2 y estimar las series usando integrales. 4
+ 2
4.7.23. Sea T ∈ L(H) . Probar que T ≤ kT k T . 4
4.7.24 (Dilación unitaria de contracciones). Sea T ∈ L(H) tal que kT k ≤ 1. Probar que

1. Se tiene la igualdad T (I − T ∗ T )1/2 = (I − T T ∗ )1/2 T .

2. Trabajando en L(H ⊕ H), tendremos que el operador

(I − T T ∗ )1/2
 
T
UT = es unitario . 4
(I − T ∗ T )1/2 −T ∗

140
Capı́tulo 5

Espacios localmente convexos

Recordemos que un espacio vectorial topológico (EVT) es un espacio topológico (E, τ )


en el que E es un K-espacio vectorial, y la topologı́a τ es de Hausdorff y cumple que las
operaciones vectoriales
E × E 3 (x, y) 7→ x + y ∈ E y C × E 3 (λ , x) 7→ λ x ∈ E (5.1)
son continuas, cuando en E × E y en C × E se usan las topologı́as producto. En particular
esto hace que, para cada x ∈ E fijo, las aplicaciones Tx : E → E dada por Tx (y) = x + y
y Mx : C → E dada por Mx (λ) = λ x (5.2)
sean continuas. Observar que cada Tx es un hómeo, con inversa T−x . Esto dice que, fijado
un x ∈ E, podemos calcular siempre los entornos de x como
def 
Oτ (x) = x + Oτ (0) = x + U = Tx (U ) : U ∈ Oτ (0) .
O sea que para dar una topologı́a de EVT, basta con conocer una base (o sub-base) de
entornos del cero de E.
Repasemos que una p : E → R es una seminorma si dados x , y ∈ E y λ ∈ K, se cumple que
1. p(x) ≥ 0.
2. p(λx) = |λ| p(x).
3. p(x + y) ≤ p(x) + p(y).
Remarquemos que puede pasar que p(x) = 0 aunque x 6= 0 (por eso el “semi”).

5.1 Seminormas
Vimos que una sola norma produce una estructura métrica en E. Una seminorma no alcanza
(la d asociada es solo un seudodistancia, como la k · kp antes de cocientar a Lp ). Sin em-
bargo, es muy común construir topologı́as en espacios vectoriales usando familias de muchas
seminormas. Como se pide Hausdorff, hagamos una definición:

141
Definición 5.1.1. Sea E un K-espacio vectorial.

1. Una familia F de seminormas en E se llama separadora si para cada par de puntos


x 6= y de E existe p ∈ F tal que p(x − y) 6= 0. Esto implica que la familia de funciones
dz,p : E → R+ dadas por dz,p (x) = p(x−z), para x ∈ E (con parámetros (z, p) ∈ E ×F)
separe los puntos de E.

2. Llamaremos σ(E, F) a la topologı́a inicial inducida por esta familia de funciones. Es


decir, la menor topologı́a sobre E que hace continuas a las funciones dz,p (para todo
z ∈ E y toda p ∈ F).

Observaciones: 5.1.2. Si la familia F de seminormas separa puntos de E, resulta que


σ(E, F) es una topologı́a de Hausdorff. En efecto, observar que:

1. Dado x ∈ E, una sub-base de entornos de x está constituida por conjuntos de la forma

Uz , p , ε = {y ∈ E : |dz,p (y) − dz,p (x)| < ε} = {y ∈ E : |p(y − z) − p(x − z)| < ε} ,

donde z ∈ E, p ∈ F y ε > 0.

2. Más aún, para obtener una sub-base de Oσ(E,F ) (x) alcanza con tomar los conjuntos

Ux , p , ε = Up , ε = {y ∈ E : p(y − x) < ε} para todo par p∈F , ε>0.

En efecto, la desigualdad triangular asegura que Up , ε ⊆ Uz , p , ε para todo z ∈ E.

3. Con estos semibasicos alcanza para testear que σ(E, F) es Hausdorff. Para verlo basta
con recordar que fijados x, y ∈ E, se tiene que

p(x − y) ≤ p(x − z) + p(y − z) para todo z∈E y toda p∈F .

4. Fijado un x ∈ E, los entornos Oσ(E,F ) (x) tienen una base formada por conjuntos
\ 
Upk , ε = y ∈ E : pk (y − x) < ε , k ∈ In , (5.3)
k∈In

moviendo n ∈ N, n-uplas (pk )k∈In en F y ε > 0.

5. Veamos ahora que σ(E, F) hace de E un EVT: Fijados x , y ∈ E y un ε > 0, consi-


deremos el entorno Vp = Ux , p , ε × Uy , p , ε alrededor de (x, y). Luego se tiene que

|p x + y − (x0 + y 0 ) | ≤ p(x − x0 ) + p(y − y 0 ) < 2 ε para todo (x0 , y 0 ) ∈ Vp ,




por lo que la flecha E × E 3 (z, w) 7→ z + w manda Vp adentro de Ux+y , p , 2 ε . Un


entorno básico U de x + y es una intersección de estos entornos de x + y, relativos a 2 ε

142
T
y finitas p1 , . . . , pn ∈ F. Si tomamos V = Vpk , resulta ser un entorno de x + y
k∈ In
en E × E tal que “la suma” lo manda adentro de U . Por otra parte,
|p(λ x) − p(λ0 x0 )| ≤ p(λ x − λ0 x0 ) = p(λ x − λ0 x + λ0 x − λ0 x0 )

≤ |λ − λ0 | p(x) + |λ0 | p(x − x0 ) ,


para x , x0 ∈ E y λ , λ0 ∈ K cualesquiera. Tomando entornos adecuados de un par
(λ , x) ∈ K × E fijo, sale la continuidad de la flecha K × E 3 (µ , y) 7→ µ y. 4

La verdadera utilidad de estos procesos para producir topologı́as EVT radica en que ellos
permiten encontrar la topologı́a que se adecue a una convergencia dada en el espacio E.
Sin entrar en detalles, pensemos en convergencias “de la f y de todas sus derivadas”, o
convergencia uniforme en compactos, etc. Una familia muy importante de convergencias en el
contexto de espacios normados (llamadas “la débil w” y “la débil estrella w∗ ”), acompañadas
de sus topologı́as onda σ(E, F), se verá en las secciones siguientes. Veamos ahora en qué
sentido la topologı́a σ(E, F) se describe en términos de convergencias:
Proposición 5.1.3. Sea E un K-EV, y sea σ(E, F) la topologı́a inducida por una familia
F de seminormas que separa puntos de E. Dada una red x = (xi )i∈ I en E, se tiene que
σ(E,F ) R
xi −−−−→ x ∈ E ⇐⇒ p(x − xi ) −−→ 0 para toda p∈F . (5.4)
i∈ I i∈ I

Demostración. Para mostrarlo basta fijarse quienes son los σ(E, F)-entornos del x, como se
describe en la Ec. (5.3). O bien, recordar qué pasaba con las topologı́as iniciales. 
La Proposición anterior ayuda notablemente a la hora de testear si una función dada (que
sale de, o que llega a un EVT dado por seminormas) es continua. Como estamos en un
contexto “lineal”, lo primero que uno debe estudiar es la continuidad de los operadores
lineales. Para ello pongamos (y recordemos) algunos nombres:
Notaciones 5.1.4. Sea E un K-EV.
1. Denotaremos por E 0 = {ϕ : E → K : ϕ es lineal } al espacio dual algebráico de E.
2. Los ejemplos más usuales de seminormas en E consisten en tomar una funcional lineal
ϕ ∈ E 0 y definir p = pϕ = |ϕ|.
3. Por lo general, uno toma un subespacio F ⊆ E 0 de funcionales, le pide que separe
puntos de E, y toma la familia separadora de seminormas F = {pϕ : ϕ ∈ F }. En tal
caso suele escribirse σ(E, F ) en lugar de σ(E, F).
4. Si me dan cualquier topologı́a τ que haga de E un EVT, no toda ϕ ∈ E 0 debe ser
automáticamente continua. De hecho, si dim E = ∞, la “mayorı́a” de las funcionales
no lo son. Por ello de denomina dual “topológico” de E al K-EV
 
Eτ∗ = (E, τ )∗ = {ϕ ∈ E 0 : ϕ es τ -continua } = E 0 ∩ C (E, τ ), K . (5.5)

En el caso que τ provenga de una norma k · k, se escribı́a E ∗ a secas.

143
5. Observar que para cualquier ϕ ∈ E 0 , se tiene que

ϕ ∈ (E, τ )∗ ⇐⇒ ϕ es τ -continua en el punto 0 ∈ E . (5.6)

Esto se debe a la igualdad ϕ(x) − ϕ(y) = ϕ(x − y) (y a que ϕ(0) = 0). Recordar que
la condición (5.1) asegura que una red xi −−→ x ⇐⇒ x − xi −−→ 0.
i∈ I i∈ I

6. Si E era un C-EV, denotaremos por ER0 y (E, τ )∗R a sus duales pensándolo como R-EV
(o sea las funcionales ϕ : E → R que son R-lineales). 4

Proposición 5.1.5. Sea E un K-EV y sea ϕ ∈ E 0 . Dada una familia separadora F de


seminormas para E, las suguientes condiciones son equivalentes:

1. La funcional ϕ es σ(E, F)-continua.

2. Existen un M ≥ 0 y una n-upla (pk )k∈In en F tales que

|ϕ(x)| ≤ M máx pk (x) , para todo x∈E .


k∈In

Demostración. Si ϕ ∈ (E, σ(E, F) )∗ , por ser continua en 0 debe existir un entorno básico
del 0, pongamos que dado por un ε > 0 y una n-upla (pk )k∈In en F, tales que
\
{x ∈ E : pk (x) < ε} ⊆ {x ∈ E : |ϕ(x)| < 1} . (5.7)
k∈In

Es algo engorroso, aunque elemental, verificar que esto implica que


1
|ϕ(x)| ≤ máx pk (x) , para todo x∈E .
ε k∈In
En efecto, el caso |ϕ(x)| = 0 no tiene gracia. Si |ϕ(x)| > 0 y sucediera que pk (x) < ε|ϕ(x)|
para todo k ∈ In , la Ec. (5.7) asegurarı́a que vale la siguiente contradicción flagrante:
   
x |ϕ(x)| x
pk < ε para todo k ∈ In =⇒ 1 = = ϕ <1.

|ϕ(x)| |ϕ(x)| |ϕ(x)|
1
Poniendo M = , tenemos que 1 =⇒ 2. La recı́proca es inmediata (vı́a redes), ya que las
ε
pk son continuas en 0 por hipótesis. 
Teorema 5.1.6. Sea E un K-espacio vectorial y sea F ⊆ E 0 un subespacio vectorial que
separa puntos de E. Consideremos en E la topologı́a σ(E, F ). Luego se tiene que
 ∗
E , σ(E, F ) = F . (5.8)

Es decir que las únicas funcionales lineales sobre E que son σ(E, F )-continuas son las que
ya estaban en F .

144
Demostración. Es claro que toda ϕ ∈ F queda σ(E, F )-continua (si no lo ve claro, repase la
Ec. (5.4) ). Para la recı́proca, hace falta el siguiente lema algebráico:
Lema 5.1.7. Sean f y (fk )k∈In funcionales lineales en el K-espacio vectorial E. Las siguientes
condiciones son equivalentes:
P
1. f = αk fk , para ciertas α1 , ..., αn ∈ K.
k∈In

2. Existe α > 0 tal que |f (x)| ≤ α máx |fk (x)| para todo x ∈ E.
k∈In
T
3. ker fk ⊆ ker f .
k∈In

Demostración. La única implicación que no es evidente es (3) =⇒ (1). Si A : E → Kn es el


operador lineal dado por Ax = (f1 (x), ..., fn (x) ) para x ∈ E, consideremos el diagrama

E CC
A / Kn
CC
CC g
f CC! 
K
ker fk ⊆ ker f , existe una funcional lineal g : Kn → C tal que g ◦ A = f .
T
Como ker A =
k∈In
O, si se prefiere, la condición ker A ⊆ ker f permite definirla (bien) como

g : R(A) → K dada por g(Ax) = f (x) ,

y luego extenderla Kn . Pero toda funcional lineal sobre Kn es de la forma


X
g(z) = αk zk para z = (z1 , . . . , zn ) ∈ Kn .
k∈In

En particular, tomando z = Ax = (f1 (x), ..., fn (x) ) obtenemos que


X
f (x) = g(Ax) = αk fk (x) para todo x ∈ E , 4
k∈In

Seguimos con el Teorema: Si ϕ ∈ E 0 es σ(E, F )-continua, la Prop. 5.1.5 asegura que


existen M > 0 una n-upla (ϕk )k∈In en F tales que
Lema 5.1.7 n
X
|ϕ(x)| ≤ M máx |ϕk (x)| para todo x ∈ E =⇒ ϕ= αk ϕ k ,
k∈In
1

para ciertos αk en K. Esto dice que ϕ ∈ F . 


Observación 5.1.8. Más adelante veremos la importancia del Teo. 5.1.6 para el caso de dos
topologı́as (dadas por seminormas) que son muy importantes en el contexto de los EN’s.
Ellas son las llamadas “debil” o “w” y la “debil * ” o w∗ . Para no ser tan reiterativos
mandamos al lector interesado al párrafo 5.5.1 donde se las define, describe y estudia. 4

145
5.2 Espacios localmente convexos.
Una de las ventajas de trabajar en K-espacios vectoriales es que en ellos tiene sentido la
noción de convexidad: Sea E un K-EV, y sea A ⊆ E. Recordemos que A es convexo si,
dados x, y ∈ A se tiene que
def
[x, y] = {(1 − λ) x + λ y : λ ∈ [0, 1] } ⊆ A .

Observar que [x, y] denota al “segmento” recto que une a x con y dentro de E. La teorı́a de
conjuntos convexos dentro de EVT’s está muy desarrollada, y algunas cosas de ella veremos
en lo que sigue. Empecemos con algunas propiedades quasitriviales, para entrar en tema.
Proposición 5.2.1. Sea E un K-EV. Se tienen las siguientes propiedades:
1. La intersección de cualquier cantidad de conjuntos convexos en E queda convexa.
2. El transladar a un convexo le conserva esa propiedad. Es decir que si A ⊆ E es
convexo, también lo será A + x = {a + x : a ∈ A}, para todo x ∈ E.
3. Más aún, si A, B ⊆ E son ambos convexos, también A + B = {a + b : a ∈ A y b ∈ B}
queda convexo.
4. Si A ⊆ E es convexo, para todo λ ∈ K se tiene que λA = {λa : a ∈ A} es convexo.
5. Dada un topologı́a τ que haga de E un EVT, para todo convexo A ⊆ E se tiene que
τ
su τ -clausura A es también convexo.
Demostración. Es un ejercicio ideal para rumiar la definición de convexidad. Hagamos la
τ
prueba del item 5, que no es tan fácil: Si x ∈ A pero y ∈ A , tomemos una red y = (yi )i∈ I
en A tal que yi −−→ y. Entonces, para todo λ ∈ [0, 1] sale que
i∈ I

τ
A 3 λyi + (1 − λ)x −−→ λy + (1 − λ)x =⇒ [x, y] ⊆ A .
i∈ I

τ
Haciendo lo mismo, pero ahora del lado del x, sale que A es también convexo. 
Volviendo a la sección anterior, en particular a la Ec. (5.3), notamos que si nos dan una
familia F separadora de seminormas en E, resulta que la topologı́a σ(E, F) tiene, en cada
punto x ∈ E, una base de entornos formada por abiertos convexos. A esta propiedad le
daremos un nombre:
Definición 5.2.2. Sea (E, τ ) un ETV. Decimos que E es un espacio localmente convexo
(se abrevia ELC) si, para cada x ∈ E existe una base βx de Oτa (x) que consiste de abiertos
convexos. 4
Observación 5.2.3. Dado (E, τ ) un ETV, se tiene que
1. Si queremos verificar que E es ELC, la condición anterior (bases de entornos convexos
para cada punto x) basta testearla en x = 0, porque todo U ∈ Oτa (x) se puede escribir
como U = W + x con W ∈ Oτa (0).

146
2. Si uno sabe que E es un ELC, se puede asumir que la base β0 consta de convexos
simétricos, en el sentido de que V = −V = {−x : x ∈ V }.
En efecto, dado un W de la base que uno tenı́a, se lo cambia por V = W ∩ −W , que
es más chico, sigue siendo abierto y convexo, pero ahora queda simétrico.

3. Más aún, se puede hacer una base de Oτa (0) que consta de abiertos de la forma

V = U − U = {x − y : x , y ∈ U } para algún U abierto convexo simétrico .

Para ello, observemos que si V es simétrico y convexo como en 2, y tomamos U = 12 V ,


entonces V = U − U . En efecto, si x, y ∈ U , luego x − y = 21 (2x + 2(−y) ) ∈ V . 4

Esta observación será clave a la hora de sacarle el jugo al siguiente Teorema de Minkowski,
que de alguna manera dice que toda topologı́a en E que lo haga ELC viene dada como una
σ(E, F) vı́a una familia adecuada de R-seminormas.
Recordemos que, dado E un K-EV, una función q : E → R se llamaba sublineal si cumple
la desigualdad triangular (q(x + y) ≤ q(x) + q(y) para todo par x, y ∈ E) y además

q(λ x) = λ q(x) (sin módulo) , para todo x ∈ E y todo λ ∈ R+ . (5.9)

Teorema 5.2.4. Sean E un ETV y U ⊆ E un abierto convexo tal que 0 ∈ U . Entonces

1. La función pU : E → R+ dada por

1
pU (x) = ı́nf{ s > 0 : x∈U }, para x ∈ E , (5.10)
s
es una función sublineal, y se denomina la funcional de Minkowski de U .

2. Se tiene además que U = { x ∈ E : pU (x) < 1 }.

Demostración. Recordemos que, por la Ec. (5.1), si fijamos un x ∈ E se tiene que la función
K 3 λ 7→ λ x es continua. En particular, tenemos que nx −−−→ 0 ∈ U , por lo que n1 x ∈ U
n→∞
a partir de cierto n0 . Luego pU (x) ≤ n0 < ∞. La comprobación que pU es homogénea
respecto a escalares positivos es un ejercicio elemental sobre ı́nfimos, que omitiremos.
1 1
Fijemos x, y ∈ E y tomemos escalares s, t > 0 tales que s
x y t
y ∈ U . Como U es convexo

1 s 1 t 1
(x + y) = ( x )+ ( y ) ∈ U =⇒ pU (x + y) ≤ s + t .
s+t s+t s s+t t
Esto muestra que pU (x + y) ≤ pU (x) + pU (y). Veamos ahora el item 2: Si x ∈ U , debe existir
un ε > 0 tal que también (1 + ε)x ∈ U (esto vale por el comentario del principio). Entonces
1
tenemos que pU (x) ≤ 1+ε < 1. Recı́procamente, si pU (x) < 1, debe existir un s < 1 tal que
1
s
x ∈ U . Como 0 ∈ U y U es convexo nos queda que x = (1 − s)0 + s 1s x ∈ U . 

147
Observación 5.2.5. Si uno asume que (E, τ ) es un R-ELC, y toma β0 una base de entornos
abiertos, convexos y simétricos del 0 ∈ E (se usa la Obs. 5.2.3), cada U ∈ β0 produce, vı́a
el Teo. 5.2.4 una sublineal pU tal que U = {x ∈ E : pU (x) < 1}. Ahora bien, el hecho de
que los U ’es sean simétricos implica que pU (−x) = pU (x) para todo x ∈ E (esto se deduce
de la Ec. (5.10) ). Pero esto sumado a la homogeneidad para t ≥ 0, asegura que las pU son
R-seminormas. Si ahora uno toma la familia
F = {pU : U ∈ β0 } ,
es fácil ver que τ = σ(E, F), como asegurábamos antes. 4

5.3 Hahn Banach versión separación


Teorema 5.3.1 (de separación de H-B). Sea (E, τ ) un EVT y sean U, V ⊆ E dos convexos
disjuntos y no vacı́os, tales que U es abierto. Luego existen ϕ ∈ (E, τ )∗ y t ∈ R tales que
Re ϕ(x) < t ≤ Re ϕ(y) para todo par x∈U , y∈V .
Demostración. Caso real. Fijemos x0 ∈ U , y0 ∈ V , y consideremos el conjunto
[
W = y0 − x0 + U − V . Como W = y0 − x0 − y + U ,
y∈V

vemos que W es abierto. Es claro que 0 ∈ W , y una cuenta directa muestra que W es,
además, convexo. Tomemos la funcional de Minkowski pW de la Teo. 5.2.4 y el punto z =
y0 − x0 . Usando que U ∩ V = ∅, concluimos que z ∈ / W , por lo que pW (z) ≥ 1. Definamos
ϕ0 : Rz → R por ϕ0 (az) = a, (a ∈ R). Entonces si a ≥ 0, se tiene que
ϕ0 (az) = a ≤ apW (z) = pW (az) .
Si a < 0, tenemos que ϕ0 (az) = a < 0 ≤ pW (az). Ası́, ϕ0 ≤ pW en todo R z. Por el
teorema de Hahn-Banach 2.1.2, podemos extender ϕ0 a una funcional R-lineal ϕ : E → R
tal que ϕ(x) ≤ pW (x), ahora para todo x ∈ E. Veamos que esta ϕ ∈ (E, τ )∗ . Basta ver la
continuidad en 0 ∈ E. Para ello, observemos que si x ∈ W , se tiene que ϕ(x) ≤ pW (x) < 1.
Si ahora me dan un ε > 0, podemos deducir de lo anterior que
|ϕ(w)| < ε para todo w ∈ −εW ∩ εW ,
que es un entorno de 0. Lista la continuidad. Si x ∈ U , y ∈ V entonces
ϕ(z)=1
x−y+z ∈W =⇒ ϕ(x − y + z) < 1 =⇒ ϕ(x) < ϕ(y) .
Además ϕ(U ) y ϕ(V ) son intervalos reales disjuntos, puesto que U y V son convexos y ϕ es
lineal. Por otra parte ϕ(U ) es abierto pues U lo es. Basta entonces tomar t = sup ϕ(U ). 4
Caso complejo. Consideremos a E como R-EV, y encontremos, por el caso anterior, una
funcional R-lineal φ ∈ (E, τ )∗R tal que
φ(U ) < t ≤ φ(V ) , para cierto t∈R.
Luego ϕ(x) = φ(x) − iφ(ix) cumple que es C-lineal, τ -continua, y que Re ϕ = φ. 

148
Corolario 5.3.2. Sea (E, τ ) un ELC y sean K, F ⊆ E dos convexos disjuntos y no vacı́os,
tales que K es compacto y F cerrado. Luego existen ϕ ∈ (E, τ )∗R , ε > 0 y t ∈ R tales que

ϕ(x) ≤ t − ε < t ≤ ϕ(y) para todo par x∈K , y∈F . (5.11)

Demostración. Si existiera un abierto convexo U tal que 0 ∈ U y (K +U )∩F = ∅ estarı́amos


hechos, porque en tal caso existirı́an una ϕ ∈ (E, τ )∗R y un t ∈ R tales que

ϕ(x) < t ≤ ϕ(y) para todo par x∈K +U , y ∈F .

Eso saldrı́a aplicando el Teo. 5.3.1 al abierto convexo K + U y al convexo F . Pero como
tenemos que K es compacto, K ⊆ K + U y ϕ continua, existirı́a el ε > 0 tal que valga (5.11).
Para construir el U se hace ası́: Para cada x ∈ K tomemos un convexo simétrico Ux ∈ Oτa (0)
tal que, aún tomando Vx = Ux − Ux valga que x + Vx ⊆ E \ F . Existen porque F es cerrado
y por la Obs. 5.2.3. Es calro que existen x1 , . . . , xn ∈ K tales que
[ [
K⊆ xk + Uxk ⊆ x k + V xk ⊆ E \ F .
k∈ In k∈ In
T
Tomemos ahora U = Uxk . Observemos que, dado x ∈ K, existe un k ∈ In tal que
k∈ In
x ∈ xk + Uxk . Luego x + U ⊆ xk + ( Uxk + U ) 
⊆ xk + Vxk ⊆
 E \ F . Como esto pasa para
S
todos los x ∈ K llegamos a que (K + U ) ∩ F = x + U ∩ F = ∅. 
x∈K

Corolario 5.3.3. Sea (E, τ ) es un ELC. Dados F ⊆ E un convexo cerrado, y x ∈ E \ F ,


existen una ϕ ∈ (E, τ )∗R tal que ϕ(x) < mı́n ϕ(y).
y∈F

Proof. Los puntos son compactos. 


Corolario 5.3.4. Si (E, τ ) es un ELC, su dual Eτ∗ = (E, τ )∗ separa puntos de E.
Demostración. Sabemos que E es Hausdorff. Luego los puntos son también cerrados. 

5.4 Krein-Milman
Definición 5.4.1. Sea E es un K-EV y fijemos K ⊆ E.
1. Un subconjunto A ⊆ K es extremal en K si para cada par x, y ∈ K se cumple que

(x, y) ∩ A 6= ∅ =⇒ x , y ∈ A ,

donde (x, y) = {(1 − λ) x + λ y : λ ∈ (0, 1)} es el segmento “abierto” que va de x a y.

2. Un z ∈ K es un punto extremal de K si el conjunto {z} es extremal en K, o sea si


para cada par x, y ∈ K se cumple que

z ∈ (x, y) =⇒ x = y = z .

149
3. Denotaremos por Ext(K) al conjunto de puntos extremales de K.

Ejemplo 5.4.2. Sea E es un K-EV y sea K ⊆ E. Los subconjuntos extremales de K se


pueden visualizar como vértices, lados o caras de K (sobre todo si es convexo y cerrado).
Intuitivamente, una manera de encontrar ese tipo de partes es cortar a K con un hiper-
plano de E, e ir corriéndose hasta los dos bordes, a ver que queda. Esto se puede hacer
analı́ticamente cortando a K con hiperplanos afines del tipo {x ∈ E : ϕ(x) = λ} para una
ϕ ∈ ER∗ , y distintos valores de λ. En efecto, si K es acotado, los conjuntos
 
mϕ (K) = x ∈ K : ϕ(x) = ı́nf ϕ(y) y Mϕ (K) = x ∈ K : ϕ(x) = sup ϕ(y) (5.12)
y∈K y∈K

son, efectivamente, extremales para K. La prueba es directa, y queda como ejercicio.


Lo interesante es que, si K era compacto, entonces mϕ (K) 6= ∅ 6= Mϕ (K). Esto se prueba
tomando, por ejemplo, una red x = (xi )i∈ I en K tal que ϕ(xi ) −−→ ı́nf ϕ(y), y luego una
i∈ I y∈K
subred convergente, cuyo lı́mite debe caer en mϕ (K). 4
Ejercicio 5.4.3. Sea E es un K-EV y sea K ⊆ E. Si me dan un conjunto A0 ⊆ K que
es extremal para K, y otro A1 ⊆ A0 que es extremal para A0 , probar que A1 es también
extremal para K. 4
Ejercicio 5.4.4. Sea E es un K-EV. Sean K ⊆ E un convexo, y x ∈ K. Probar que

x ∈ Ext(K) ⇐⇒ K \ {x} sigue siendo convexo . 4

Proposición 5.4.5. Sea E un K-ELC. Si K ⊆ E es compacto, entonces Ext(K) 6= ∅.


Demostración. Sea C = {A ⊆ K : A es extremal en K, cerrado y no vacı́o }, ordenado por
la inclusión al revés. El conjunto C 6= ∅ porque K ∈ C. Para usar el Lema de Zorn, veamos
que elTorden de C es inductivo: Sea A ⊆ C una familia totalmente ordenada. Llamemos
A= A. Como ∅ ∈ / C y el orden en A es total, vemos que A tiene la PIF. Como K es
compacto, el Teo. A.12.3 nos da que A 6= ∅. El hecho de que una intereseción de extremales
es extremal es bien fácil. Y de cerrados ni hablar.
Ası́ que A ∈ C y es una buena cota inferior de A. Ahora sı́, Zorn asegura que existe un
A0 ∈ C maximal (o sea que A0 es minimal para la ⊆). Veremos que A0 contiene un único
punto, que será entonces un punto extremal de K.
Supongamos que existieran x1 , x2 ∈ A0 dos puntos distintos. Como E es un ELC, el
Cor. 5.3.4 nos asegura que existe una ϕ ∈ ER∗ tal que ϕ(x1 ) 6= ϕ(x2 ). Observar que, como A0
es cerrado y vive en K, debe ser compacto. Por el Ejem. 5.4.2, el conjunto

mϕ (A0 ) = {x ∈ A0 : ϕ(x) = ı́nf ϕ(y)} ⊆ A0


y∈A0

es cerrado, no vacı́o y extremal para A0 . Por el Ejer. 5.4.3, vemos que mϕ (A0 ) es también
extremal para K. Sin embargo, tenemos que A0 6= mϕ (A0 ), porque mϕ (A0 ) no puede

150
contener simultáneamente a los puntos x1 y x2 . Como esto contradice la maximalidad-
minimalidad de A0 , vemos que A0 = {x} y que x ∈ Ext(K). 
El resultado más importante de esta sección es el Teorema de Krein Milman, que formaliza
un enunciado intuitivamente natural: un convexo compacto es el conjunto de combinaciones
convexas de sus puntos extremales. Uno se imagina polı́gonos o elipses y parece convincente.
Además, ahora ya sabemos que los compactos en un ELC tienen extremales. Definamos
ahora las cápsulas convexas:
Definición 5.4.6. Sea E un R-EV, y sea A ⊆ E. La cápsula convexa de A es el conjunto

Conv (A) = { combinaciones convexas de elementos de A } .


P
O sea que los elementos de Conv (A) son todos los del tipo λk ak , donde los ak ∈ A y
P k∈In
los λk viven en R+ y cumplen que λk = 1. Si ahora tenemos que (E, τ ) es un EVT,
k∈In
denotaremos por Conv (A) = Conv τ (A) a la τ -clausura de Conv (A). 4

Veamos ahora una propiedades obvias de estas nociones: Sea E un EVT, y sea A ⊆ E.

1. Tanto Conv (A) como Conv (A) son convexos.

2. Más aún, se puede caracterizar a Conv (A) (resp. Conv (A) ) como el menor convexo
(resp. convexo cerrado) que contiene a A.

3. A es convexo si y sólo si A = Conv (A).

4. Conv (Conv (A) ) = Conv (A) y Conv (Conv (A) ) = Conv (Conv (A) ) = Conv (A).

Teorema 5.4.7 (Krein - Milman). Sea E un ELC y sea K ∈ E compacto. Entonces

K ⊆ Conv Ext(K) .

En particular, se tienen las siguiente igualdades:

1. Conv Ext(K) = Conv K.

2. Si asumimos que K es convexo (y compacto), entonces K = Conv Ext(K).

Demostración. Llamemos K0 = Conv Ext(K), y supongamos que existe un x0 ∈ K \ K0 .


Por el teorema de separación de Hahn-Banach 5.3.1, deben existir ϕ ∈ ER∗ y t ∈ R tales que
ϕ(x0 ) < t ≤ ϕ(K0 ). Llamemos K1 = mϕ (K) ⊆ K, que ya sabemos que es un subconjunto
no vacı́o, cerrado (luego compacto) y extremal en K. Por la Prop. 5.4.5, podemos tomar un
x ∈ Ext(K1 ) que, por el Ejer. 5.4.3 es tanbién extremal para K. Sin embargo,

ϕ(x) = inf ϕ(y) ≤ ϕ(x0 ) < t ≤ ϕ Ext(K) .
y∈K

Esta contradicción muestra que K ⊆ Conv Ext(K). 

151
Ejercicio 5.4.8. Sean (E, τ ) un ELC y K ⊆ E un un compacto.
/ K, existe U ∈ Oτa (0) convexo tal que (x + U ) ∩ (K + U ) = ∅.
1. Dado x ∈
2. Deducir que, si K fuera también convexo, existe ϕ ∈ ER∗ tal que

ϕ(x) < t < t + ε < ϕ(K) para ciertos t ∈ R y ε > 0 .

3. Encontrar un compacto K (ahora no convexo) tal que Conv K no es compacto.



4. En cambio, si también Conv K es compacto, entonces Ext Conv K ⊆ K. 4

5.5 Topologı́as débiles en espacios normados y ELC’s


Sea E un espacio de Banach. Se dice que E es reflexivo si la imagen de E por la isometrı́a
JE : E ,→ E ∗∗ es todo el espacio E ∗∗ . En otras palabras, si las únicas funcionales continuas
sobre E ∗ son las evaluaciones en puntos de E.
Esto es siempre ası́ cuando dim E < ∞, y también para los Lp (X, Σ, µ) y los `p , para
1 < p < ∞. Pero muchas veces deja de pasar en el caso infinitodimensional (sin ir más
lejos, L1 (X, Σ, µ) no es reflexivo). Mucha teorı́a de espacios de Banach sale bien redonda
en los espacios reflexivos, por lo que está muy desarrollado el estudio de condiciones que
aseguren la reflexividad. Algunos de estos criterios, en particular aquellos que involucran el
comportamiente de E relativo a sus topologı́as débiles, serán tratados en este texto.
Sin embargo, la mayorı́a de los espacios de Banach importantes no son reflexivos. Para
desfacer este entuerto, las topologı́as débiles también ayudan lo suyo. Esto se debe a una
especie de reflexividad débil que es automática, como veremos enseguida. Otras grandes
ventajas de usarlas provienen de dos teoremas muy profundos, el de Goldstine (que da otro
sucedáneo de la reflexividad), y fundamentalmente el de Alaoglu, que asegura que en ciertos
espacios de Banach (aquellos que son el dual de otro) la bola es, al menos, w∗ -compacta.

5.5.1. Hay dos ejemplos importantes de topologı́as inducidas por seminormas, en el contexto
de espacios normados y ELC:
1. Sea E un espacio normado y E ∗ su dual (topológico). Consideremos sobre E la familia
de seminormas

F = {pϕ : ϕ ∈ E ∗ } , donde pϕ (x) = |ϕ(x)| , (x ∈ E) .

Como ya vimos, la topologı́a inducida por F sobre E se denota σ(E, E ∗ ) y se denomina


la topologı́a débil de E. A veces se la abrevia como “w”.
2. La topologı́a σ(E ∗ , E) en E ∗ , es la inducida por la familia de seminormas

F = {px : x ∈ E} , donde px (ϕ) = |Jx (ϕ)| = |ϕ(x)| , (ϕ ∈ E ∗ ) . (5.13)

A σ(E ∗ , E) se la denomina topologı́a débil ∗ de E ∗ , y se la abrevia con w∗ .

152
3. Observar que, en realidad, la σ(E ∗ , E) está producida por un subespacio de E ∗∗ , que
no es otro que JE (E), donde JE : E → E ∗∗ es la isometrı́a definida en la Ec. (2.8). Pero
como la acción de estas funcionales sobre E ∗ es justamente operar por evaluación en
los x ∈ E, la notación σ(E ∗ , E) es justa, y por supuesto es más económica que poner
σ(E ∗ , JE (E) ).

4. Más aún, si ahora suponemos que (E, τ ) es solo un ELC, también tenemos un dual
topológico Eτ∗ = (E, τ )∗ que separa puntos. Luego podemos definir:

(a) En E una topologı́a débil σ(E, Eτ∗ ), también llamada w.


(b) En Eτ∗ , que a priori no tiene ninguna topologı́a el pobre, ponemos también la
topologı́a w∗ , o sea la σ(Eτ∗ , E), con la misma definición que en la Ec. (5.13) (pero
acá el Jx ∈ (Eτ∗ )0 ).

5. Observar que σ(E, Eτ∗ ) y σ(Eτ∗ , E) tienen una linda propiedad (esto incluye el caso en
que E es normado): Por el Teo. 5.1.6, vemos que
 ∗  ∗
E , σ(E, Eτ∗ ) = Eτ∗ y Eτ∗ , σ(Eτ∗ , E) ∼
= E, (5.14)

donde el ∼
= es lo que uno se imagina.
6. Las topologı́as w y w∗ se describen bien por convergencias (de hecho es de ahı́ de donde
nacen): Por la Ec. (5.4), se tiene que
w
xi −−→ x ⇐⇒ ϕ(xi ) −−→ ϕ(x) para toda ϕ ∈ E∗ (o ϕ ∈ Eτ∗ ) . (5.15)
i∈ I i∈ I

w∗
En forma similar, ϕi −−→ ϕ ⇐⇒ ϕi (x) −−→ ϕ(x) para todo x ∈ E.
i∈ I i∈ I

En otras palabras, la convergencia w es la convergenicia “contra toda ϕ del dual”,


y la w∗ es ni más ni menos que la puntual. Observar que estas caracterizaciones
muestran, en particular, que las topologı́as débies recién definidas son efectivemente
más débiles que las del ambiente (cuando las hay). Veremos ahoran una importantı́sima
consecuencia del teorema de separación de HB 5.3.1, que va en la otra dirección: 4

Proposición 5.5.2. Sea (E , τ ) un ELC, y sea A ⊆ E un conjunto convexo. Luego


τ σ(E , Eτ∗ )
A = A .

Es decir que, para un convexo, las clausuras fuerte y débil coinciden.


τ σ(E , E ∗ )
Demostración. Es claro que σ(E, Eτ∗ ) ⊆ τ =⇒ A ⊆ A τ
, por ejemplo porque
τ
en τ es más difı́cil converger. Tomemos ahora cualquier x ∈ E \ A . Como E es ELC,
τ
existe un entorno abierto y convexo U de x tal que U ∩ A = ∅. Además, la Prop. 5.2.1

153
τ
nos asegura que A sigue siendo convexo. Estamos en las condiciones del Teo. 5.3.1, que
asegura la existencia de una ϕ ∈ Eτ∗ y un t ∈ R tales que
τ  τ 
Re ϕ( U ) < t ≤ Re ϕ A =⇒ Re ϕ(x) < t ≤ Re ϕ A .
def
Por un lado vemos que A ⊆ F = {y ∈ E : Re ϕ(y) ≥ t}. Por el otro, como nuestra ϕ ∈ Eτ∗ ,
entonces ella y su parte real deben ser σ(E, Eτ∗ )-continuas y por ende el conjunto F debe ser
σ(E , Eτ∗ )
σ(E, Eτ∗ )-cerrado. Ası́ que ya tenemos la inclusión A ⊆ F.
σ(E , Eτ∗ )
Sin embargo, el puntito x cumplı́a que Re ϕ(x) < t =⇒ x ∈
/ F =⇒ x ∈ /A . Como
τ σ(E , Eτ∗ ) τ
ese x era un punto cualquiera de E \ A , hemos probado que A ⊆A . 
Corolario 5.5.3. Sea (E , τ ) un ELC. Si A ⊆ E es convexo y τ -cerrado, entonces debe ser
también σ(E , Eτ∗ )-cerrado. 

Observar que podemos aplicar el Cor. 5.5.3 a subespacios, para los que será lo mismo ser
fuerte o debilmente cerrados. Por otra parte, en el caso de que E fuera normado, vale para
las bolas cerradas. Esto dice que la convergencia w no puede “agrandar normas”:
Ejercicio 5.5.4. Sean E un EN, un punto x ∈ E y una sucesión x = (xn )n∈N en E tales
w
que xn −−−→ x. Probar que
n→∞

1. Nuestra x = (xn )n∈ N debe ser acotada en norma (remember Cor. 2.5.2).

2. Además kxk ≤ lim inf kxn k.


n→∞

3. Existe otra sucesión (zn )n∈N que ahora vive en la cápsula convexa Conv {xn : n ∈ N}
k· k
que cumple la condición más fuerte zn −−−→ 0. 4
n→∞

El siguiente resultado dice, en particular, que el Cor. 5.5.3 falla si no pedimos que los con-
juntos sean convexos. Por lo general, sucede el fenómeno de que las clausuras débiles “llenan
agujeros”, como veremos a continuación:
Proposición 5.5.5. Si E es un espacio de Banach de dimensión infinita, entonces la clausura
de SE = {x ∈ E : kxk = 1} en la topologı́a w = σ(E, E ∗ ) es toda la bola BE .
Demostración. Antes que nada, el Cor. 5.5.3 asegura que BE es σ(E, E ∗ )-cerrada. Para
σ(E,E ∗ )
probar que B1 = {x ∈ E : kxk < 1} ⊆ SE basta demostrar que todo entorno V de
todo x0 ∈ B1 corta a la esfera SE . Tomemos un básico

V = {x ∈ E : |ϕk (x) − ϕk (x0 )| < ε, k ∈ In } ,

para ciertos ε > 0 y ϕ1 , ..., ϕn ∈ E ∗ . Observemos que M =


T
ker ϕk 6= {0}, porque si
k∈ In
no la función lineal E 3 z 7→ (ϕ1 (z) , ..., ϕn (z) ) ∈ Cn serı́a inyectiva, por lo que E tendrı́a
dimensión finita. Notemos que x0 + M ⊆ V . A esta altura sugerimos hacer un dibujo:

154
Un subespacio puesto arriba de un punto x0 ∈ B1 tiene que “cortar” a la cascara SE .
Gráficamente no quedan dudas. Veamoslo en letras: Tomemos un z0 ∈ M \ {0}, y la función

f :R→R, dada por f (t) = kx0 + t z0 k .

Es claro que f es continua, f (0) = kx0 k < 1 y lı́m f (t) = +∞. Luego existe un s ∈ R tal
t→∞
que f (s) = kx0 + s z0 k = 1. Esto significa que x0 + s z0 ∈ (x0 + M ) ∩ SE ⊆ V ∩ SE . 
La Prop. 5.5.2 estudia clausuras con la topologı́a w de un normado. En caso de que este
sea el dual de alguien, tiene también su w∗ (que es más debil aún que su w, porque usa
solo funcionales de su pre-dual, que son muchas menos que las de su post-dual). Veremos a
continuación el renombrado teorema de Goldstine que dice que clausuras en norma y en la
w∗ pueden no coincidir, aún en conjuntos convexos, y muy famosos. Pero antes de enunciarlo
repasemos unas cosas.
Recordemos que, dado un espacio normado E, denotamos por JE : E ,→ E ∗∗ denota a la
isometrı́a natural, que en general no es epi. Por ello, JE (BE ) es cerrada en la norma de E ∗∗
(siempre que E sea un Banach), pero por lo general (si E no es reflexivo) es mucho más
chica que BE ∗∗ . Sin embargo, para la otra topologı́a usual de E ∗∗ , que es la σ(E ∗∗ , E ∗ ) (o
sea la w∗ de E ∗∗ ), veremos que JE (BE ) es siempre densa en la bola BE ∗∗ .
Teorema 5.5.6 (Goldstine). Sea E es un espacio normado y JE : E ,→ E ∗∗ es la isometrı́a
natural. Llamemos B = JE (BE ) ⊆ E ∗∗ . Luego vale que
w∗
B es σ(E ∗∗ , E ∗ ) densa en BE ∗∗ , o sea que JE (BE ) = BE ∗∗ . (5.16)

Si bien esta formulación es muy rimbombante, demos también esta otra más concreta:

Para toda ρ ∈ BE ∗∗ existe una red x = (xi )i∈ I en BE tal que ϕ(xi ) −−→ ρ(ϕ) ,
i∈ I

para todas las ϕ ∈ E ∗ (con la misma red).


w∗
Demostración. En principio hace falta ver que B ⊆ BE ∗∗ , lo que significa que el tomar

lı́mites w no agranda las normas. En efecto, si tomamos una red x = (xi )i∈ I en BE , y
w∗
asumimos que JE xi −−→ ρ ∈ E ∗∗ , para cada ϕ ∈ BE ∗ nos da que
i∈ I

ρ(ϕ) = lim JE xi (ϕ) = lim ϕ(xi ) .


i∈I i∈I

Como todos los términos ϕ(xi ) cumplen que |ϕ(xi )| ≤ kϕk kxi k ≤ 1, vemos que |ρ(ϕ)| ≤ 1.
Como ϕ ∈ BE ∗ era cualquiera, deducimos que kρk ≤ 1, o sea que ρ ∈ BE ∗∗ .
w∗
Llamemos A = B , que es convexo y w∗ -cerrado (incluso más: en breve veremos que es
w∗ -compacto por Alaoglu). Supongamos que existe un ρ ∈ BE ∗∗ \ A. Como (E ∗∗ , w∗ ) es un
ELC, podemos encontrar un abierto U ∈ σ(E ∗∗ , E ∗ ) que cumpla las siguientes condiciones:

U es convexo , ρ∈U y U ∩A=∅ .

155
Les podemos aplicar el teorema separación de H-B 5.3.1 a los convexos A y U (con éste
último w∗ -abierto). Él nos dice que existe una funcional Φ ∈ (E ∗∗ , w∗ )∗ tal que
 
Re Φ A ≤ t < Re Φ U , para cierto t ∈ R .

Como 0 ∈ A, vemos que t ≥ 0. Observar que, por el Teo. 5.1.6, sabemos que
∗
E ∗∗ , σ(E ∗∗ , E ∗ ) = JE ∗ (E ∗ ) ⊆ E ∗∗∗ =⇒ Φ = JE ∗ ϕ para cierta ϕ ∈ E ∗ .

Ası́ que, si tomamos un x ∈ BE , como JE x ∈ A, tendremos que



t ≥ Re Φ(JE x) = Re JE ∗ ϕ JE x = Re JE x (ϕ) = Re ϕ(x) .

Pero si ϕ(x) = eiθ |ϕ(x)|, la misma desigualdad vale para y = e−iθ x ∈ BE . Luego,

|ϕ(x)| = e−iθ ϕ(x) = ϕ(y) = Re ϕ(y) ≤ t .

Esto dice que kΦk = kϕk = sup |ϕ(x)| ≤ t. Lamentablemente, por otro lado tendremos que
x∈BE

kΦk ≤ t < Re Φ(ρ) ≤ |Φ(ρ)| ≤ kΦk kρk ≤ kΦk (porque ρ estaba en BE ∗∗ ) .

Este desastre provino de suponer que BE ∗∗ \ A 6= ∅, y a otra cosa mariposa. 


Observación 5.5.7. El Teorema de Goldstine tiene aplicaciones en la dirección de carac-
terizar la reflexividad de espacios de Banach (que ya veremos). Sin embargo, su formulación
concreta es también muy util en varios contextos. El más interesante lo contaremos somer-
amente a continuación, a pesar de que habrá que creer un montón de cosas.
Sea X un ET compacto Hausdorff. Tomemos el espacio de Banach C(X) = C(X, C), con la
norma k·k∞ . En 1.3.3 mencionamos el Teor. de Riesz, que dice que C(X)∗ = Mr (X), que es
el espacio de medidas Borelianas, complejas y regulares, dotado de la norma kµk = |µ|(X),
donde |µ| es la variación total de µ (que es una medida positiva finita). La acción de Mr (X)
sobre C(X) está dada por la integración:
Z
Fijada µ ∈ Mr (X) , hacemos ϕµ (f ) = f dµ , para cada f ∈ C(X) .
X

Ahora bien, el espacio C(X)∗∗ = Mr (X)∗ es inabordable. Pero uno conoce muchos de sus
elementos. Por ejemplo, si g : X → C es medible Borel y acotada, se puede definir
Z

ρg ∈ Mr (X) dada por ρg (µ) = g dµ , para cada µ ∈ Mr (X) .
X

Más aún, es fácil ver (si uno sabe algo de estas cosas) que kρg k = kgk∞ . Por ejemplo,
Z Z
g dµ ≤ |g| d|µ| ≤ kgk∞ |µ|(X) = kgk∞ kµk , para toda µ ∈ Mr (X) .


X X

156
La otra desigualdad sale usando las medidas puntuales µx ∈ Mr (X), (x ∈ X) que integran
evaluando en x y tienen norma uno. Ahora llegamos al Teorema de Goldstine 5.5.6. Él
nos dice que, para cada g : X → C medible Borel y acotada, se puede encontrar una red
f = (fi )i∈ I en C(X) tal que kfi k∞ ≤ kρg k = kgk∞ para todo i ∈ I, que además cumple que
Z Z
fi dµ −−→ g dµ , para toda µ ∈ Mr (X) .
X i∈ I X

w∗
Es divertido observar que el hecho de que fi −−→ g significaba que convergen “puntualmente”,
i∈ I
pero que en este contexto los “puntos” vendrı́an a ser todas las medidas µ ∈ Mr (X). Como
ellas incluyen a las µx para los x ∈ X, eso es decir mucho más que la la otra noción de
convergencia “puntual” dada por fi (x) −−→ g(x) para todo x ∈ X.
i∈ I

Esta aproximación de las acotadas por las continuas (del mismo tamaño y para todas las
medidas con una sola red) es interesante en sı́ misma, pero es de capital importancia al
estudiar el teorema espectral para operadores acotados autoadjuntos en espacios de Hilbert.
Todo lo anterior se puede generalizar al caso en que X sea tan solo LKH, y el Banach sea
C0 (X), cuyo dual sigue siendo Mr (X). Aplicando esto a X = N con la topologı́a discreta,
releemos lo anterior como:

c0 ∗ = `1 = Mr (N) , (`1 )∗ = `∞ y que truncar aproxima w∗ a los elementos de `∞ .

Esto sale a mano, pero da una idea del tipo de teorema que hemos visto. 4

5.6 Alaoglu
El siguiente teorema es lo más importante de todo el Capı́tulo. Para medir su impacto, baste
recordar que ningún espacio normado infinitodimensional puede tener bolas compactas. El
tema es que los espacios de Banach, aún siendo métricos completos, no son casi nunca
localmente compactos. Y para peor, la falta compacidad local hace fallar casi la mitad
de los teoremas que uno quisiera probar, y que uno hasta se cree que deben ser ciertos,
porque en caso finito parecen elementales. Sin embargo el hecho de que, en ciertos casos,
uno pueda usar que la bola es compacta, aunque sea para una topologı́a drásticamente más
débil, muchas veces saca las papas del fuego.
Teorema 5.6.1 (Alaoglu). Sea E un espacio normado. Entonces se tiene que

BE ∗ = {ϕ ∈ E ∗ : kϕk ≤ 1} es σ(E ∗ , E)- compacta .

Demostración. Abreviemos BE ∗ = B. Cada una de las ϕ ∈ B cumplen que |ϕ(x)| ≤ kxk


para todo x ∈ E. Llamemos Dx = Q {λ ∈ K : |λ| ≤ kxk}. Entonces ϕ(x) ∈ Dx para cada
x ∈ E. Hagamos el producto D = Dx , dotado de la topologı́a producto. Sabemos que
x∈E
D es compacto, por el teorema de Tychonoff. Para probar el teorema mostraremos que
(B, σ(E ∗ , E) ) es homeomorfo a un subconjunto cerrado de D.

157
Definamos Φ : B → D por Φ(ϕ) = {ϕ(x)}x∈E , para ϕ ∈ B. Veamos que, si
n o
C = {λx }x∈E ∈ D : λx+y = λx + λy y λαx = αλx para todo x, y ∈ E , α ∈ K ,

entonces Φ(B) = C. En efecto, si ϕ ∈ B entonces Φ(ϕ) cumple las condiciones de linealidad


que definen a C. Recı́procamente, si λ = {λx }x∈E ∈ C, entonces consideremos la funcional

ϕλ : E → K dada por ϕλ (x) = λx , para x∈E .

Las propiedades del conjunto C hacen que ϕλ sea lineal. Pero además |ϕλ (x)| = |λx | ≤ kxk,
para todo x ∈ E. Luego tenemos que que ϕλ ∈ B. De lo anterior deducimos que Φ es
una biyección de B sobre C. Para ver que C es cerrado, basta notar que C coincide con la
intersección de las contraimágenes de {0} para las funciones continuas de D en C de la forma

D 3 λ 7→ λy+z − λy − λz (y, z ∈ E) y D 3 λ 7→ λαy − αλy (y ∈ E, α ∈ K) .

Solo falta ver que que Φ : B → C es hómeo (si en C usamos la topologı́a inducida por la
producto de D). Pero esto último es inmediato, pues basta observar que en ambos conjuntos
la convergencias coinciden: ambas son la convergencia cordenada a cordenada, para cada
x ∈ E. En C porque ası́ es la la topologı́a producto. En B porque allı́ usamos la w∗ . 
Corolario 5.6.2. Todo espacio de Banach E es isométricamente isomorfo a un subespacio
cerrado de C(K) para un conveniente ET compacto Hausdorff K.
Demostración. Sea K = BE ∗ , σ(E ∗ , E) , que sabemos que es compacto por el teorema de


Alaoglu. Definamos ahora la función T : E → C(K) dada por la composición


J ·|B ∗
E ∗∗ −−−E→ C(K) ,
E

E −→ o sea Tx = JE x B , x∈E .
E∗

Es fácil ver que cada Tx : K → C es σ(E ∗ , E)-continua, porque esta topologı́a es la de la


convergencia puntual, y Tx actúa en las ϕ ∈ BE ∗ por evaluación en el punto x.
Por otro lado, la función T , además de ser evidentemente lineal, es isométrica. Esto se testea
directamente a partir de las definiciones invlucradas (se usa la Ec. (2.7) ). La imagen de T
es un subespacio cerrado de C(K), pues E es completo y T es isométrica. 
Mejoraremos el resultado anterior en el caso en que E es separable. Para ello, necesitamos
un lema espcı́fico:
Lema 5.6.3. Sea (K, τ ) un ET compacto tal que C(K) tiene un subconjunto numerable F
que separa puntos de K. Entonces el espacio K es metrizable.
Demostración. Pongamos que F = {ϕn : n ∈ N} ⊆ C(X) separa puntos de K. Entonces
X 1 |ϕn (x) − ϕn (y)|
d(x , y) = n
, x, y ∈ K ,
n∈N
2 1 + |ϕ n (x) − ϕn (y)|

define una distancia sobre K. Como todas las ϕn son τ -continuas, también lo serán las
funciones dx : K → R dadas por dx (y) = d(x, y), (y ∈ K). Como Bd (x, ε) = d−1
x (−ε, ε) ∈ τ ,

158
deducimos que la topologı́a métrica τd ⊆ τ . Por otro lado, si F ⊆ K es τ -cerrado, entonces
F es τ -compacto, y por ende τd -compacto. Como τd es de Hausdorff (es métrica), queda que
F es también τd -cerrado. Todo esto dice que τd = τ . O sea que K era metrizable. 
Proposición 5.6.4. Si E es un espacio de Banach separable, entonces para todo K ⊆ E ∗
que sea σ(E ∗ , E)-compacto, el espacio topológico (K , w∗ ) es metrizable.
Demostración. Si {xn : n ∈ N} es denso en E entonces {JE xn : n ∈ N} distingue los puntos
de E ∗ y, con mayor razón, los de K. Luego se aplica el lema anterior. 
Corolario 5.6.5. Si E es un Banach separable, entonces BE ∗ , σ(E ∗ , E) es un ET compacto


metrizable y E es isométricamente isomorfo a un subespacio cerrado de C(BE ∗ ). 


Observación 5.6.6. Fijemos un espacio de Banach E con dim E = ∞. En la demostración
de la Prop. 5.5.5 vimos que todo entorno básico del 0 en w = σ(E, E ∗ ) contiene subespacios
de codimensión finita. En particular, esto muestra que todos los w-entornos básicos son no
acotados. Pero sirve además para probar que la topologı́a σ(E, E ∗ ) no puede ser N1 .
Observar que, en el caso en que E sea separable, reflexivo y por ello en E coincidan la w con
la w∗ de su predual (esto lo probaremos detalladamente en breve), esto marca una diferencia
esencial entre el comportamiento de las topologı́as débiles, entre su restricción a una bola
cerrada (donde queda metrizable), y lo que pasa en todo el espacio (no es ni N1 ).
Veamos que no queda N1 : Supongamos que tenemos β = {Un : n ∈ N} una familia numer-
able en entornos básicos del 0. Para cada Un ∈ β, definamos por Sn ⊆ E ∗ al subespacio
generado por las finitas funcionales de E ∗ que lo generan. Llamemos
\
Mn = Sn0 = ker ϕ ⊆ E ,
ϕ∈Sn

que es un subespacio cerrado de codimension finita (basta intersectar los nucleos de los finitos
generadores del entorno Un ). Observar que Mn ⊆ Un para todo n ∈ N.
Por el Teor. de Baire 2.2.4, una unión numerable de subespacios finitodimensionales no
puede cubrir a todo Sel Banach E ∗ (son cerrados de interior vacı́o). Tomemos entonces una
funcional ϕ0 ∈ E ∗ \ Sn 6= ∅. Para cada n ∈ N, el Lema 5.1.7 nos dice que
n∈N
\
ϕ0 ∈
/ Sn ⇐⇒ Mn = ker ϕ 6⊆ ker ϕ0 , (5.17)
ϕ∈Sn

de nuevo porque podemos realizar a Mn como una intersección finita de núcleos. Ahora
bien, tomemos el entorno U0 = {x ∈ E : |ϕ0 (x)| < 1}. Si me dan ahora un n ∈ N, por
la Ec. (5.17) puedo encontrar un xn ∈ Mn tal que ϕ0 (xn ) 6= 0. Luego existe un N ∈ R∗+
tal que |ϕ0 (N xn )| = N |ϕ0 (xn )| > 1, por lo que N xn ∈
/ U0 , aunque sigue pasando que
N xn ∈ Mn ⊆ Un . En otras palabras, ningún Un vive adentro de U0 , ası́ que β no puede ser
una base de entornos del cero. Por todo ello, E , σ(E, E ∗ ) NO es N1 . 4

159
Observación 5.6.7. Recordemos el Ejer. 2.7.10 sobre `1 = `1 (N), que decia que para que
una sucesión acotada de `1 converja a cero alcanza que lo haga “contra” las funcionales de
su dual (`1 )∗ ∼
= `∞ , lo que ahora llamarı́amos “converge débilmente a cero”.
Ahora bien, en el Cor. 2.5.2 (y el Ejer. 5.5.4) vimos que si una sucesión va débilmente a cero
ya tenı́a que ser acotada. Luego la hipótesis de acotación del Ejer. 2.7.10 estaba de más.
Recapitulando, podemos deducir que en `1 una sucesión converge en norma ⇐⇒ converge
débilmente. Como la convergencia caracteriza la topologı́a, uno tiende a pensar que las
topologı́as de la norma y la débil deberı́an coincidir en `1 . Sin embargo ese enunciado es
bien falso. Por ejemplo porque los entornos básicos de la débil no pueden ser acotados, y no
podemos meter ninguno dentro de una bolita de la norma. ¿Porque será? 4

5.7 Una caracterización de la reflexividad


Teorema 5.7.1. Si E es un espacio de Banach, entonces las siguientes propiedades son
equivalentes:

1. E es reflexivo.

2. E ∗ es reflexivo.

3. σ(E ∗ , E) = σ(E ∗ , E ∗∗ ), o sea que, en E ∗ , coinciden la w y la w∗ .

4. BE es σ(E, E ∗ )-compacta (i.e., la bola de E es w-compacta).

Demostración.
1 ⇒ 4: El Teo. de Alaoglu 5.6.1 dice que BE ∗∗ es σ(E ∗∗ , E ∗ )-compacta. Luego, dada una red
x = (xi )i∈ I en BE , ella tiene una subred y = (yj )j∈ J tal que ybj (ϕ) = ϕ(yj ) −−→ ρ(ϕ) para
j∈ J
una cierta ρ ∈ BE ∗∗ y toda ϕ ∈ E ∗ . La reflexividad de E asegurarı́a que existe un x ∈ BE
w
tal que ρ = JE x, por lo que yj −−→ x. Eso dice que BE es σ(E, E ∗ )-compacta.
j∈ J
4 ⇒ 1: Sea F = JE (E) v E ∗∗ . Como JE es isométrica, BF = JE (BE ). La topologı́a
inducida por σ(E ∗∗ , E ∗ ) en BF coincide con la w que se trae de BE , porque de ambos lados
la convergencia es contra todas las ϕ ∈ E ∗ . Luego la hipótesis de 4 se traduce a que BF sea
w∗ -compacta en E ∗∗ .
Sin embargo, el Teo. de Goldstine 5.5.6 dice que BF es w∗ -densa en BE ∗∗ . Ambos hechos
prueban que BF = BE ∗∗ , por lo que JE debe ser epi, y E reflexivo.
1 ⇒ 3: Como JE : E → E ∗∗ es sobre, las topologı́as σ(E ∗ , E) y σ(E ∗ , E ∗∗ ) están generadas
por las mismas funcionales, por lo que coinciden.
3 ⇒ 2: Por el Teo. de Alaoglu 5.6.1, BE ∗ es σ(E ∗ , E)-compacta. Si asumimos ahora la
condición 3, traducimos a que BE ∗ es σ(E ∗ , E ∗∗ )-compacta. Aplicándole al espacio E ∗ la
implicación 4 ⇒ 1 ya demostrada, nos queda que E ∗ es reflexivo.

160
2 ⇒ 1: Sigamos con la notación JE (E) = F ⊆ E ∗∗ . Recordemos que, por la Prop. 5.5.2, la
bola BF ⊆ E ∗∗ , al ser k · k-cerrada y convexa, debe ser también σ(E ∗∗ , E ∗∗∗ )-cerrada. Como
E ∗ es reflexivo BF es también σ(E ∗∗ , E ∗ )-cerrada (ya vimos que 1 ⇒ 3, y se lo podemos
aplicar a E ∗ ). Pero el Teo. de Goldstine 5.5.6 decı́a que BF es σ(E ∗∗ , E ∗ )-densa en BE ∗∗ .
Ası́, BF coincide con BE ∗∗ y, como en 4 ⇒ 1, E nos queda reflexivo. 

5.8 Miscelánea
Recordemos que, si E es un EN y B ⊆ E, decı́amos que B es w-acotado si para toda ϕ ∈ E ∗
el conjunto ϕ(B) es acotado en C. En el Cor. 2.5.2, justo después del PAU, mostrábamos
que si E es Banach, entonces ser w-acotado alcanza para ser acotado en la norma de E.
Proposición 5.8.1. Sean E , F dos EB y sea T : E → F un operador lineal. Llamemos
T 0 : F 0 → E 0 su adjunto lineal. Entonces las suguientes condiciones son equivalentes:

1. T ∈ L(E , F ).

2. φ ◦ T ∈ E ∗ para toda φ ∈ F ∗ . Es decir que T 0 (F ∗ ) ⊆ E ∗ .

3. T : E , σ(E, E ∗ ) → F , σ(F, F ∗ ) es también continuo. Es decir que


 

w w
si xi −−→ x (en E) =⇒ T xi −−→ T x (en F ) . (5.18)
i∈ I i∈ I

Demostración. Es claro que 1 =⇒ 2. Asumamos ahora 2. Sean x = (xi )i∈ I una red en E
w
y x ∈ E tales que xi −−→ x. Dada una φ ∈ F ∗ , tenemos que T 0 (φ) = φ ◦ T ∈ E ∗ . Luego
i∈ I
 
φ T xi ) = φ ◦ T xi −−→ φ ◦ T x = φ T x) .
i∈ I

w
Como esto pasa para toda φ ∈ F ∗ ya tenemos que T xi −−→ T x. Esto fue 2 =⇒ 3.
i∈ I

Observar que si T : E → F es lineal y cumple (5.18), entonces para cualquier φ ∈ F ∗ se



tiene que φ ◦ T ∈ E , w (i,e., es una funcional w-continua). Pero en la Ec. (5.14) vimos
∗
que E , w = E ∗ . En resumen, sale que T 0 (F ∗ ) ⊆ E ∗ . Esto fue 3 =⇒ 2.
Finalmente, dada una φ ∈ F ∗ , usando que φ ◦ T ∈ E ∗ podemos ver que

x ∈ BE =⇒ |φ(T x)| = | φ ◦ T x| ≤ kφ ◦ T kE ∗ kxk ≤ kφ ◦ T kE ∗ .

Esto significa que T (BE ) es w-acotada en F . Aplicando ahora el Cor. 2.5.2 llegamos a que
T (BE ) es acotada en norma, por lo que T ∈ L(E , F ). Esto fue 2 =⇒ 1. Basta. 
Corolario 5.8.2. Sean E , F dos EB y sea T ∈ L(E , F ). Asumamos que E es reflex.
Entonces T manda la bola BE a una elipse T (BE ) que es k · k- cerrada dentro de F .

161
k·k
Demostración. Sea x = (xn )n∈ N una sucesión en la BE tal que T xn −−−→ z ∈ F . El
n→∞
reciente Teo. 5.7.1 nos dice que BE es w-compacta. Luego hay una subred y = (yj )j∈ J de x
w
tal que yj −−→ y ∈ BE . Por un lado, la subredicidad nos asegura que
j∈ J

k·k k·k w
T xn −−−→ z =⇒ T yj −−→ z =⇒ T yj −−→ z .
n→∞ j∈ J j∈ J

Por otro lado, usando la Prop. 5.8.1 sabemos que T respeta convergencias débiles. Luego
w w
yj −−→ y ∈ BE =⇒ T yj −−→ T y ∈ T (BE ) .
j∈ J j∈ J

Como la topologı́a w es Hausdorff, los dos lı́mites tienen que coincidir. En otras palabras,
llegamos a que z = T y ∈ T (BE ). Ası́ que T (BE ) era cerrada, nomás. Lo de la elipse era
medio una joda, que no deberı́a eclipsar la importancia del resultado. 

Sé como el sol, que aún en eclipse


el foco sigue siendo de la elipse.

162
5.9 Ejercicios del Cap 5: ELC’s
Ejercicios aparecidos en el texto
5.9.1. Sea E un K-EV. Se tienen las siguientes propiedades:

1. La intersección de cualquier cantidad de conjuntos convexos en E queda convexa.

2. El transladar a un convexo le conserva esa propiedad. Es decir que si A ⊆ E es convexo, también lo


será A + x = {a + x : a ∈ A}, para todo x ∈ E.

3. Más aún, si A, B ⊆ E son ambos convexos, también A + B = {a + b : a ∈ A y b ∈ B} queda convexo.

4. Si A ⊆ E es convexo, para todo λ ∈ K se tiene que λA = {λa : a ∈ A} es convexo.

5. Dada un topologı́a τ que haga de E un EVT, para todo convexo A ⊆ E se tiene que su τ -clausura
τ
A es también convexo.

5.9.2. Sea (E, τ ) es un ELC. Dados K ⊆ E convexo compacto y F ⊆ E convexo cerrado tales que K ∩F = ∅,
existen una ϕ ∈ (E, τ )∗R y un α ∈ R tales que

máx ϕ(x) < α ≤ mı́n ϕ(y) . 4


x∈K y∈F

5.9.3. Sea E es un K-EV. Dados K ⊆ E acotado y ϕ ∈ E 0 , probar que

1. Los siguientes dos conjuntos son extremales para K (o vacı́os):


 
mϕ (K) = x ∈ K : ϕ(x) = ı́nf ϕ(y) y Mϕ (K) = x ∈ K : ϕ(x) = sup ϕ(y) .
y∈K y∈K

2. Si E era un ELC, K era compacto y ϕ ∈ E ∗ , entonces mϕ (K) 6= ∅ 6= Mϕ (K).

3. Si x ∈ Ext(K), existe una φ ∈ E ∗ tal que x ∈ mφ (K).

4. Haciendo dibujos de convexos en R2 uno podrı́a arriesgar que en el item anterior se podrı́a conseguir
una φ ∈ E ∗ tal que mφ (K) = {x} solito. Pero eso es falso en general (aún si K es compacto).
Contraejemplificarlo en R2 . 4

5.9.4. Sea E es un K-EV y sea K ⊆ E. Si me dan un conjunto A0 ⊆ K que es extremal para K, y otro
A1 ⊆ A0 que es extremal para A0 , probar que A1 es también extremal para K. 4
5.9.5. Sea E es un K-EV. Sean K ⊆ E un convexo, y x ∈ K. Probar que

x ∈ Ext(K) ⇐⇒ K \ {x} sigue siendo convexo . 4

5.9.6. Sean (E, τ ) un ELC y K ⊆ E un un compacto.

/ K, existe U ∈ Oτa (0) convexo tal que (x + U ) ∩ (K + U ) = ∅.


1. Dado x ∈

2. Deducir que, si K fuera también convexo, existe ϕ ∈ ER∗ tal que

ϕ(x) < t < t + ε < ϕ(K) para ciertos t ∈ R y ε > 0 .

3. Encontrar un compacto K (ahora no convexo) tal que Conv K no es compacto.



4. En cambio, si también Conv K es compacto, entonces Ext Conv K ⊆ K. 4

163
w
5.9.7. Sean E un EN, x ∈ E y una sucesión x = (xn )n∈N en E tales que xn −−−−→ x, probar que
n→∞

1. Nuestra x = (xn )n∈ N debe ser acotada en norma (remember Cor. 2.5.2).

2. Además kxk ≤ lim inf kxn k.


n→∞

3. Existe otra sucesión (zn )n∈N que ahora vive en la cápsula convexa Conv {xn : n ∈ N} que cumple la
k· k
condición más fuerte zn −−−−→ 0. 4
n→∞

Ejercicios nuevos
5.9.8. Sea E un EB. Dados x ∈ E y una sucesión (xn )n∈N en E, probar que
w
1. Si xn −−−−→ x entonces xn −−−−→ x.
n→∞ n→∞

w
2. Si dim E < ∞, ahı́ vale que xn −−−−→ x ⇐⇒ xn −−−−→ x.
n→∞ n→∞

5.9.9. Sean E y F espacios de Banach y T : E → F una transformación lineal. Entonces, las siguientes
afirmaciones son equivalentes:

1. T es acotada.

2. T ∗ (F ∗ ) ⊆ E ∗ .

3. T es continua de (E, w) en (F, w).


a
5.9.10. Sea E un EB de dimensión infinita. Probar que la bola BE = {x ∈ E : kxk < 1} tiene interior vacı́o
(!!) si la pensamos en (E , w).
5.9.11. Sea E un EB. Dados ϕ ∈ E ∗ y una sucesión (ϕn )n∈N en E ∗ , probar que
w w∗
1. ϕn −−−−→ ϕ =⇒ ϕn −−−−→ ϕ =⇒ ϕ −−−−→ ϕ.
n→∞ n→∞ n→∞

2. Si dim E < ∞, las tres convergencias son equivalentes.

5.9.12. Sea E = `∞ (N). Si (ϕn )n∈N es la sucesión en E ∗ dada por ϕn (x) = xn para x = (xn )n∈ N ∈ E y
n ∈ N. Probar que

1. Las ϕn ∈ BE ∗ para todo n ∈ N.

2. Sin embargo, (ϕn )n∈N no tiene ninguna subsucesión w∗ −convergente.

¿Contradice esto el hecho de que BE ∗ es w∗ −compacta?


5.9.13. Sean 1 < p < ∞. Dados x, x(n) ∈ `p (n ∈ N), probar que

(n)
x(n) −−−−→ x ⇐⇒ sup kx(n) kp < ∞ y lim xk = xk para todo k∈N.
n→∞ n∈N n→∞

5.9.14. Sea H un EH. Dados x ∈ H y una sucesión (xn )n∈N en H, probar que
w
1. xn −−−−→ x ⇐⇒ hxn , yi −−−−→ hx , yi para todo y ∈ H (este es Rieszible).
n→∞ n→∞

w
2. Si {en : n ∈ N} es un SON en H, entonces en −−−−→ 0.
n→∞

164
5.9.15. Sean ϕ ∈ L∞ [0, 1] y (ϕn )n∈N una sucesión en L∞ [0, 1]. Consideremos los operadores de multipli-
cación asociados Mϕ y Mϕn (n ∈ N ) todos ellos en L(L2 [0, 1]). Probar que
w∗ w
ϕn −−−−→ ϕ en L∞ [0, 1] = L1 [0, 1]∗ ⇐⇒ Mϕn f −−−−→ Mϕ f para toda f ∈ L2 [0, 1] .
n→∞ n→∞

5.9.16. Probar que C[0, 1] es cerrado en L∞ [0, 1] con la topologı́a inducida por la norma k · k∞ pero no en
la topologı́a w∗ .
5.9.17. Sea E un EVT. Dados K , V ⊆ E tales que K es compacto y V es abierto y K ⊆ V , probar que
existe un entorno U del cero tal que K + U ⊆ V .
5.9.18. Sea E un espacio vectorial y A y B subconjuntos convexos de E. Probar que para todo par de
números reales a y b el conjunto aA + bB es convexo.
5.9.19. Sea E un espacio vectorial y A un subconjunto convexo de E. Probar que
def
si x ∈ A◦ and y∈A =⇒ [x, y) = {(1 − λ) x + λ y : λ ∈ [0, 1) } ⊆ A◦ .
5.9.20. Sea E un espacio de Banach reflexivo y F un subespacio cerrado de E. Probar que para todo x ∈
/F
existe un un x0 ∈ F tal que kx − x0 k = min{kx − yk : y ∈ F }.
5.9.21. Sean E , F dos EB y sea T ∈ L(E , F ). Probar que T ∗ pensado como T ∗ : (F ∗ , w∗ ) → (E ∗ , w∗ )
es también continua. Deducir como en el Cor. 5.8.2 que T ∗ (BF ∗ ) es k · k cerrada en E ∗ .
w∗
Sug: Si ϕi −−→ ϕ en F ∗ y x ∈ E, entonces Tϕ∗i x = ϕi (T x) −−→ ϕ(T x) = Tϕ∗ x.
i∈ I i∈ I
2 1
Veamos un ejemplo: Sea T ∈ L(` , ` ) dada por T x = ( xnn )n∈N
para x = (xn )n∈ N ∈ `2 .
1. Usando Cauchy-Schwarz mostrar que kT k2 ≤ n∈N 1/n2 .
P

2. Su adjunto T ∗ ∈ L(`∞ , `2 ) se define (en las entradas) igual que T , multiplicando por 1
n .

3. Mostrar que T ∗ (B`∞ ) es compacta. Observar que da justo el cubo de Hilbert del Ejer. 3.8.18. 4
Definición 5.9.22. Sean E y F dos EB’s. Fijemos una red T = (Ti )i∈ I y un T , todos en L(E, F ).
S.O.T.
1. Decimos que Ti −−−−→ T (se lee “Ti converge fuertemente a T ”) si para cualquier x ∈ E se tiene que
i∈I
k·k
Ti x −−→ T x (en la norma de F ).
i∈ I

W.O.T.
2. En cambio Ti −−−−→ T (se lee “Ti converge debilmente a T ”) si para cualquier x ∈ E se tiene que
i∈I
w
Ti x −−→ T x (en la débil σ(F , F ∗ ) de F ). En otras palabras, si
i∈ I

hTi x , ϕi −−→ hT x , ϕi para todo par x ∈ E , ϕ ∈ F∗ . 4


i∈ I

5.9.23. Sean E y F dos EB’s. En L(E , F ) se consideran las topologı́as S.O.T y W.O.T vı́a las convergencias
homónimas.
1. Caracterizar las familias de seminormas que producen las topologı́as S.O.T y W.O.T de L(E , F ).

2. Describir los entornos (sub)básicos del 0 de las mismas.


5.9.24. Probar que si una sucesión (An ) está en A(H) , es decreciente (resp. creciente) y acotada (sus
S.O.T.
normas), entonces existe A ∈ A(H) tal que An −−−−→ A. En este caso, al lı́mite se lo llama A = ı́nf n∈N An
n→∞
(resp. A = supn∈N An ), porque hA x , xi = ı́nf n∈N hAn x , xi para todo x ∈ H.
Sug: Ya sabemos qué deben dar los productos hA x , xi. El resto sale polarizandolo.

165
Capı́tulo 6

Espectro

La noción de autovalores no es la más adecuada para operadores en un espacio de Banach.


Por ejemplo los shifts a izquierda y derecha T y S en L(`p ) definidos en 1.8.1, tienen o
demasiados o demasiado pocos autovalores (S no tinen ninguno). El tema es que la noción
de autovalor se basa en que el ker (λ IE − T ) 6= {0}, para un T ∈ L(E) y un λ ∈ K. Eso en
el caso de que dim E < ∞ equivale a muchas otras cosas (onda el polinomio caracterı́stco,
usando determinantes).
Cuando la dim E = ∞, lo que conviene es usar la condición de que λ IE − T ∈ / Gl (E), aún
permitiéndole que sea mono. Eso permitirá reproducir muchas de las propiedades estruc-
turales que uno conoce para las matrices. Pero antes de desarrollar esa idea describiremos
el contexto natural para la teorı́a espectral, que son las álgebras de Banach complejas.

6.1 Álgebras de Banach


Se puede hacer la teorı́a de álgebras de Banacha a coeficientes reales, pero tiene poca gracia
porque en ellas la noción de espectro se pifia, como para las matrices reales.
Recordemos que A es una C-álgebra si

• A es un C-EV.

• Es además un anillo con la misma suma que tenı́a como EV, y un producto nuevo.

• A tiene unidad 1 = 1A (para el producto) a menos que se diga lo contrario.

• Vale la compatibilidad algebráica de los dos productos:

λ(a b) = (λ a) b = a (λ b) para a, b ∈ A y λ ∈ C cualesquiera .

Los múltiplos λ 1 = λ 1A para λ ∈ C y 1A el “uno” para la multiplicación de A, se abreviarán


escribiendo λ 1A = λ, en el sentido de identificar a C con su copia C · 1A ⊆ A.

166
Definición 6.1.1. Un álgebra de Banach (abreviaremos AB) es una C-álgebra A que además
tiene una norma k · k que la hace un EB, junto con la condición de submultiplicatividad:

ka bk ≤ kak kbk para todo par a, b ∈ A . (6.1)

Asumimos que A tiene un 1 = 1A y k1A k = 1. Además :

1. Diremos que un a ∈ A es inversible si existe a−1 ∈ A, que es el único elemento de A


tal que a a−1 = a−1 a = 1 (cuando existe).

2. El grupo de elementos inversibles de A se denota por GA .

En caso de que 1 ∈
/ A diremos que A es un AB sin unidad. 4
Ejemplos 6.1.2. Los ejemplos más comunes de AB’s son:

1. Dado K un compacto Hausdorff, el espacio C(K) con la k · k∞ es un AB conmutativa.

2. Si K era LKH, se toma Cb (K) o su ideal C0 (K), que es un AB sin uno.

3. L∞ (X, Σ, µ) con el producto usual y su norma. En el caso de que X = B = D ⊆ C,


tenemos que L∞ tiene una subálgebra muy importante: el álgebra de Hardy H ∞ de las
holomorfas en D y acotadas (en ctp) en B. Se puede mostrar que ellas son exactamente
las f ∈ L∞ (T) tales que sus coeficientes fb(n) = 0 para los n < 0.

4. Otra AB sin uno famosa es L1 (R) con el producto de convolución. En cambio `1 (Z)
con la convolución sı́ tiene uno, porque la delta de Dirac existe en el caso discreto.

5. La familia de ejemplos que más nos interesa ahora es la de L(E) para E un EB complejo,
con la norma de operadores (vimos que es submultiplicativa). De paso eso incluye las
álgebras de matrices (cuando dim E < ∞).
Observar que los ejemplos anteriores eran todos conmutativos, mientras que los L(E)
(y las matrices) son el paradigma del álgebra no conmutativa. 4

Ejercicio 6.1.3. Sea A0 una AB sin uno. Consideremos entonces un 1 virtual y definamos
el álgebra A = C · 1 + A0 con los siguientes datos: Dados λ1 + a y µ1 + b ∈ A,

• Suma: (λ1 + a) + (µ1 + b) = (λ + µ)1 + (a + b).

• Producto: (λ1 + a) · (µ1 + b) = (λ µ)1 + (µ a + λ b + a b).

• Norma: kλ1 + ak = |λ| + kak.

Probar que entonces A es un álgebra de Banach con uno (adivinen quien), de la que A0 es
un ideal bilátero cerrado y maximal (y las nuevas operaciones coinciden con las viejas). 4

167
Teorema 6.1.4. Sea A un AB. Tenemos las siguientes propiedades:

1. Si c ∈ A tiene kck < 1, entonces se verifica que



−1
X 1
1 − c ∈ GA con (1 − c) = cn y k(1 − c)−1 k ≤ . (6.2)
n=0
1 − kck

2. Si a ∈ GA y b ∈ A cumple que kb − ak < ka−1 k−1 , entonces, b ∈ GA .

3. GA es abierto en A y la flecha GA 3 a 7→ a−1 ∈ GA es un hómeo.

Demostración. Para probar el item 1, observemos que


∞ ∞
m m
X
k
X 1
kck < 1 y kc k ≤ kck ∀ m ∈ N =⇒ kc k ≤ kckk = .
k=0 k=0
1 − kck


1
ck converge a un a ∈ A tal que kak ≤ . Entonces cn −−−→ 0 y
P
Luego, la serie 1−kck
k=1 n→∞

N N NP
+1
ck = ck − ck = 1 − cN +1 −−−→ 1 =⇒ (1 − c) a = 1 .
P P
(1 − c)
k=0 k=0 k=1 N →∞

Analogamente se prueba que a (1 − c) = 1 por lo que a = (1 − c)−1 . Veamos ahora que


1 ⇒ 2. En efecto, observar que ka−1 (b − a)k ≤ ka−1 k kb − ak < 1. Luego

kb − ak < ka−1 k−1 =⇒ b = a − (a − b) = a 1 − a−1 (b − a) ∈ GA .


 

−1 −1
Además se tiene que b−1 = 1 − a−1 (b − a)

a , por lo que

ka−1 k ka−1 k 1
kb−1 k ≤ −1
≤ −1
= −1 −1 . (6.3)
1 − ka (b − a)k 1 − ka k kb − ak ka k − kb − ak

Usando 2 sale de una que GA es abierto en A. Para ver la continuidad de invertir, tomemos
−1 −1
bn −−−→ a (todos en GA ). A partir de algún momento se tendrá que kbn − ak < ka 2k .
n→∞
Luego la Eq. (6.3) nos asegura que sup kb−1
n k < ∞ . Despues se usa que
n∈N

a−1 − b−1 −1 −1
n = a (bn − a)bn =⇒ ka−1 − b−1 −1 −1
n k ≤ ka k kbn k kbn − ak −−−→ 0 .
n→∞

Finalmente, la continuidad de invertir implica que es hómeo, porque su inversa (ahora como
función) es ella misma. 

168
Ahora sı́ tenemos el backround básico como para definir el espectro:
Definición 6.1.5. Sean A una C-AB y a ∈ A. Definimos las siguientes nociones:

1. El espectro de a es el conjunto

σ(a) = λ∈C : λ−a∈
/ GA . (6.4)

2. El radio espectral de a es ρ(a) = sup |λ|.


λ∈σ(a)

3. La resolvente de a es el conjunto Res(a) = C \ σ(a).

4. La función resolvente de a es Ra : Res(a) → A y está dada por


−1
Ra (λ) = λ−a ∈ GA para cada λ ∈ Res(a) . (6.5)

Por el Teo. 6.1.4 ya podemos decir que Ra es continua. 4

Ejercicio 6.1.6. Sea A un AB. Dados a, b ∈ A, probar que

si ab = ba y además ab ∈ GA =⇒ a y b ∈ GA . (6.6)

Sugerimos mostrar que tanto a como b conmutan con ab, y por ello con (ab)−1 . 4

Antes de probar las propiedades básicas del espectro y de dar los ejemplos más ilustrativos,
necesitamos un par de resultados técnicos de análisis complejo en este contexto.
Proposición 6.1.7. Sea A un AB y sea a ∈ A. Luego se cumplen las siguientes propiedades:

1. Dado un poli P ∈ C[X], se tiene la igualdad espectral


  def
σ P (a) = P σ(a) = {P (λ) : λ ∈ σ(a) } . (6.7)

2. El radio espectral no le gana a la norma: ρ(A) ≤ kak.

3. Mejor aún, vale que ρ(a) ≤ ı́nf kan k1/n .


n∈N

Demostración. Fijemos el P ∈ C[X]. Dado λ ∈ σ(a), definamos el poli

Q(x) = P (x) − P (λ) = (x − λ)B(x) con B ∈ C[X] ,

donde la factorización existe porque Q(λ) = 0. Luego, si µ = P (λ), tenemos que



P (a) − µ = P (a) − P (λ) = Q(a) = (a − λ)B(a) ∈ / GA =⇒ µ ∈ σ P (a) ,

donde hemos usado que (a − λ) y B(a) conmutan, por lo que el hecho de que λ ∈ σ(a)
(6.6)  
asegura que (a − λ) ∈
/ GA =⇒ (a − λ)B(a) ∈
/ GA . Ası́ que P σ(a) ⊆ σ P (a) .

169

Dado ahora un µ ∈ σ P (a) , definamos y factoricemos el poli Q ∈ C[X] dado por
n
Y
Q(x) = P (x) − µ = cn (x − λk ) donde las raı́ces de Q son λk ∈ C , k ∈ In .
k=1

n
Q
Nos queda que Q(a) = P (a) − µ = cn (a − λk ) ∈
/ GA . Luego alguno de los factores
k=1
(a − λk ) ∈
/ GA (esto sale porque GA es un grupo), por lo que λk ∈ σ(a) y µ = P (λk ).
Probemos ahora el item 2: Tomemos un λ ∈ C tal que |λ| > kak. Entonces tenemos que
k λa k < 1. Ahora podemos usar el Teo. 6.1.4 y llegamos a que
a 
(λ − a) = λ 1 − ∈ GA =⇒ λ ∈
/ σ(a) . (6.8)
λ
Eso implica que ρ(a) ≤ kak. Por otro lado, vimos arriba (item 1 con P (x) = xn ) que

σ(an ) = σ(a)n =⇒ ρ(a)n = ρ(an ) ≤ kan k =⇒ ρ(a) ≤ kan k1/n

para todo n ∈ N. Y eso fue todo. 


Observación 6.1.8. Sea A un AB y sea a ∈ A. Dado un λ ∈ C tal que |λ| > kak, ahora
sabemos que λ ∈ Res(a). Pero usando las Eqs. (6.2) y (6.8) tenemos más data:

−1 −1 a −1 X −n−1 n
Ra (λ) = (λ − a) =λ 1− = λ a siempre que |λ| > kak . (6.9)
λ n=0

Usaremos esta expresión más adelante. 4


Ejercicio 6.1.9. Sea A un AB . Probar las siguientes afirmaciones:
1. Sea f : Ω → C una función holomorfa en el conjunto abierto Ω ⊆ C. Supongamos que
(i) La bola cerrada BM = {z ∈ C : |z| ≤ M } ⊆ Ω.

αn z n con convergencia absoluta y uniforme para todo z ∈ BM .
P
(ii) f (z) =
n=0


αn an converge en A.
P
Luego, para todo a ∈ A con kak ≤ M , la serie f (a) =
n=0

2. Extender la Eq. (6.7) en este sentido: Si a ∈ A tiene kak ≤ M , entonces


 def 
f σ(a) = {f (λ) : λ ∈ σ(a) } ⊆ σ f (a) para toda f como la del item 1 .


αn z n en BM , entonces tenemos que
P
La idea es que si f (z) =
n=0


X ∞
X
f (λ) − f (a) = αn (λn − an ) = (λ − a) αn Pn−1 (λ , a) ,
n=0 n=1

170
donde los polinomios Pn−1 (λ , a) se pueden calcular y acotar para que la serie converja a
un b ∈ A que conmuta con a. Observar que σ(a) ⊆ BM . Ası́ que todas estas cuentas que
involucran series, convergen bien en todo λ ∈ σ(a). 4
Teorema 6.1.10. Sea A un AB y sea a ∈ A. Entonces vale que
1. El espectro σ(a) es compacto y no vacı́o.

2. Se verifica la siguiente fórmula del radio espectral:

ρ(a) = lı́m kan k1/n . (6.10)


n→∞

Demostración. Como GA es abierto, es fácil ver que σ(a) es cerrado. Pero hagámoslo más
explı́cito porque nos servirá después. Fijemos un λ ∈ Res(a). Veremos que si z ∈ C cumple
que |z| < kRa (λ)k−1 entonces también λ − z ∈ Res(a), porque podemos hacer

−1
−1 X
Ra (λ)n+1 z n .

Ra (λ − z) = (λ − a − z) = (λ − a) (1 − Ra (λ) z ) = (6.11)
n=0

Esto claramente da que Res(a) es abierto por lo que σ(a) es cerrado. Además sabemos que
ρ(a) ≤ kak por lo que σ(a) ya es compacto. Pero tenemos que ver que σ(a) 6= ∅.
Para ello fijemos una ϕ ∈ A∗ y definamos f : Res(a) → C por f (λ) = ϕ(Ra (λ) ). Dado un
λ ∈ Res(a) tomemos el entorno λ + Uλ , con Uλ = {z : |z| ≤ kRa (λ)k−1 }. Por la Eq. (6.11)
y la continuidad de ϕ (que le permite “entrar” en la serie), vemos que

X
f (λ − z) = ϕ(Ra (λ − z) ) = ϕ(Ra (λ)n+1 ) z n para todo z ∈ Uλ .
n=0

Eso nos dice que f es holomorfa en todo Res(a). Por otro lado, recordemos de la Eq. (6.9)
que, para los λ ∈ C tales que |λ| > kak se tiene que

X ∞
X
−n−1
f (λ) = ϕ(Ra (λ) ) = λ n
ϕ(a ) =⇒ |f (λ)| ≤ |λ|−n−1 kakn kϕk . (6.12)
n=0 n=0

Pero esta serie (de números) se puede calcular:


∞ ∞ n −1
kak
|λ|−n−1 kakn = kϕk |λ|−1
P P
|f (λ)| ≤ kϕk |λ|
= kϕk |λ| − kak .
n=0 n=0

Deducimos que |f (λ)| −−−−→ 0. Si ahora supusiéramos que σ(a) = ∅, entonces f serı́a entera
|λ|→∞
y nula en el infinito. Por el Teorema de Liouville, f deberı́a ser toda ella nula.
Llegarı́amos a que, para algún λ ∈ Res(a) fijo, deberı́a valer que ϕ( (λ − a)−1 ) = 0 para
toda funcional ϕ ∈ A∗ . Pero eso dirı́a (por H-B) que (λ − a)−1 = 0 además de ser inversible.
Difı́cil encontrar algo más absurdo. Luego σ(a) 6= ∅.

171
Con respecto a la fórmula del radio espectral, volvamos a fijar la ϕ ∈ A∗ . Consideremos la
variable z = λ−1 y la función g(z) = f (z −1 ) = f (λ) para los z 6= 0. Por (6.12) vemos que

X
g(z) = ϕ(an ) z n+1 para todo z ∈ C tal que 0 < |z| = |λ|−1 < kak−1 .
n=0

El caso z = 0 es nuevo, pero podemos poner g(z) = 0 y g queda continua en z = 0 porque ya


sabemos que |f (λ)| −−−−→ 0 =⇒ |g(z)| −−−→ 0. En resumen, tenemos que g(z) es analı́tica
|λ|→∞ |z|→0
(con serie conocida) en la bola {z ∈ C : |z| < kak−1 }. Pero sigue siendo analı́tica hasta que
z −1 = λ no entre en el σ(a), o sea en la bola mayor {z ∈ C : |z| < ρ(a)−1 }. Luego

X ∞
X
−1
g(z) = n
ϕ(a ) z n+1
si |z| < ρ(a) =⇒ f (λ) = ϕ(an ) λ−n−1 si |λ| > ρ(a) .
n=0 n=0

Fijemos ahora un r > ρ(a) y tomemos los λ = r ei θ . Integrando la serie de λn+1 f (λ) queda
Z 2π ∞ Z
X 2π
n+1 i(n+1) θ iθ
r e f (r e ) dθ = rn−m ei(n−m) θ ϕ(am ) dθ = 2π ϕ(an ) ,
0 m=0 0

porque, como las primitivas de las ei(n−m) θ valen lo mismo en 0 que en 2π si n 6= m, la única
integral que no se anula es la de m = n. Tomemos M (r) = sup kRa (r ei θ )k, que es finito
0≤θ≤2π
porque se lo toma en un compacto. Luego |f (r ei θ )| ≤ kϕk kRa (r ei θ )k ≤ kϕk M (r) para
todo θ ∈ [0 , 2π]. Estimando lo de arriba nos queda que

|ϕ(an )| ≤ kϕk rn+1 M (r) para toda ϕ ∈ A∗ =⇒ kan k ≤ rn+1 M (r) ,

para cualquier r > ρ(a). Tomando raı́ces enésimas y lı́mites superiores sale que
6.1.7
lim sup kan k1/n ≤ inf r = ρ(a) ≤ inf kan k1/n ≤ lim inf kan k1/n ,
n→∞ ρ(a)< r n→∞ n→∞

n+1 1
porque r n M (r) n −−−→ r. Con eso terminamos la prueba. 
n→∞

Corolario 6.1.11. Sea A un AB que es un anillo de división (o sea que todo elemento no
nulo es inversible: GA = A \ {0}). Estonces A = C · 1A ∼
= C.
Demostración. Veamos que la flecha C 3 λ 7→ λ 1A es suryectiva. En efecto, todo a ∈ A
cumple que σ(a) 6= ∅. Luego existe algún λ ∈ σ(a). Pero entonces tenemos que

λ 1A − a ∈
/ GA =⇒ λ 1A − a = 0 =⇒ λ 1A = a . 

172
6.2 Ejemplos y ejercicios
Ahora que sabemos que el espectro es tan bueno, enumeraremos una serie de propiedeades
facilongas para acostumbrernos a laburar con él. Recomendamos leerlas cuidadosamente,
porque las usaremos seguido, y citaremos poco.
6.2.1. Sea A un AB. Se tienen las siguientes propiedades: Sean a ∈ A y µ ∈ C.
1. σ(0A ) = {0} y σ(1A ) = {1}.
def
2. σ(µ a) = µ σ(a) = {µ λ : λ ∈ σ(a)}. En particular σ(−a) = −σ(a).
def
3. σ(a + µ 1A ) = µ + σ(a) = {µ + λ : λ ∈ σ(a)}.
def
/ σ(a). En tal caso σ(a−1 ) = σ(a)−1 = {λ−1 : λ ∈ σ(a)}.
4. a ∈ GA ⇐⇒ 0 ∈

5. Sea B otra AB y Γ : A → B un isomorfismo (unital) de anillos


 que es a la vez un
isomorfismo (acotado y sobre) de EB’s. Entonces σB Γ(a) = σ(a).

6. Un caso particular: Si g ∈ GA , entonces σ(g a g −1 ) = σ(a).

7. Sea P ∈ C[X] y supongamos que P (a) = 0A . Entonces σ(a) ⊆ { raı́ces de P }. En


particular, en ese caso (bastante poco común) vale que σ(a) es finito.

8. En particular, a2 = a =⇒ σ(a) ⊆ {0, 1} y a2 = 1 =⇒ σ(a) ⊆ {−1, 1}.


Las pruebas son todas fáciles y van como ejercicio. Pero daremos un par. Si a ∈ GA , es
claro que 0 ∈
/ σ(a). Además, tenemos las siguientes equivalencia: Dado λ ∈ C \ {0},
(6.6)
λ−1 − a−1 = λ−1 (a − λ) a−1 ∈ GA ⇐⇒ (a − λ) ∈ GA .

Eso muestra que σ(a−1 ) = σ(a)−1 . Si vamos al iso Γ : A → B, es fácil ver que

a ∈ GA =⇒ a−1 a = a a−1 = 1A =⇒ Γ(a−1 ) Γ(a) = Γ(a) Γ(a−1 ) = Γ(1A ) = 1B ,

por lo que Γ(GA ) ⊆ GB , con Γ(a)−1 = Γ(a−1 ). Usando el iso Γ−1 : B → A que es tan
bueno como Γ, sale la otra inclusión. En resumen, Γ(GA ) = GB . Con esto la igualdad de los
espectros se demustra sin dificultades. La de los polinomios sale por la Prop. 6.1.7. 4
Ejercicio 6.2.2. Sea A un AB. Ahora va otra porpiedad que es mucho menos facilonga:

Dados a , b ∈ A , probar que σ(a b) ∪ {0} = σ(b a) ∪ {0} . (6.13)

Deducir que ρ(ab) = ρ(ba). Se recomienda mostrar que si λ − ab ∈ GA con λ 6= 0, entonces

el elemento λ−1 1 + b (λ − ab)−1 a ∈ A es util .



4

Veamos los espectros de elementos de las AB’s conocidas. En la mayorı́a de los casos alcanza
caracterizar el grupo GA de un álgebra A para poder calcular el espectro de sus elememtos.

173
6.2.3. Sea K un compacto-H y A = C(K) = {f : K → C : f es continua }. Entonces

GC(K) = {g ∈ C(K) : 0 ∈
/ g(K)} y σ(f ) = f (K) = {f (x) : x ∈ K}

para toda f ∈ C(K). En efecto, como el producto en C(K) es punto a punto (y por ello
conmutativo), podemos caracterizar a los elementos de GC(K) de la siguiente forma:
g ∈ GC(K) ⇐⇒ existe h ∈ C(K) tal que g(x) h(x) = 1(x) = 1 para todo x ∈ K .
1
O sea que h(x) = g(x) para todo x ∈ K. Pero tal función existe (y en tal caso es continua)
⇐⇒ g(x) 6= 0 para todo x ∈ K. Ahora la caracterización σ(f ) = f (K) sale con fritas.
En el caso de que K sea Hausdorff pero no compacto, se puede considerar el espacio de
funciones complejas continuas y acotadas Cb (K), que es otra AB con la k · k∞ . En tal caso
lo arriba expuesto sigue valiendo siempre que uno reemplace f (K) por f (K) en todas sus
apariciones. La falta de compacidad deja de garantizar que son la misma cosa. 4
6.2.4. Sea ahora A = L∞ = L∞ (X , Σ , µ). Dada f ∈ L∞ definamos su rango esencial
n   o
Re (f ) = λ ∈ C : µ y ∈ X : |f (y) − λ| < ε 6= 0 para todo ε > 0
n o (6.14)
λ ∈ C : µ f −1 BCa (λ , ε)
 
= 6= 0 para todo ε>0 .

Traduciendo, λ ∈ Re (f ) si la f “ronda” cerca de λ con medida positiva para toda cercanı́a


prefijada. Esta noción sirve como el rango común (o su clausura) en el ejemplo anterior:

GL∞ = {g ∈ L∞ : 0 ∈
/ Re (g)} y σ(f ) = Re (f ) para toda f ∈ L∞ .

La prueba es similar al caso continuo: Como el producto es punto a punto, tenemos que
ctp 1
g ∈ GL∞ ⇐⇒ existe g −1 = ∈ L∞ ⇐⇒ 0 ∈
/ Re (g) ,
g
donde el ⇐⇒ de la derecha sale porque tenemos la siguiente igualdad
   1 1 
µ y ∈ X : | g(y) | < ε =µ y∈X: >M = .
|g(y)| ε
Que el de la derecha se anule para algún M grande (eso es que 1/g ∈ L∞ ) equivale a que el
de la izquierada se anule para un ε chico (eso es que 0 ∈
/ Re (g) ).
Observar que si X tiene una topologı́a Hausdorff tal que la medida de los abiertos (no vacı́os)
nunca es nula, entonces podemos considerar la subálgebra de Banach Cb (X) ⊆ L∞ (X). Un
buen ejercicio para entender qué es el Re es mostrar que si h ∈ Cb (X), entonces se cumple
que Re (h) = h(X). Eso dice que el espectro de h en las dos álgebras en las que vive es el
mismo. De hecho, es casi lo mismo que probar que las dos k · k∞ coinciden en Cb (X).
El caso paradigmático es cuando X es un compacto dentro de Rn y la medida es la de
Lebesgue. En tal caso C(X) ⊆ L∞ (X), las normas coinciden y los espectros también. 4

174
Ejercicio 6.2.5. En el caso discreto de `∞ (I), donde también multiplicamos “ i a i ” y queda
un AB con su k · k∞ , probar que

a = (ai )i∈ I ∈ `∞ (I) .



σ(a) = Re (a) = ai : i ∈ I para todo

No vale avivarse de que a : I → C es continua. 4

6.2.1 El espectro depende del álgebra


Ejemplo 6.2.6. Sea B = D ⊆ C. Como en el Ejem. 3.6.5, consideremos la subálgebra
A(D) ⊆ C(B) de de las f ∈ C(B) que son holomorfas en D, con la norma supremo sobre
la bola B. Es un AB, y se la llama “el álgebra del disco”. Es un hecho conocido que si
f ∈ A(D), entonces kf k∞ = supkzk=1 |f (z)| . Por lo tanto, podemos pensar en realidad que

A(D) ⊆ C(T) , pasando de una f ∈ A(D) a f T ∈ C(T) ,
total las normas supremo coinciden. Tomemos el elemnto e1 ∈ A(D) dado por e1 (z) = z
para z ∈ B. Más vale que es holomorfa en D. Pero si calculamos su espctro queda que

σA(D) (e1 ) = B mientras que σC(T) (e1 ) = T .

En efecto, lo de la derecha ya lo vimos antes. Pero si λ ∈ D, entonces tendrı́amos que la


función (λ − e1 )(z) = λ − z, por lo que su inversa, de existir, tendrı́a que ser g(z) = (λ − z)−1
al menos en todos los z ∈ B tales z 6= λ . Esto camina en T, por lo que (λ − e1 ) ∈ GlC(T) ,
pero es claramente imposible en D, y menos aún que g sea holomorfa allı́. En el ejercicio
que viene daremos más detalles sobre este extraño fenómeno. 4
Ejercicio 6.2.7. Sea A un AB y sea B ⊆ A una subálgebra que también es de Banach
(mismo uno y misma norma). Probar lo que sigue:

1. GB ⊆ GA ∩ B, pero la inclusión puede ser estricta (mirar la función e1 del el Ejem. 6.2.6).

2. Dado a ∈ B, ahora tenemos dos espectros para él:

σB (a) = {λ ∈ C : λ − a ∈
/ GB } y σA (a) = σ(a) = {λ ∈ C : λ − a ∈
/ GA } .

Se tiene que σA (a) ⊆ σB (a), pero que la inclusión puede ser estricta.
def
3. Sin embargo, ρ(a) = ρB (a) = sup |λ|.
λ∈σB (a)

4. Más aún, mostrar que (en cualquier AB, pongamos ahora A) una sucesión (an )n∈ N en
GA converge al borde ∂ GA de GA ⇐⇒ ka−1 n k −−−→ ∞, lo que no depende del álgebra
n→∞
en donde vivan.

5. Deducir que ∂ GB ⊆ ∂ GA .

175
6. Interpretar lo anterior como que σB (a) consiste de tomar el conjunto σA (a) y “llenar”
algunos de sus “agujeros”. Estos se pueden ver como las componentes conexas y
acotadas del abierto C \ σA (a) . Cotejar esto con el Ejem. 6.2.6.

7. Deducir que los elementos a ∈ B que tienen su espectro σB (a) “chatito” (i.e., sin
interior) cumplen que σB (a) = σA (a).

8. Generalizar todo lo anterior al caso en que B 6⊆ A, pero existe un morfismo unital de


anillos Γ : B → A que es isométrico (aunque no sobre). 4

6.2.2 Gelfand
Ejercicios 6.2.8. Sea A un AB y sea I ⊆ A un ideal (si no se aclara es bilátero) cerrado.

1. Probar que el anillo A/I con la norma cociente vista en la Prop. 1.7.1 es un AB.

2. Si J es un ideal no cerrado, mostrar que J es orto ideal.

3. Probar que si M ⊆ A es un ideal maximal, entonces es cerrado, por lo que

A/M es un AB de división =⇒ A/M ∼


=C.

A partir de ahora asumamos que el álgebra A es conmutativa.

4. Deducir que el espacio de caracteres (también llamado espectro de A)

XA = {ϕ ∈ A∗ : ϕ es multiplicativa y unital }

se biyecta con el espacio MA de ideales maximales de A.

5. Probar que si a ∈ A, entonces σ(a) = {ϕ(a) : ϕ ∈ XA }. La idea es que todo b ∈/ GA


debe estar dentro de algún maximal, y por ello en el núcleo de una ϕ ∈ XA .

6. Deducir que todo caracter ϕ ∈ XA tiene kϕk = 1 (porque |ϕ(a)| ≤ ρ(a) ≤ kak).

7. Probar que XA munido con la topologı́a w∗ de A∗ es un compacto Hausdorff.

8. Mostrar que la flecha Γ : A → C(XA ) dada por Γ(a) = JA a = b


a, es decir que

a (ϕ) = ϕ(a)
b para ϕ ∈ XA y a∈A

es un morfismo (bien definido, i.e., b


a es continua) de álgebras de Banach. Se lo llama
la transformada de Gelfand.

9. Para probar la continuidad de Γ mostrar algo mejor:

kΓ(a)k∞ = kb
ak∞ = ρ(a) (el radio espectral) . (6.15)

176
10. Probar que ker Γ = Rad(A) el radical de Jacobson de A, que es la intersección de los
ideales maximales de A. Deducir que Rad(A) = {a ∈ A : σ(a) = {0} }, los elementos
denominados cuasi-nilpotentes de A. Adivinen de dónde sale el nombre. 4

Ejercicio 6.2.9. Sea K un compacto Hausdorff. Probar que si I ⊆ C(K) es un ideal


cerrado, entonces el conjunto cerrado FI = {x ∈ K : f (x) = 0 para toda f ∈ I} cumple que

I = g ∈ C(K) : g(x) = 0 para todo x ∈ FI .

Deducir que MC(K) ∼ XC(K) ∼


= K, con la top w∗ de C(K)∗ en XC(K) . La flecha es

K 3 x 7→ Fx = {x} ∼ Mx = {f ∈ C(K) : f (x) = 0} ∼ ϕx ∈ XC(K) ,

donde ϕx (f ) = f (x) para f ∈ C(K). Eso da una prueba por el camino más largo de que

σ(f ) = f (K) = {f (x) : x ∈ K} para toda f ∈ C(K) ,

cosa que ya habı́amos visto en el Ejem. 6.2.3. Deducir que, identificando K con XC(K) como
se hizo arriba, la transformada de Gelfand de C(K) es la identidad: fb(ϕx ) = ϕx (f ) = f (x) .
Esto significa que toda AB conmutativa A se “representa” vı́a Gelfand en un C(K) (ambas
con el mismo espectro K), y que esa representación es la natural si A ya era un C(K). 4
Ejercicio 6.2.10. Sea ahora Y un ET que es de Tychonoff. El AB conmutativa que nos
interesa es A = Cb (Y ), o sea las funciones complejas actadas y continuas en Y . Llamemos
β(Y ) al espacio compacto de caracteres XCb (Y ) . Probar que

1. Se puede “incrustar” Y ,→ β(Y ) (un embbeding, o sea que es un hómeo de Y con su


imagen) con la flecha Y 3 y 7−→ ϕy , donde ϕy es el caracter dado por la “evaluación”
de las f ∈ Cb (Y ) en el punto y.

2. Al hacer la transformada Γ : Cb (Y ) → C(β(Y ) ) se tiene que

Γf (ϕy ) = fb(ϕy ) = f (y) para toda f ∈ Cb (Y ) y todo y∈Y .

Interpretar esto como que la función fb “extiende” la continua y acotada f a una


continua en el compacto β(Y ) que “contiene” a Y .

3. Antes de seguir, mostrar que en este caso Γ es un morfismo isométrico sobre. Para ello
comparar norma con radio espectral en Cb (Y ), y usar S-W 3.6.3.

4. Deducir que la imagen de Y por el embbeding de 1 es densa en β(Y ).

5. Como lo sugerı́a la notación, β(Y ) = XCb (Y ) no es otra cosa que la compactificación


de Stone Čech de Y definida en la sección A.16, mientras que la trnasformada Γ es la
extensión de su propiedad universal.

177
Ejemplo 6.2.11. Este va a tı́tulo de divulgación y propaganda, pero sigue siendo ejercicio
para lectores con muchos años de análisis. Consideremos el espacio L1 (R) con la Lebesgue.
Es un AB sin uno, cuando uno le pone el producto de convolución
Z
f ∗ g (t) = f (t − s) g(s) ds para f , g ∈ L1 (R) y t ∈ R .
R

Sea A = C 1 + L1 (R), como en el Ejer. 6.1.3. Nos queda un AB conmutativa con uno.
Se puede ver que XA es la compactación de Alexandrov (un punto) de R, donde el ∞ es el
caracter que tiene nucleo L1 (R) y los demás se verán en la siguiente fórmula. El hecho notable
es que con estas identificaciones, la restricción de la transformada de Gelfand Γ : A → C(XA )
al ideal L1 (R) toma valores en el álgebra C0 (R) y miren quién es:
Z
1
Γ : L (R) → C0 (R) está dada por Γf (s) = f (s) = b f (t) e−i s t ds ,
R

para cada f ∈ L1 (R) y s ∈ R. O sea que en este inocente ejemplito la transformada de


Gelfand es la de Fourier! Observar que, como nos guardamos de decir antes para mantener
el suspenso, identificamos los s ∈ R con los caracteres ϕs ∈ XA que no se anulan en L1 (R),
dados por son ϕs (f ) = fb(s) para cada f ∈ L1 (R).
Algo parecido pasa si ahora tomamos `1 (Z), que ahora es un AB con uno, con su convolución
X
a ∗ b(n) = am−n bm para a = (an )n∈ N y b = (bn )n∈ N ∈ `1 (Z) .
m∈Z

En este caso X`1 (Z) ∼


= T = {z ∈ C : |z| = 1} y Γ : `1 (Z) → C(T) está dada por
def
X
Γa (ω) = fa (ω) = an ω n para a = (an )n∈ N ∈ `1 (Z) y ω ∈ T .
n∈Z

Observar que la serie que define a cada fa (ω) converge absolutamente porque a ∈ `1 (Z). La
imagen Γ(`1 (Z) ) se llama el álgebra de Wiener (continuas en T con coeficientes de Fourier
sumables), y tiene apariciones fulgurantes en análisis armónico. Hay una gran cantidad
de detalles que no justificamos, pero vale la pena chamuyar sobre qué dan las cosas, para
enterarse de que la de Gelfand es una transformada pulenta (ver el Ejer. 6.7.24). 4

6.3 Espectro de operadores


Ahora trabajaremos más detalladamente sobre el espectro de operadores T ∈ L(E), donde
E es un EB. El concepto básico es que la noción de espectro es la generalización correcta de
la de autovalores (de matrices) al contexto infinitodimensional.
De hecho, si T ∈ L(E) y un λ ∈ C cumple que ker (λI − T ) 6= {0} (eso es ser un autovalor),
es claro entonces que λI − T ∈
/ Gl (E), por lo que λ ∈ σL(E) (T ). Pero puede haber muchos
elementos espectrales de T que no sean autovalores. Sin ir más lejos, si T ∈ L(E) es mono

178
pero no sobre (de esos suele haber muchos cuando dim E = ∞), entonces 0 no es autovalor
porque T es mono, pero sı́ está en el espectro de T porque T no es epi.
Más adelante dividiremos al σ(T ) en distintas clases (las distintas posibles causas de la no
invertibilidad de los λ I −T ). Pero antes veamos algunas propiedades más genéricas y muchos
ejemplos. Empecemos por la adjunta de un operador:
Antes de enunciar las cosas aclaremos un eventual malentendido. Si H es un EH y A ∈ L(H),
entonces A∗ ∈ L(H) opera en H (es el del Teo. 4.1.6) y no es (exactamente) lo mismo que
el adjunto de A que opera en H∗ (según la Def. 2.6.2 para EN’s generales). Hay en el medio
una identificación (vı́a el Teor. de representación de Riesz) entre H∗ y H que es antilineal.
Esto produce un cambio en el cálculo del espectro de A∗ , como veremos ahora:
Proposición 6.3.1. Sean E un EB y H un EH.
1. Si T ∈ L(E), entonces T ∗ ∈ L(E ∗ ) cumple que σ(T ∗ ) = σ(T ).
2. En cambio, si A ∈ L(H), vale que σ(A∗ ) = { λ : λ ∈ σ(A)}.
Demostración. El tema clave es que un S ∈ Gl (E) ⇐⇒ S ∗ ∈ Gl(E ∗ ), como asegura la
Prop. 2.6.12. Además (λ S)∗ = λ S ∗ para cada λ ∈ C (porque S ∗ ϕ = ϕ ◦ S para las ϕ ∈ E ∗ ).
Luego, dado λ ∈ C tenemos que (λIE −T ) ∈ Gl (E) ⇐⇒ (λ IE −T )∗ = λ IE ∗ −T ∗ ∈ Gl(E ∗ ).
En cambio, si trabajamos en L(H) sigue valiendo que B ∈ Gl (H) ⇐⇒ B ∗ ∈ Gl (H), pero
ahora tenemos que (λ B)∗ = λ B ∗ para los λ ∈ C (Teo. 4.1.6). Por lo tanto, ahora vale que
λ IH − A ∈ Gl (H) ⇐⇒ (λ IH − A)∗ = λ IH − A∗ ∈ Gl (H) .
Como siempre, esto implica que σ(A∗ ) = { λ : λ ∈ σ(A)}. 
Corolario 6.3.2. Sea H un EH. Si U ∈ U(H), entonces σ(U ) ⊆ T = {λ ∈ C : |λ| = 1}.
Demostración. Por un lado, la Prop. 6.1.7 dice que
ρ(U ) ≤ kU k = 1 =⇒ σ(U ) ⊆ {λ ∈ C : |λ| ≤ 1} .
Pero al mismo tiempo tenemos que U ∗ = U −1 ∈ U(H) y tiene kU −1 k = 1, por lo que
6.2.1 (4)
{λ−1 : λ ∈ σ(U )} = σ(U −1 ) ⊆ {λ ∈ C : |λ| ≤ 1} .
Juntando ambas cosas sale que λ ∈ σ(U ) =⇒ |λ| = 1. 
Observación 6.3.3. Sea T ∈ L(H). Está claro que los λ ∈ σ(T ) no tienen porqué ser
autovalores. Sin embargo una propiedad del estilo deben cumplir: Para todo λ ∈ σ(T )
existe una sucesión (xn )n∈ N en BH tal que
kT xn − λ xn k −−−→ 0 o sinó kT ∗ xn − λ xn k −−−→ 0 . (6.16)
n→∞ n→∞

La prueba se basa en aplicarle el Cor. 4.1.8 a B = T − λIH . Concretamente, si tanto B


como B ∗ fueran AI, entonces B ∈ Gl (H), lo que no vale si λ ∈ σ(T ). Observar que si T era
normal, entonces se deben cumplir las dos convergencias de (6.16). En efecto, en tal caso
también B serı́a normal, por lo que kB xk = kB ∗ xk para todo x ∈ H. 4

179
6.3.4. Pensemos en el Banach Lp = Lp (X , Σ , µ) para 1 ≤ p ≤ ∞. Dada una f ∈ L∞ ,
en 1.8.2 estudiábamos el operador Mf ∈ L(Lp ) dado por Mf g = f g para g ∈ Lp . Tenı́a
kMf k = kf k∞ . Pero ahora queremos ver su espectro. Vale que

σ(Mf ) = σL(Lp ) (Mf ) = σL∞ (f ) = Re (f ) , (6.17)

donde el “=” de la derecha lo vimos recientemente en 6.2.4. Como siempre, la prueba se


basa en que Mf ∈ Gl(Lp ) ⇐⇒ f ∈ GlL∞ ⇐⇒ 0 ∈ / Re (f ). Y ello a su vez en que, de
existir, Mf−1 deberı́a ser Mg para una g ∈ L∞ tal que f g = 1. La prueba de esto último
sale tomando Mf−1 (h) para h’s que sean caracterı́sticas de conjuntos de medida finita, para
que caigan en Lp . Por ejemplo, si µ(X) < ∞ tomamos g = Mf−1 (1) y 1 = Mf (g) = f g.
Dejamos los detalles para el lector esencial.
En particular, pensando en el caso discreto, si a = (ai )i∈ I ∈ `∞ = `∞ (I) y tomamos el
multiplicador Ma ∈ L(`p ), se tiene que σ(Ma ) = σ`∞ (a) = {ai : i ∈ I}.
6.3.5 (Espectro del shift). Consideremos primero los shifts unilaterales S, T ∈ L(`2 (N) )
definidos en 1.8.1. Allı́ vimos que todo λ ∈ D es autovalor de T , por lo que D ⊆ σ(T ). Por
la compacidad, toda la bola B = D ⊆ σ(T ). Pero por otro lado ρ(T ) ≤ kT k = 1, ası́ que ya
podemos asegurar que σ(T ) = B. Todo esto para el shift hacia la izquierda T .
Del shift hacia la izquierda S sabemos que no tiene ningún autovalor (ver 1.8.1). Sin embargo
una cuenta directa (o un repaso de 4.1.9) muestra que S = T ∗ , por lo que también σ(S) = B
(hay que conjugar, pero no importa).
Con respecto a los bilaterales U, V ∈ L(`2 (Z) ) definidos en la Obs. 3.7.3, allı́ se vió que son
unitarios (aunque todavı́a no se usaba ese nombre). Por ello y por el Cor. 6.3.2 vemos que sus
espectros tienen que vivir dentro de T. Mostraremos de dos maneras que σ(U ) = σ(V ) = T :

1. Por un lado, recordemos el isomorfismo natural Φ : L2 (T) → `2 (Z) correspondiente


a la BON de Fourier {en (w) = wn }n∈Z de L2 (T). En la Obs. 3.7.3 vimos que vale la
igualdad U = Φ−1 Me1 Φ. Pero la flecha Γ : L(L2 (T) ) → L(`2 (Z) ) dada por

Γ(T ) = Φ T Φ−1 ∈ L(`2 (Z) ) para T ∈ L(L2 (T) )

es un isomorfismo unital (y sobre) de AB’s. Y tenemos que Γ(Me1 ) = U . Al respecto,


en 6.2.1 (5) vimos que entonces σ(U ) = σ(Me1 ). Por otro lado, en (6.17) mostramos
que σ(Me1 ) = Re (e1 ). Y por último en 6.2.4 decı́amos que, al ser e1 continua, se cumple
que σ(U ) = σ(Me1 ) = Re (e1 ) = e1 (T) = T. Uff. Se usó todo el arsenal.

2. Ahora daremos una prueba más directa aunque algo cuentosa de lo mismo. La idea
es tomar un ω ∈ T y construir un elemento w = (ω n )n∈Z ∈ `∞ (Z). Es fácil ver que el
multiplicador Mw ∈ U(`2 (Z )) (no cambia los tamaños de las entradas). Una cuenta
directa (algo pastosa) muestra que al conjugar a U con este Mw queda que

Mw U Mw−1 = Mw U Mw = ω U =⇒ σ(U ) = σ(Mw U Mw∗ ) = σ(ω U ) = ω σ(U ) .

180
La idea es que si primero multiplicamos y después corremos, al volver a multiplicar
nos sobra (en todas las coordenadas) una potencia de ω. La igualdad σ(U ) = ω σ(U )
vale para todo ω ∈ T. Como σ(U ) 6= ∅, podemos elegir un u ∈ σ(U ). Ası́ llegamos a
que ω = (ω u) u ∈ (ω u) σ(U ) = σ(U ) para todo ω ∈ T.

Finalmente, obsrevar que V = U ∗ = U −1 = Γ(Mz ) . Cualquiera de esas igualdades da (por


distintas razones) que también σ(V ) = σ(U ) = T. 4

6.4 Espectro de autoadjuntos


A partir de ahora veremos algunos resultados de operadores en L(H). Recordemos que un
A ∈ L(H) era AI si existı́a un ε > 0 tal que ε · kxk ≤ kA x k para todo x ∈ H. Es claro
que ser AI implica ser mono y tener rango cerrado. En 2.6.11 probamos además que todo
A ∈ Gl (H) es automáticamente AI, con ε = kA−1 k−1 . Veamos que pasa si A es normal:
Lema 6.4.1. Sea N ∈ L(H) un operador normal. Entonces vale que

N es AI ⇐⇒ N ∈ Gl (H) . (6.18)

Demostración. Sabemos desde 2.6.11 que la flecha ⇐ se cumple. Para la otra tenemos que
ser AI =⇒ ser mono y que R(N ) v H. Pero como N es normal, se tiene que
4.2.2 P rop. 4.1.7 Cor. 3.2.7 ⊥
{0} = ker N = ker N ∗ = R(N )⊥ =⇒ R(N ) = R(N )⊥ =H.

En resumen, como el rango de N es cerrado y denso, entonces N es epi. 


Con este Lema podemos caracterizar bastante bien el espectro de los autoadjuntos:
Proposición 6.4.2. Sea A ∈ L(H) tal que A∗ = A (eso se notaba A ∈ A(H) ) Entonces:

1. Su espectro σ(A) ⊆ R.

2. Mejor aún, si definimos los siguientes números

mA = ı́nf hAx , xi y MA = sup hAx , xi , (6.19)


kxk=1 kxk=1

entonces vale que σ(A) ⊆ [mA , MA ].

3. Ambos extremos mA , MA ∈ σ(A). A veces se los nota λnim (A) y λmax (A) .

4. De paso cañazo: Un operador T ∈ L(H) cumple que

T ∈ L(H)+ ⇐⇒ T ∈ A(H) y mT ≥ 0 ⇐⇒ T ∈ A(H) y σ(T ) ⊆ R+ . (6.20)

181
Demostración. Sea λ = a + i b ∈ σ(A). Abreviemos B = A − aI ∈ A(H). Luego

k(A − λ I) xk2 = k(B − i b I) xk2 = kB xk2 + |b|2 kxk2 − 2 Re hB x , i b xi



= kB xk2 + |b|2 kxk2 + 2 Re i b hB x , xi ( i b hB x , xi ∈ i R )

= kB xk2 + |b|2 kxk2 ≥ |b|2 kxk2 ,

para todo x ∈ H. Entonces, si λ ∈ / R entonces b 6= 0, por lo que A − λI serı́a normal y AI.


Por el Lema 6.4.1 llegarı́amos a que A − λI ∈ Gl (H). Absurdo mal. Listo que σ(A) ⊆ R.
x
Asumamos ahora que λ ∈ R \ [mA , MA ] . Si x ∈ H \ {0} and y = kxk
, entonces

k(A − λ I) xk kxk ≥ h(A − λ I) x , xi = hA y , yi − λ kxk2 ≥ ε kxk2 ,

donde ε = d (λ , [mA , MA ] ) > 0 (observar que hA y , yi ∈ [mA , MA ] porque kyk = 1). En


resumidas cuentas, nos vuelve a quedar que A − λ I es AI, y ahora autoadjunto. Nuevamente
llegamos a que A − λI ∈ Gl (H), por lo que λ ∈/ σ(A).
Observar que el operador B = A − mA I ∈ L(H)+ , porque hB y , yi = hA y , yi − mA ≥ 0
para todo vector unitario y ∈ H, y por una homotecia para todo x ∈ H de cualquier norma.
Recordemos (Teo. 4.3.6) que existe la raı́z B 1/2 ∈ L(H)+ tal que (B 1/2 )2 = B. Tomemos una
sucesión (xn )n∈ N de vectores unitarios tales que hA xn , xn i −−−→ mA . Luego
n→∞

kB 1/2 xn k2 = hB 1/2 xn , B 1/2 xn i = hB xn , xn i = hA xn , xn i − mA −−−→ 0 .


n→∞

Como todos los xn eran unitarios, deducimos que B 1/2 no es AI, por lo que B 1/2 ∈
/ Gl (H).
Es fácil ver que eso implica que B = A − mA I ∈
/ GA , lo que prueba que mA ∈ σ(A). La
prueba de que también MA ∈ σ(A) sale usando al operador C = MA I − A ∈ L(H)+ .
Si tomamos ahora un T ∈ L(H), el primer ⇐⇒ de la Ec. (6.20) sale con fritas. Pero si
estamos asumiendo que T ∈ A(H) (se lo hace de ambos lados), la equivalencia de las otras
condiciones mT ≥ 0 ⇐⇒ σ(T ) ⊆ R+ se deduce de los items 2 y 3 de arriba. 
Definición 6.4.3. Dado un T ∈ L(H), su radio numérico se define como el número

w(T ) = sup hT y , yi .
kyk=1

Es fácil ver que la flecha T 7→ w(T ) define una norma en L(H). Se usa la Ec. (4.3). 4
Ejercicio 6.4.4. Sea H un EH. Probar las siguientes afirmaciones:

1. Si T ∈ L(H), entonces hT x , xi ≤ w(T ) kxk2 para todo x ∈ H.

2. Cuando A ∈ A(H), se tiene la igualdad w(A) = máx { MA , −mA }, donde mA y MA


son los números de la Prop. 6.4.2. 4

182
Proposición 6.4.5. Sea H un EH. Relacionemos los radios y la norma:

1. Dado un T ∈ L(H) se tienen las desigualdades

ρ(T ) ≤ w(T ) ≤ kT k . (6.21)

2. Si dim H > 1, éstas desigualdades bien pueden ser estrictas.

3. Sin embargo vale que las normas w(·) ∼


= k · k en L(H). Más aún, kT k ≤ 2 w(T ).
4. En cambio, si A ∈ A(H), entonces ρ(A) = w(A) = kAk.

Demostración. El hecho de que w(T ) ≤ kT k no es otra cosa que Cauchy-Schwarz. Si


ahora me dan un λ ∈ σ(T ), y como siempre llamamos B = T − λ I ∈ / Gl (H), tenemos tres
posibilidades: Si existe un x ∈ ker B que es (un λ-autovector de T ) unitario, entonces

0 = hB x , xi = hT x , xi − λ =⇒ |λ| = hT x , xi ≤ w(T ) .

Otra es que exista un x ∈ R(B)⊥ unitario. En este caso también vale que hB x , xi = 0 y
se sigue igual. La última posibilidad es que B sea mono y con rango denso. Pero entonces
sabemos por 2.6.11 que B no serı́a AI, y existirı́a una sucesión (xn )n∈ N de unitarios tal que

B xn −−−→ 0 =⇒ hT xn , xn i − λ = hB xn , xn i −−−→ 0 =⇒ |λ| ≤ w(T ) .
n→∞ n→∞

En resumen,
 |λ| ≤ w(T ) para todo λ ∈ σ(T ), por lo que ρ(T ) ≤ w(T ). Si tomamos la matriz
0 1
T = ∈ L(C2 ), se ve que las desiguadades pueden ser estrictas. En efecto,
0 0

1
ρ(T ) = 0 , w(T ) = y kT k = 1 .
2
La cuenta sale fácil porque T (x1 , x2 ) = (x2 , 0) para (x1 , x2 ) ∈ C2 y porque σ(T ) = {0}.
Sea ahora A ∈ A(H). La igualdad ρ(A) = w(A) se deduce de la Prop. 6.4.2 que decı́a que
σ(A) ⊆ [mA , MA ] pero toca los dos bordes. Por otro lado el hecho de que A ∈ A(H) permite
hacer una cuenta muy parecida a la polarización real vista en la Ec. (3.3), que dice ası́ :



4 Re hA x , yi = A (x + y) , (x + y) + A (x − y) , (x − y) ,

para todo par x , y ∈ H. Pero el paralelogramo (3.4) da que si x , y son unitarios, entonces
   
4 Re hA x , yi ≤ w(A) kx + yk2 + kx − yk2 = 2 w(A) kxk2 + kyk2 = 4 w(A) .

Cambiando x por algún ei θ x sale que hA x , yi ≤ w(A). Luego llegamos a que

kAk = sup hA x , yi ≤ w(A) =⇒ kAk = w(A) .
kxk=kyk=1

183
Por último, dado T ∈ L(H) podemos escribirlo como T = A + i B, donde A , B ∈ A(H)

(por ejemplo se tenı́a que A = T +T
2
). Con eso sale la desigualdad

kT k ≤ kAk + kBk = w(A) + w(B) ≤ 2 w(T ) ,

donde se usa que hA x , xi = Re h T x , xi para todo x ∈ H, por lo que w(A) ≤ w(T ) y algo
parecido para mostrar que también w(B) ≤ w(T ). 
La igualdad ρ(A) = kAk que acabamos de ver que verifican los autoadjuntos, en realidad
también se cumple para todo A que sea normal. La prueba va por otro camino:
Teorema 6.4.6. Si N ∈ L(H) es normal, también se verifica que

ρ(N ) = w(N ) = kN k . (6.22)

Demostración. Recordar del Teo. 4.1.6 que kT ∗ T k = kT k2 para todo T ∈ L(H). En partic-
ular, si A ∈ A(H) (por lo que A∗ A = A2 ), uno puede mostrar inductivamente que
n n−1 n−1 n
kAk2 = kA2 k2 = · · · = kA2 k2 = kA2 k para todo n∈N.

Pero ahora veremos que eso se extiende a nuestro normal N : Como N ∗ N ∈ A(H), entonces
n n 1/2 n normal n n n
kN k2 = kN ∗ N k2 = k(N ∗ N )2 k1/2 = k(N ∗ )2 N 2 k1/2 = kN 2 k , (6.23)

siempre para todo n ∈ N. Pero por la fórmula del radio espectral (6.10) vemos que
n (6.23)
ρ(N ) = lim kN m k1/m = lim kN 2 k1/2n = kN k .
m→∞ n→∞

Finalmente, por la Ec. (6.21) el w(N ) queda ensanguchado entre ellos. 


Corolario 6.4.7. Si N ∈ L(H) es normal y tiene σ(N ) = {λ}, entonces N = λ IH .
Demostración. Sea M = N − λ IH , que sigue siendo normal pero ahora tiene σ(M ) = {0}.
Ahora solo falta descifrar que significa que ρ(M ) = kM k en este caso. 
Ejercicio 6.4.8 (Jodido por ahora). Dado un A ∈ L(H), probar que

nuestro A ∈ A(H) ⇐⇒ A es normal y σ(A) ⊆ R . 4

Ejercicio 6.4.9 (Algo menos jodido). Probar que la norma w(·) cumple que

w(T 2 ) ≤ w(T )2 para todo T ∈ L(H) . 4

184
6.5 Cálculo funcional continuo
6.5.1. Sea H un EH y sea A ∈ L(H). Sabemos evaluar polinomios de C[X] en A. De hecho
eso se puede hacer en cualquier álgebra (con polinomios a coeficientes en el cuerpo que le
actúa). Fijado el A, uno tiene entonces un morfismo de álgebras
EA : C[X] → L(H) dado por EA (p) = p(A) , para cada p ∈ C[X] .
En álgebra este EA se llama morfismo de evaluación, pero acá lo llamaremos cálculo polino-
mial en A. Es importante Q que recordemos que EA es morfismo de álgebras.
Q Por ejemplo eso
significa que si p(X) = a (X − λk ) ∈ C[X], entonces p(A) = a (A − λk I) ∈ L(H).
k∈In k∈In

La idea de lo que viene es asumir que A ∈ A(H) (esto es esencial) y extenderlo a un nuevo
cálculo que permita hacer la evaluación f (A), pero ahora para todas las funciones f que
sean continuas en el espectro de A. Las herramientas clave que ya hemos desarrollado son:

1. Si A ∈ A(H), entonces σ(A) ⊆ R. Se vió en la Prop. 6.4.2.

2. σ(p(T ) ) = {p(λ) : λ ∈ σ(T )} para todo p ∈ C[X] y todo T ∈ L(H). (Prop. 6.1.7)

3. ρ(N ) = kN k para todo N ∈ L(H) que sea normal. Es el Teo. 6.4.6.

4. El Teorema de Stone-Weierstrass 3.6.3.

Llamemos K = σ(A) ⊆ R. El Teo. 3.6.3 nos asegura que el álgebra de polinomios C[X]
(actuando en K) es k · k∞ -densa en C(K). En otras palabras, la subálgebra
def
P (K) = {g ∈ C(K) : g(t) = p(t) para un p ∈ C[X] y todo t ∈ K}
es k · k∞ -densa en C(K). Fijemos una f ∈ C(K). Dada una sucesión (pn )n∈ N en P (K) tal
k · k∞
que pn −−−→ f , intentaremos definir el valor de f en A por la fórmula
n→∞

def
f (A) = lim pn (A) ∈ L(H) . (6.24)
n∈N

Para que esto tenga sentido (buena definición), hay que verificar dos cosas:

• Que la sucesión pn (A) tenga lı́mite en L(H).


k · k∞ k·k
• Que si otra sucesión P (K) 3 qn −−−→ f =⇒ pn (A) − qn (A) −−−→ 0.
n→∞ n→∞

En realidad ambas cosas son lo mismo, porque tanto los pn solos como las restas pn − qn son
sucesiones de polinomios que convergen uniformemente en K (una a f , la otra a 0).
Lema 6.5.2. Sea A ∈ A(H) y (pn )n∈ N una sucesión en C[X] que es uniformemente de
Cauchy en σ(A). Entonces existe un B ∈ L(H) que cumple lo siguiente:

1. La sucesión pn (A) −−−→ B con la norma de L(H).


n→∞

185
2. El lı́mite B es normal.

3. La norma de B se calcula ası́: kpn k∞ −−−→ kBk , con normas supremo en σ(A).
n→∞

Demostración. Antes que nada, observar que los operadores pn (A) − pm (A) son normales
para todo par n , m ∈ N (no están en A(H) porque los coeficientes pueden no ser reales).
Por lo tanto, podemos aplicarles el Teo. 6.4.6. Ası́ llegamos a que
6.4.6  6.1.7
kpn (A) − pm (A)k = ρ pn (A) − pm (A) = sup |pn (λ) − pm (λ)| −−−−→ 0 .
λ∈ σ(A) n,m→∞

La convergencia final no es otra cosa que decir que los pn eran uniformemente de Cauchy en
σ(A). La conclusión es que la sucesión pn (A) es de Cauchy en L(H). Como L(H) es un EB,
existe el lı́mite B ∈ L(H). Y él es normal al ser lı́mite de normales. Para probar lo de las
normas, se vuelve a usar que kpn (A)k = ρ(pn (A) ) = kpn k∞ para todo n ∈ N. 
Con el Lema anterior se subsanan las dos objeciones anteriores. Ası́ que ahora ya podemos
afirmar que la definición de f (A) dada en (6.24) es consistente. Es lo que se llama el cálculo
funcional continuo (CFC) para operadores autoadjuntos.
Observar que si A ∈ L(H)+ , entonces el operador A1/2 definido en el Teo. 4.3.6 no es otra
cosa que f (A) para la f (λ) = λ1/2 , definida para todo λ ∈ R≥0 . Para convencerse de ello
basta mirar la Ec. (4.25), o bien acordarse de la unicidad que aseguraba el Teo. 4.3.6. 4
Definición 6.5.3. Sea A ∈ A(H). Llamemos K = σ(A) ⊆ R. Definimos el CFC en A:
(6.24)
ΦA : C(K) → L(H) dada por ΦA (f ) = f (A) para toda f ∈ C(K) .

Por el Lema 6.5.2 se ve que ΦA (f ) es normal para toda f ∈ C(K). 4

La gracia de este CFC es que, aunque Magoya calcula quien es f (A), igual es re-util porque
tiene propiedades magnı́ficas. Empecemos con un listado de las más grosas:
Teorema 6.5.4. Sea A ∈ A(H). Luego el cálculo ΦA : C(K) → L(H) verifica que:

1. La ΦA extiende el cálculo polinomial. Es decir que si p ∈ C[X], las dos formas de


calcular p(A) (evaluar de una o hacer ΦA (p) ) coinciden.

2. Es un morfismo de álgebras. O sea que si f , g ∈ C(K), entonces

ΦA (f + g) = (f + g) (A) = f (A) + g(A) y ΦA (f g) = (f · g) (A) = f (A) g(A)

3. Es un ∗-morfismo: Esto es que ΦA ( f ) = f (A) = f (A)∗ para toda f ∈ C(K).

4. Es isométrico. Vale la pena ponerlo como Ec. para citar después:

kΦA (f )k = kf (A)k = kf k∞ (en K) para toda f ∈ C(K) . (6.25)

186
k·k
5. Si fn −−−→ f uniformemente en K, entonces fn (A) −−−→ f (A).
n→∞ n→∞

6. Si un B ∈ L(H) conmuta con A, entonces también lo hace con cualquier f (A).


6.2.3
7. El operador f (A) ∈ Gl (H) ⇐⇒ f ∈ GC(K) ⇐⇒ 0 ∈
/ f (K).

8. Para toda f ∈ C(K) vale la fórmula de la imagen espectral:


def
σ(f (A) ) = σC(K) (f ) = f (σ(A) ) = {f (λ) : λ ∈ σ(A)} . (6.26)

9. Se tienen las siguientes caracterizaciones:

f (A) ∈ A(H) ⇐⇒ f es real y f (A) ∈ L(H)+ ⇐⇒ f es positiva . (6.27)

Demostración. El hecho de que el CFC sea consistente con la evaluación algebráica de


polinomios sale tomando una sucesión constante en (6.24). Los items 2, 3, 4 y 5 salen
directamente de la definición de ΦA tomando lı́mite de polinomios, porque suma, producto,
conjugación - ∗, conmutación vs. B y normas se preservan en el cálculo polinomial (la norma
por el Lema 6.5.2), y también cuando uno toma lı́mite, tanto en C(K) como en L(H).
Eso muestra en forma directa que si f ∈ GC(K) =⇒ f (A) ∈ Gl (H), dado que su inversa es
f (A)−1 = ΦA (f −1 ) = (f −1 )(A). Pero si existe λ ∈ σ(A) tal que f (λ) = 0 y encima asumimos
que f (A) ∈ Gl (H), como Gl (H) es abierto (Teo. 6.1.4) existirı́a un ε > 0 tal que
todos los T ∈ L(H) tales que kf (A) − T k < ε siguen en Gl (H) .
Por el item 4, esto incluirı́a a todos los T = p(A) para un p ∈ C[X] tal que kf − pk∞ < ε.
Sin embargo, muchı́simos de ellos pueden construirse de modo que p(λ) = f (λ) = 0. Pero
en tal caso sı́ sabemos por la Prop. 6.1.7 que 0 ∈ σ(p(A) ) por lo que T = p(A) ∈
/ Gl (H).
La igualdad σ(f (A) ) = f (σ(A) ) sale sin drama a partir del item 7. Basta observar que
(f −λ 1)(A) = f (A)−λ IH y fijarse si son inversibles de cada lado. Finalmente, si f ∈ C(K),
ΦA es mono 3
f (K) ⊆ R ⇐⇒ f = f ⇐⇒ f (A) = f (A) = f (A)∗ ⇐⇒ f (A) ∈ A(H) .

Probado esto, la caracterización de la positividad sale por las Ecs. (6.20) y (6.26). 
Observación 6.5.5. El Teo. 6.5.4 suele enunciarse diciendo que “existe un único morfismo
(de AB’s) continuo ΦA : C(K) → L(H) que exitende el cálculo polinomial”, o bien tal que
ΦA (1) = IH y ΦA (X) = A. Y que el tal ΦA cumple todas las propiedades del Teo. 6.5.4.
Esto ahora es evidente si uno mira la fórmula (6.24).
Es interesante observar que una prueba alternariva del item 7 sobre el espectro de los f (A)
se puede hacer vı́a el Ejer. 6.2.7. El tema es que se puede pensar que C(K)“ ⊆ ”L(H) por
el incruste isométrico ΦA . Luego se usa de ambos lados que dada f ∈ C(K), vale que la f
es inversible ⇐⇒ |f |2 = f f es inversible. Idem con f (A) vs. f (A)∗ f (A) en L(H).

187
Y nuestro nuevo elemento |f |2 , que está en la subálgebra, tiene su espectro de C(K) en R,
por lo que no tiene “agujeros” y debe conicidir con “su” espectro σ(f (A)∗ f (A) ) en L(H).
Este camino usando la teorı́a de AB’s es en realidad el mejor para definir el CFC. Por ejemplo
permite extender el Teo. 6.5.4 (con todos sus items) a operadores normales N ∈ L(H). La
idea clave es definir el álgebra de Banach C ∗ (N ) ⊆ L(H) generada por N , N ∗ y IH . Observar
que la normalidad de N asegura que C ∗ (N ) es conmutativa.
Luego se aplica la “transformada de Gelfand”, cuyos preliminares vimos en el Ejer. 6.2.8,
que exhibe un isomorfismo natural Γ entre las álgebras conmutativas C ∗ (N ) y C(σ(N ) ), a
través de una identificación (hómeo) de los caracteres de del álgebra C ∗ (N ) con el compacto
σ(N ) (haciendo XC ∗ (N ) 3 ϕ 7→ ϕ(N ) ∈ σ(N ), lo que caracteriza a ϕ). Observar que el
Teo. 6.4.6 y la Ec. (6.15) aseguran que en este caso Γ es isométrica. Que es sobre sale por
Stone-Weierstrass 3.6.3. Luego uno define el CFC en N simplemente como la inversa de Γ.
Una versión detallada de todo esto se verá en el Ejer. 6.7.16.
Observar que todo lo de arriba (pero ahora para normales) incluye, entre otras cosas, el
Ejer. 6.4.8. Los detalles, ahora mucho menos jodidos que entonces, siguen para el lector. 4
Observación 6.5.6. En el Ejer. 6.1.9 vimos otra versión de un cálculo funcional. Se puede
aplicar a todo T ∈ L(H) (no hace falta ni que sea normal), pero solamente funciona para
funciones holomorfas definidas en una bola BCa (0 , M ) que contenga al σ(T ).
Hay que decir dos cosas al respecto: Primero que si N ∈ L(H) es normal y f es una holomorfa
como las de arriba, entonces el operador f (N ) es siempre el mismo, ya sea que lo calculemos
con el CFC en N o con la serie del Ejer. 6.1.9. Esto es evidente del hecho que las sumas
parciales de la serie sirven como polis que aproximen a la f uniformemente en σ(T ). Que
ambos cálculos extienden al polinomial es claro.
Observar que el “cálculo holomorfo”, también llamado CF de Riesz, es viable en toda AB,
lo que ya es decir mucho más que L(H). Esto de por sı́ es importante porque si E es un EB,
no tenemos la noción de operador autoadjunto o normal en L(E), por lo que no disponemos
en L(E) de otro CF que el de Riesz.
Por otro lado, la versión dada en el Ejer. 6.1.9 de este CF no es todo lo general que pudiera ser.
El tema es que para poder definir f (T ), basta que la f sea holomorfa en un entorno cualquiera
de σ(T ) (no hace falta que sea una bola centrada en cero). Esto amplı́a notablemente el
conjunto de funciones que uno puede evaluarle a T . Claro que para esas nuevas f , el operador
f (T ) no se calcula con un serie tan amigable como la que se usó en el Ejer. 6.1.9.
La idea base es usar la fórmula integral de Cauchy a lo largo de una curva cerrada γ que
“rodee” a σ(T ) dentro del dominio de f pero sin tocar al espectro, dando una sola vuelta
contra el reloj. La fórmula que queda es
Z Z
1 −1 1
f (T ) = f (λ)(λ − T ) dλ = f (λ)RT (λ) dλ .
2πi γ 2πi γ
El problema es que el desarrollo de este cálculo, lo que incluirı́a ver que existe tal curva
γ, que f (T ) está bien definida, pero sobre todo ver que tiene propiedades razonables, es

188
una tarea larga y complicada. Por ello no lo incluiremos en este texto. El lector interesado
pordrá encontrar una excelente exposición de este cálculo en el libro de Conway [2]. 4

Al efectuar el CFC en un A ∈ A(H), lo más usual es evaluarle funciones continuas definidas


en un conjunto más viable que el σ(A), que es el intervalo [mA , MA ], delimitado por los
extremos de σ(A) estudiados en la Prop. 6.4.2. Sin embargo, hay un caso clave en que
conviene hacer todo lo contrario. Antes un ejercicio para repasar matrices 2 × 2 :
Ejercicio 6.5.7. Sea T ∈ L(H). Recordar de 4.5.6 que si S ∈ Latr (T ) entonces
 
T1 0 S
T = con T1 ∈ L(S) y T2 ∈ L(S ⊥ ) .
0 T2 S⊥

Probar que en tal caso se tiene la siguiente iguadad de los espectros:

σ(T ) = σ(T1 ) ∪ σ(T2 ) ,

donde al σ(T1 ) se lo piensa en L(S) y al de T2 en L(S ⊥ ). Si T ∈ A(H), probar que


 
f (T1 ) 0 S
f (T ) = para toda f ∈ C(σ(T ) ) . 4
0 f (T2 ) S⊥

Sd
Proposición 6.5.8. Sea A ∈ A(H) y supongamos que σ(A) = K = K1 K2 dos mitades
compactas clopen no vacı́as. Sea f = 1K1 la caracterı́stica de K1 dentro de σ(A). Luego:

1. Esta f ∈ C(K). Llamemos P = f (A) ∈ L(H).

2. Vale que P = P 2 = P ∗ , o sea que P ∈ P(H). Sea S1 = R(P ) v H.

3. El subespacio S1 reduce a A, o sea que si llamamos S2 = S1⊥ = R(1K2 (A) ), entonces


(4.33)
P A = AP =⇒ A(S1 ) ⊆ S1 y A(S2 ) ⊆ S2 .

4. La gracia de todo es que la representación matricial (4.36) en base a S1 ⊕ S1⊥ queda


 
A1 0 S1
A= , y se tiene que σ(A1 ) = K1 y σ(A2 ) = K2 , (6.28)
0 A2 S1⊥

donde los espectros se calculan en las álgebras L(Si ) en las que viven los Ai .
Sd
Es decir que en la situación σ(A) = K = K1 K2 se puede “dividir” al operador A y al
espacio H en “autoespacios” ortogonales donde se realizan las dos mitades de σ(A).

189
Demostración. La continuidad de f = 1K1 es obvia por la clopenidad. Si ahora uno observa
que f = f 2 = f pensandolas como funciones de C(K), saca el item 2 usando el Teo. 6.5.4,
cuyo item 5 también asegura que P A = AP , lo que muestra el item 3 de acá. Notar que
0 6= P 6= IH porque, al ser los Ki no vacı́os, sus caracterı́sticas no son nulas en C(K).
Si llamamos B = AP vemos que B = g(A) donde g(λ) = λ 1K1 (λ), para λ ∈ K. Aplicando
nuevamente el Teo. 6.5.4 podemos calcular que σ(B) = g(K) = K1 ∪ {0}. Si les aplicamos
a estos operadores la representación matricial vista en (4.36), nos queda que
     
A1 0 IS1 0 A1 0 S1
B = AP = = . (6.29)
0 A2 0 0 0 0 S2

Ya sea por el Ejer. 6.5.7 o haciendo las cuentas (si no creen en matrices háganlas), sale que
(6.29)
K1 ∪ {0} = σ(B) = σ(A1 ) ∪ {0} .

Por lo tanto, solo falta ver si 0 ∈ σ(A1 ) o no. Podemos asumir que 0 ∈ / K (cambiando A
por A + λIH si hace falta). En tal caso, para mostrar que σ(A1 ) = K1 sólo nos hace falta
probar que A1 ∈ Gl(S1 ). Pero fijensé que ahora tenemos que la función h(λ) = λ−1 1K1 (λ)
vive en C(K) y cumple que g h = 1K1 = f . Llamemos C = h(A). Luego

B C = g(A) h(A) = f (A) = P = h(A) g(A) = C B . (6.30)

Como h(A) conmuta con P = f (A), la Prop. 4.5.8 nos aseguraba que S1 ∈ Latr (C) y que
       
C1 0 A1 0 C1 A1 0 IS1 0
CB = = = =P .
0 C2 0 0 0 0 0 0

En forma similar sale que P = BC =⇒ A1 C1 = IS1 . Luego C1 = A−1


1 y A1 ∈ Gl(S1 ). La
prueba de que σ(A2 ) = K2 es igual. 
Corolario 6.5.9. Sea A ∈ A(H). Si λ es un punto aislado de σ(A), entonces:

1. El tal λ ∈ σ(A) es un autovalor de A, en el sentido de que ker(λIH − A) 6= {0}.

2. La función 1{λ} ∈ C(σ(A) ). Sean Pλ = 1{λ} (A) y Sλ = R(Pλ ). Luego Sλ ∈ Latr (A).

3. Además, haciendo la representación matricial (4.36) en base a Sλ ⊕ Sλ⊥ queda


 
λ IS1 0 Sλ
A= ,
0 A2 Sλ⊥

donde A2 = A (I − Pλ ) ∈ A(Sλ⊥ ) cumple que σ(A2 ) = σ(A) \ {λ}.

4. Nuestro Sλ cumple que en realidad Sλ = ker(λIH − A).

190
Demostración. El hecho de que λ sea aislado significa que K2 = σ(A) \ {λ} es también un
clopen compacto dentro de σ(A). Si llamamos K1 = {λ} estamos en las condiciones de la
Prop. 6.5.8. Con las notaciones de ella, tenemos que Sλ = R(Pλ ) v H es no nulo y que
 
A1 0 Sλ
A= ⊥ donde A1 = A S ∈ A(Sλ ) tiene σ(A1 ) = K1 = {λ} .
0 A2 Sλ λ

El hecho de que A1 ∈ A(Sλ ) sale por la vieja Ec. (4.39). Por el Cor. 6.4.7 uno deduce que
A1 = λ ISλ y de ahı́ que Sλ ⊆ ker(λIH − A). Pero vimos arriba que Sλ 6= {0}.
La segunda parte del enunciado sale directo de la Prop. 6.5.8. Observar que de ahı́ uno saca
fácilmente que en realdad R(Pλ ) = Sλ = ker(λIH − A), porque en caso contrario deberı́a
pasar que ker(λIH − A) ∩ Sλ⊥ 6= {0}. Y eso no está permitido porque λ ∈/ σ(A2 ).
En la prueba hay un pequeño gap. El caso en que σ(A) = {λ} harı́a que K2 = ∅. Pero en
ese caso todo lo que se postula es trivial, porque A = λIH (Cor. 6.4.7). 
Corolario 6.5.10. Toda matriz autoadjunta tiene una BON de vectores propios.
Demostración. Sale por un argumento inductivo a partir del Cor. 6.5.9. Notar que como el
espectro de las matrices es finito, todos sus puntos son aislados. 
Corolario 6.5.11. Si A ∈ A(H) tiene espectro finito, entonces

1. Si σ(A) = {λ1 , . . . , λr }, existen P1 , . . . , Pr ∈ P(H) tales que


X X
Pi Pj = 0 si i 6= j , Pk = IH y A = λk Pk . (6.31)
k∈ Ir k∈ Ir

Q
2. Si p(X) = (X − λk ) ∈ C[X], entonces p(A) = 0.
k∈ Ir

Es decir que un A ∈ A(H) es “algebráico” ⇐⇒ σ(A) es finito. Ojo que esto no vale para
todos los demás operadores T ∈ L(H).
Demostración. Nuevamente sale haciendo inducción en el Cor. 6.5.9. De hecho hay que
definir a cada Pk = 1{λk } (A). Con ellos Plas tres partes de la Ec. (6.31) salen sin mucha
dificultad. Con la representación A = λk Pk , también es una cuentita directa la
P k∈ Ir
verificación de que q(A) = q(λk ) Pk para todo q ∈ C[X]. 
k∈ Ir

Ejercicio 6.5.12. Usando la Obs. 6.5.5, probar que todos los resultados anteriores, desde
la Prop. 6.5.8 hasta el Cor. 6.5.11, siguen siendo válidos si uno reemplaza en enunciados y
pruebas la frase “A ∈ A(H)” por “N ∈ L(H) es normal”.
Ya que estamos, si el lector leyó sobre el CF de Riesz en el Conway, le proponemos extender
esos mismos resultados para cualquier álgebra de Banach A y cualquier elemento a ∈ A.
La idea es que, en realidad, la caracterı́stica de una mitad clopen de σ(a) es una función
holomorfa en un entorno de σ(a). Todos los resultados a extender se basan en ese hecho. 4

191
Ejercicio 6.5.13. Sea N ∈ L(H) un operador normal. Notemos K = σ(N ). Fijemos una
f ∈ C(K) y llamemos J = f (K) ⊆ C que es compacto. Dada ahora una g ∈ C(J), vale que

1. La composición h = g ◦ f ∈ C(K), por lo que podemos evaluar



h(N ) = g ◦ f (N ) ∈ L(H) .

2. Pero también podemos hacer primero M = f (N ) y observar que

M es normal y σ(M ) = f (K) = J , por lo que g ∈ C(σ(M ) ) .

En resumen, podemos usar el CFC para M = f (N ) y obtener


 g(M ) = g(f (N ) ) ∈ L(H), y
por otro lado hacer CFC en N y obtener h(N ) = g ◦ f (N ). El ejercicio es probar que

g ◦ f (N ) = g(M ) = g(f (N ) ) , (6.32)

o sea que las dos maneras plausibles de evaluar la composición coinciden.


Sug: Probarlo primero para funciones g ∈ C(J) que sean polinómicas. 4
Ejercicio 6.5.14. Sea U ∈ U(H), por lo que en particular es normal. La Prop. 6.3.2 nos
dice que σ(U ) ⊆ T. Asumamos que no lo llena, o sea que existe un ω ∈ T \ σ(U ).
Probar que en esas condiciones siempre existe un B ∈ L(H) tal que

B ∗ = −B y U = eB .

Esto último significa que U = exp(B) vı́a en CFC en B, donde exp(z) = ez es la función
exponencial. Más aún, probar que existe un A ∈ L(H) tal que cumple lo siguiente:

A ∈ A(H) , σ(A) ⊆ [t , t+2π] para algún t ∈ [0 , 2π] y U = exp(i A) = ei A . (6.33)

La idea es definir B = log(U ) con alguna rama holomorfa del log que “salte” en nuestro
puntito ω ∈/ σ(U ). De hecho más adelante veremos que el requerimiento de que σ(U ) no
llene a T no es imprescindible para obtener (6.33), pero sólo es posible hacerlo con el CFC
si asumimos eso. El caso general que anunciamos será una consecuencia del futuro CFBA
(CF Boreliano acotado), del que ésta disgresión es un márketing previo.
Observar que tal resultado implicarı́a que U(H) es conexo (por arcos), conectando a U con
IH con la curva continua [0, 1] 3 t 7→ ei t A ∈ U(H). Haciendo la DP y usando que L(H)+ es
convexo, se podrı́a deducir que todo el grupo Gl (H) es también arconexo. Ojo que ambas
cosas sólo valen porque K = C. Notar que en el caso real (y finitodimensional) el signo del
determinante da dos componentes conexas de U(H) y de Gl (H). 4

Otra aplicación directa del CFC es la posibilidad de definir las “partes” positiva y negativa
de un A ∈ A(H):

192
Proposición 6.5.15. Sea A ∈ A(H). Entonces existen únicos

A+ y A− ∈ L(H)+ tales que A = A+ − A− y A+ A− = 0 . (6.34)

En particular, todo T ∈ L(H) es CL de 4 positivos (de una forma canónica).


Demostración. Sabemos que σ(A) ⊆ R. Definamos f ∈ C(R) la función dada por

f (t) = máx{t , 0} = t ∨ 0 para cada t∈R.


def
Como es continua pordemos definir A+ = f (A), que es positivo porque f toma valores
def
positivos, vı́a (6.27). Además A− = A+ − A = f (A) − A = g(A), donde la nueva g ∈ C(R),
que esta dada por g(t) = f (t) − t = 0 ∨ −t (para t ∈ R), es otra función positiva que además
cumple que f g ≡ 0, por lo que ya tenemos que A− ∈ L(H)+ y que A+ A− = 0.
Veamos la unicidad: Si A = C − D con C , D ∈ L(H)+ y tales que CD = 0, entonces C y
D conmutan con A, y por ello también conmutan con A+ y con A− (por 6 del Teo. 6.5.4).
Definamos ahora el operador S = A+ − C = A− − D ∈ A(H). Luego tenemos que

0 ≤ S ∗ S = S 2 = (A+ − C) (A− − D) = − A+ D + A− C ≤ 0 .


Se usó que el producto de positivos que conmutan queda positivo (si no saben porqué vale
va como ejercicio). Es claro que S ∗ S = 0 =⇒ S = 0, ası́ que C = A+ y D = A− . Lo de la
CL de 4 positivos pasa por esctibir cada T ∈ L(H) como T = Re T + i Im T . 
Ejercicio 6.5.16. Sea A ∈ A(H). Probar que

|A| = A+ + A− = m(A) , donde m(t) = |t| para t∈R. 4

6.6 Propiedades de la raı́z cuadrada positiva


Repasemos las propiedades de orden en A(H) vistas en la Sección 4.3.

Dados A, B ∈ A(H) decimos que A≤B si B − A ∈ L(H)+ . (6.35)

Observar que, dados A, B ∈ A(H), se tiene que

A ≤ B ⇐⇒ hA x , xi ≤ hB x , xi para todo x∈H. (6.36)

Repasemos ahora el enunciado de la Prop. 4.3.2


Prop. 4.3.2. Sea H un EH. Dados A, B ∈ A(H) tales que A ≤ B, se tiene que

1. Para cualquier T ∈ L(H) pasa que T ∗ AT ≤ T ∗ BT .

2. Si además pasaba que A ∈ L(H)+ , entonces kAk ≤ kBk.

193
3. A cualquier A ∈ A(H) se lo ensangucha con múltiplos de la identidad:

−kAk I ≤ A ≤ kAk I . (6.37)

4. A ∈ Gl (H)+ ⇐⇒ A ≥ c I para cierto c > 0. 

6.6.1. Veamos ahora algunas cosas nuevas de este tema: En principio observar que

Dado un A ∈ L(H)+ se tiene que A ≤ I ⇐⇒ kAk ≤ 1 ⇐⇒ ρ(A) ≤ 1 . (6.38)

Las =⇒ son claras. Pero ρ(A) ≤ 1 =⇒ σ(A) ⊆ [0, 1], y allı́ la función f (t) = t es menor
que g(t) ≡ 1. Por el CFC eso nos da que A = f (A) ≤ g(A) = I.
Va otra: Dado T ∈ L(H), se tiene las siguientes dos propiedades:

0 ≤ T ∗ T ≤ kT ∗ T k I y T ∗ T ≤ I ⇐⇒ kT k ≤ 1 . (6.39)
4.1.6
La primera es fácil y la segunda sale de (6.38), porque kT ∗ T k = kT k2 . 4
Lema 6.6.2. Dados A ∈ L(H)+ y B ∈ Gl (H)+ , se tiene que

A ≤ B ⇐⇒ kA1/2 B −1/2 k ≤ 1 ⇐⇒ ρ(AB −1 ) ≤ 1 . (6.40)

Demostración. Notemos que

A ≤ B ⇐⇒ B −1/2 AB −1/2 ≤ I ⇐⇒ (A1/2 B −1/2 )∗ A1/2 B −1/2 ≤ I .

Luego se aplican (6.38), (6.39) y el hecho de que ρ(B −1/2 AB −1/2 ) = ρ(AB −1 ), igualdad que
se deduce del Ejer. 6.13 en el álgebra de Banach L(H). 
Corolario 6.6.3. Dados A , B ∈ Gl (H)+ tales que A ≤ B, se tiene que B −1 ≤ A−1 .
Proof. Por (6.40) tenemos que ρ(AB −1 ) ≤ 1. Pero el Ejer. 6.13 nos asegura que
(6.40)
ρ(B −1 A) = ρ(AB −1 ) ≤ 1 =⇒ B −1 ≤ A−1 .

Ya se habia dado una prueba de esto en la Prop. 4.3.10, pero esta es mucho más corta. 
Recordemos que si A ∈ L(H)+ , entonces el operador A1/2 definido en el Teo. 4.3.6 no es otra
cosa que f (A) para la f (λ) = λ1/2 , definida para todo λ ∈ R≥0 . Sale fácil por la unicidad
que da el Teo. 4.3.6. Ahora viene un resultado importante: tomar raı́z cuadrada es lo que se
suele llamase “una función monótona de operadores”. Eso significa lo siguiente:
Proposición 6.6.4. Sean A , B ∈ L(H)+ tales que A ≤ B. Entonces también A1/2 ≤ B 1/2 .

194
Demostración. Supongamos que B ∈ Gl (H)+ . Usando dos veces (6.40) sale que
6.13
1 ≥ kA1/2 B −1/2 k ≥ ρ(A1/2 B −1/2 ) = ρ(B −1/4 A1/2 B −1/4 ) =⇒ I ≥ B −1/4 A1/2 B −1/4 .

Por lo tanto B 1/2 ≥ A1/2 . Si B no es inversible, para cada ε > 0 se toma B + εI ∈ Gl (H)+ .
Luego A1/2 ≤ (B + εI)1/2 para todo ε > 0. Como (t + ε)1/2 − t1/2 ≤ ε1/2 para todo t ≥ 0,
D E (6.25)
1/2 1/2
hA x, xi ≤ (B + εI) x, x −−−−→ hB 1/2 x, xi , para todo x∈H. 
ε→0

La función raı́z cuadrada se usa además para definir el módulo de operadores. Estudiémoslo
un poquito mejor: Dados S , T ∈ L(H), se tiene que

1. Es falso en general que |S + T | ≤ |S| + |T | como operadores.

2. Sin embargo, al menos vale que la flecha T 7→ |T | es continua.

Esto no es nada fácil de verificar. Para probarlo veamos antes un par de resultados:
Corolario 6.6.5. Sean S , T ∈ L(H). Entonces tenemos la desigualdad

|S T | ≤ kSk |T | . (6.41)

Demostración. Por la Prop. 4.3.2 y la Ec. (6.39) sabemos que

(ST )∗ ST = T ∗ S ∗ ST ≤ kSk2 T ∗ T .

Tomando raı́ces y usando la Prop. 6.6.4 llegamos a que |ST | ≤ kSk |T | como operadores. 
Proposición 6.6.6. Sea I ⊆ R un intervalo cerrado (valen semirrectas o todo R). Sean

1. f : I → C una función continua.


def
2. AI (H) = {A ∈ A(H) : σ(A) ⊆ I}.
CF C
Entonces la aplicación f : AI (H) → L(H) dada por AI (H) 3 A −→ f (A) ∈ L(H) es
continua, respecto de la norma en ambos lados.
Demostración. Tomemos An −−−→ A, todos en AI (H). Observar que
n→∞

mn = min hAn x , xi entonces mn −−−→ mA = min hA x , xi ,


kxk=1 n→∞ kxk=1

porque cada hAn x , xi ∈ hA x , xi + (−ε , ε) siempre que kA − An k < ε. Lo mismo pasa con
los máximos Mn respecto de MA = máxkxk=1 hA x , xi. Por el Teo. 6.4.2, hay un n0 tal que

σ (An ) ⊆ [mn , Mn ] ⊆ J = I ∩ [mA − ε , MA + ε] para todo n ≥ n0 .

195
Por el teorema de Weierstrass (en el intervalo cerrado J), existe un P ∈ C[X] tal que
kf − P kJ , ∞ < ε . Comparando f (An ) con P (An ) para n ≥ n0 , vemos que

kf (A) − f (An )k ≤ kf (A) − P (A)k + kP (A) − P (An )k + kP (An ) − f (An )k

< 2 ε + kP (A) − P (An )k −−−→ 2 ε .


n→∞

De ahı́ saldrı́a que kf (A) − f (Am )k −−−→ 0 y que la f “de operadores” quedarı́a continua
m→∞
en el espacio AI (H). En lo de arriba se usó que
6.5.4
kf (B) − P (B)k = kf − P kσ(B) , ∞ ≤ kf − P kJ , ∞ < ε para todo B ∈ AJ (H) ,

que tanto A como los An están ahi (desde n0 ), y que el polinomio P que está fijo cumple
que P (An ) −−−→ P (A) (suma finita de potencias). 
n→∞

Corolario 6.6.7. Sea H un EH. La función módulo de operadores, pensada como

L(H) 3 T 7−→ |T | = (T ∗ T )1/2 ∈ L(H)+

es continua. Es decir que Tn −−−→ T =⇒ |Tn | −−−→ |T |.


n→∞ n→∞

Demostración. El módulo es la composición de dos flechas continuas, a saber

• Una fácil: L(H) 3 T 7−→ T ∗ T ∈ L(H)+ .



• Una más jugada: A[0 , ∞) (H) = L(H)+ 3 A 7−→ A1/2 ∈ L(H)+ .

La primera es continua porque estrellar es isométrica y multiplicar continua en las dos


variables. La raı́z cuadrada de operadores es continua en A[0 , ∞) (H) por la Prop. 6.6.6.
Finalmente, la igualdad A[0 , ∞) (H) = L(H)+ se vió en la Ec. (6.20) del Teo. 6.4.2. 
Ejercicio 6.6.8. Sea H un EH. Sea I ⊆ R un intervalo abierto. Probar que
def
1. El conjunto AI (H) = {A ∈ A(H) : σ(A) ⊆ I} es abierto en A(H).

2. La evaluación (CFC) por una f ∈ C(I) es cotinua en AI (H).

Ahora van un par bastante más difı́ciles. Si no salen al menos recordar que valen:
CF C
3. Si f es “suave” en I, también es suave la flecha AI (H) 3 A −→ f (A) ∈ L(H).
def
4. Si U ⊆ C es abierto, entonces L(H)U = {T ∈ L(H) : σ(T ) ⊆ U } es abierto en L(H).
Esto es lo mejor que hay sobre “continuidad espectral” en todo el álgebra L(H). 4

196
6.7 Ejercicios del Cap. 6 - Espectro
Ejercicios aparecidos en el texto
6.7.1. Sea A0 una AB sin uno. Consideremos entonces un 1 virtual y definamos el álgebra A = C · 1 + A0
con los siguientes datos: Dados λ1 + a y µ1 + b ∈ A,

• Suma: (λ1 + a) + (µ1 + b) = (λ + µ)1 + (a + b).

• Producto: (λ1 + a) · (µ1 + b) = (λ µ)1 + (µ a + λ b + a b).

• Norma: kλ1 + ak = |λ| + kak.

Probar que entonces A es un álgebra de Banach con uno (adivinen quien), de la que A0 es un ideal bilátero
cerrado y maximal (y las nuevas operaciones coinciden con las viejas). 4
6.7.2. Sea A un AB. Dados a, b ∈ A, probar que

si ab = ba y además ab ∈ GA =⇒ a y b ∈ GA .

Sugerimos mostrar que tanto a como b conmutan con ab, y por ello con (ab)−1 . 4
6.7.3. Sea A un AB y sea a ∈ A. Dado un λ ∈ C tal que |λ| > kak, sabemos que λ ∈ Res(a). Usando las
Eqs. (6.2) y (6.8) probar que:

a −1 X −n−1 n
Ra (λ) = (λ − a)−1 = λ−1 1− = λ a siempre que |λ| > kak . 4
λ n=0

6.7.4. Sea A un AB . Probar las siguientes afirmaciones:

1. Sea f : Ω → C una función holomorfa en el conjunto abierto Ω ⊆ C. Supongamos que

(i) La bola cerrada BM = {z ∈ C : |z| ≤ M } ⊆ Ω.



αn z n con convergencia absoluta y uniforme para todo z ∈ BM .
P
(ii) f (z) =
n=0


αn an converge en A.
P
Luego, para todo a ∈ A con kak ≤ M , la serie f (a) =
n=0

2. Extender la Eq. (6.7) en este sentido: Si a ∈ A tiene kak ≤ M , entonces


 def 
f σ(a) = {f (λ) : λ ∈ σ(a) } ⊆ σ f (a) para toda f como la del item 1 .


αn z n en BM , entonces tenemos que
P
La idea es que si f (z) =
n=0


X ∞
X
f (λ) − f (a) = αn (λn − an ) = (λ − a) αn Pn−1 (λ , a) ,
n=0 n=1

donde los polinomios Pn−1 (λ , a) se pueden calcular y acotar para que la serie converja a un b ∈ A que
conmuta con a. Observar que σ(a) ⊆ BM . Ası́ que todas estas cuentas que involucran series, convergen
bien en todo λ ∈ σ(a). 4
6.7.5. Sea A un AB. Se tienen las siguientes propiedades: Sean a ∈ A y µ ∈ C.

1. σ(0A ) = {0} y σ(1A ) = {1}.

197
def
2. σ(µ a) = µ σ(a) = {µ λ : λ ∈ σ(a)}. En particular σ(−a) = −σ(a).
def
3. σ(a + µ 1A ) = µ + σ(a) = {µ + λ : λ ∈ σ(a)}.
def
/ σ(a). En tal caso σ(a−1 ) = σ(a)−1 = {λ−1 : λ ∈ σ(a)}.
4. a ∈ GA ⇐⇒ 0 ∈

5. Sea B otra AB y Γ : A → B un isomorfismo


 (unital) de anillos que es a la vez un isomorfismo (acotado
y sobre) de EB’s. Entonces σB Γ(a) = σ(a).

6. Un caso particular: Si g ∈ GA , entonces σ(g a g −1 ) = σ(a).

7. Sea P ∈ C[X] y supongamos que P (a) = 0. Entonces σ(a) ⊆ { raı́ces de P }. En particular, en ese
caso (bastante poco común) vale que σ(a) es finito.

8. En particular, a2 = a =⇒ σ(a) ⊆ {0, 1} y a2 = 1 =⇒ σ(a) ⊆ {−1, 1}. 4

6.7.6. Sea A un AB. Ahora va otra porpiedad que es mucho menos facilonga:

Dados a, b ∈ A , probar que σ(a b) ∪ {0} = σ(b a) ∪ {0} .

Deducir que ρ(ab) = ρ(ba). Se recomienda mostrar que si λ − ab ∈ GA con λ 6= 0, entonces

λ−1 1 + b (λ − ab)−1 a ∈ A

el elemento es util . 4

6.7.7. Espectro en álgebras de funciones:

1. Sea K un compacto-H y A = C(K) = {f : K → C : f es continua }. Probar que

GC(K) = {g ∈ C(K) : 0 ∈
/ g(K)} y σ(f ) = f (K) = {f (x) : x ∈ K}

para toda f ∈ C(K).

2. Sea ahora A = L∞ = L∞ (X , Σ , µ). Dada f ∈ L∞ recordemos que su rango esencial era


n   o
Re (f ) = λ∈C:µ y ∈ X : |f (y) − λ| < ε 6= 0 para todo ε>0
n o
λ ∈ C : µ f −1 BCa (λ , ε)
 
= 6 0
= para todo ε>0 .

Traduciendo, λ ∈ Re (f ) si la f “ronda” cerca de λ con medida positiva para toda cercanı́a prefijada.
Esta noción sirve como el rango común (o su clausura) en el ejemplo anterior:

GL∞ = {g ∈ L∞ : 0 ∈
/ Re (g)} y σ(f ) = Re (f ) para toda f ∈ L∞ .

3. Si X tiene una topologı́a Hausdorff tal que la medida de los abiertos (no vacı́os) nunca es nula,
podemos tomar la subálgebra de Banach Cb (X) ⊆ L∞ (X). Probar que si h ∈ Cb (X), entonces

khk∞ (la de L∞ (X) ) = sup |f (x)| = khk∞ (la de Cb (X) ) y Re (h) = h(X) = σ(h) ,
x∈X

en cualquiera de las dos álgebras.

4. Cuando X es un compacto dentro de Rn y la medida es la de Lebesgue, mostrar que C(X) ⊆ L∞ (X)


y que las normas coinciden y los espectros también.

198
5. En el caso discreto de `∞ (I), donde también multiplicamos “ i a i ” y queda un AB con su k · k∞ ,

a = (ai )i∈ I ∈ `∞ (I) .



probar que σ(a) = Re (a) = ai : i ∈ I para todo

No vale avivarse de que a : I → C es continua. 4

6.7.8. Sea A un AB y sea B ⊆ A una subálgebra que también es de Banach (mismo uno y misma norma).
Probar lo que sigue:

1. GB ⊆ GA ∩ B, pero la inclusión puede ser estricta (mirar la función e1 del el Ejem. 6.2.6).

2. Dado a ∈ B, ahora tenemos dos espectros para él:

σB (a) = {λ ∈ C : λ − a ∈
/ GB } y σA (a) = σ(a) = {λ ∈ C : λ − a ∈
/ GA } .

Se tiene que σA (a) ⊆ σB (a), pero que la inclusión puede ser estricta.
def
3. Sin embargo, ρ(a) = ρB (a) = sup |λ|.
λ∈σB (a)

4. Más aún, mostrar que (en cualquier AB, pongamos ahora A) una sucesión (an )n∈ N en GA converge
al borde ∂ GA de GA ⇐⇒ ka−1 n k− −−−→ ∞, lo que no depende del álgebra en donde vivan.
n→∞

Sug: Si ka−1
n k estuviera acotada, pasarı́a que k1 − a−1
n ak −
−−−→ 0.
n→∞

5. Deducir que ∂ GB ⊆ ∂ GA .

6. Interpretar lo anterior como que σB (a) consiste de tomar el conjunto σA (a) y “llenar” algunos de sus
“agujeros”. Estos se pueden ver como las componentes conexas y acotadas del abierto C \ σA (a) .
Cotejar esto con el Ejem. 6.2.6.

7. Deducir que los elementos a ∈ B que tienen su espectro σB (a) “chatito” (i.e., sin interior) cumplen
que σB (a) = σA (a).

8. Generalizar todo lo anterior al caso en que B 6⊆ A, pero existe un morfismo unital de anillos Γ : B → A
que es isométrico (aunque no sobre). 4

6.7.9 (Transformada de Gelfand). Sea A un AB y sea I ⊆ A un ideal (si no se aclara es bilátero) cerrado.

1. Probar que el anillo A/I con la norma cociente vista en la Prop. 1.7.1 es un AB.

2. Si J es un ideal no cerrado, mostrar que J es orto ideal.

3. Probar que si M ⊆ A es un ideal maximal, entonces es cerrado, por lo que

A/M es un AB de división =⇒ A/M ∼


=C.

A partir de ahora asumamos que el álgebra A es conmutativa.

4. Deducir que el espacio de caracteres (también llamado espectro de A)

XA = {ϕ ∈ A∗ : ϕ es multiplicativa y unital }

se biyecta con el espacio MA de ideales maximales de A.

5. Probar que si a ∈ A, entonces σ(a) = {ϕ(a) : ϕ ∈ XA }. La idea es que todo b ∈


/ GA debe estar dentro
de algún maximal, y por ello en el núcleo de una ϕ ∈ XA .

199
6. Deducir que todo caracter ϕ ∈ XA tiene kϕk = 1 (porque |ϕ(a)| ≤ ρ(a) ≤ kak).

7. Probar que XA munido con la topologı́a w∗ de A∗ es un compacto Hausdorff.

8. Mostrar que la flecha Γ : A → C(XA ) dada por Γ(a) = JA a = b


a, es decir que

a (ϕ) = ϕ(a)
b para ϕ ∈ XA y a∈A

es un morfismo (bien definido, i.e., b


a es continua) de álgebras de Banach. Se lo llama la transformada
de Gelfand.

9. Para probar la continuidad de Γ mostrar algo mejor:

kΓ(a)k∞ = kb
ak∞ = ρ(a) (el radio espectral) . (6.42)

10. Probar que ker Γ = Rad(A) el radical de Jacobson de A, que es la intersección de los ideales maximales
de A. Deducir la siguiente caracterización del radical: Rad(A) = {a ∈ A : σ(a) = {0} }, los elementos
denominados cuasi-nilpotentes de A. Adivinen de dónde sale el nombre. 4

6.7.10. Sea K un compacto Hausdorff. Probar que si I ⊆ C(K) es un ideal cerrado, entonces el conjunto
cerrado FI = {x ∈ K : f (x) = 0 para toda f ∈ I} cumple que

I = g ∈ C(K) : g(x) = 0 para todo x ∈ FI .

Deducir que MC(K) ∼ XC(K) ∼


= K (hómeo), con la top w∗ de C(K)∗ en XC(K) . La flecha es

K 3 x 7→ Fx = {x} ∼ Mx = {f ∈ C(K) : f (x) = 0} ∼ ϕx ∈ XC(K) ,

donde ϕx (f ) = f (x) para f ∈ C(K). Eso da una prueba por el camino más largo de que

σ(f ) = f (K) = {f (x) : x ∈ K} para toda f ∈ C(K) ,

cosa que ya habı́amos visto en el Ejem. 6.2.3. Deducir que, identificando K con XC(K) como se hizo arriba,
la transformada de Gelfand de C(K) es la identidad: fb(ϕx ) = ϕx (f ) = f (x) .
Esto significa que toda AB conmutativa A se “representa” vı́a Gelfand en un C(K) (ambas con el mismo
espectro K), y que esa representación es la natural si A ya era un C(K). 4
6.7.11. Sea ahora Y un ET que es de Tychonoff. El AB conmutativa que nos interesa es A = Cb (Y ), o
sea las funciones complejas acotadas y continuas en Y , con la norma supremo. Llamemos β(Y ) al espacio
compacto de caracteres XCb (Y ) . Probar que

1. Se puede “incrustar” Y ,→ β(Y ) con la flecha Y 3 y 7−→ ϕy , donde ϕy es el caracter dado por la
“evaluación” de las f ∈ Cb (Y ) en el punto y.

2. Usar que Y era CR para ver que la incrustación de arriba es en ralidad un embbeding, o sea un hómeo
de Y con su imagen dentro de β(Y ) con la topologı́a inducida.

3. Al hacer la transformada Γ : Cb (Y ) → C(β(Y ) ) se tiene que

Γf (ϕy ) = fb(ϕy ) = ϕy (f ) = f (y) para toda f ∈ Cb (Y ) y todo y∈Y .

Interpretar esto como que la función fb “extiende” la continua y acotada f a una continua en el
compacto β(Y ) que “contiene” a Y .

4. Antes de seguir, mostrar que en este caso Γ es un morfismo isométrico sobre. Para ello comparar
norma con radio espectral en Cb (Y ), y usar S-W 3.6.3.

200
5. Deducir que la imagen de Y por el embbeding de 1 es densa en β(Y ) (acá tb se usa que Y era CR).

6. Como lo sugerı́a la notación, β(Y ) = XCb (Y ) no es otra cosa que la compactificación de Stone Čech
del espacio Y definida en la sección A.16, mientras que la trnasformada Γ es la extensión de funciones
continuas acotadas que da su propiedad universal.
6.7.12. Sea ω ∈ T y construir un elemento w = (ω n )n∈Z ∈ `∞ (Z).
1. Probar que el multiplicador Mw ∈ U(`2 (Z) ) (o sea que es unitario).

2. Sea U ∈ U(`2 (Z) ) el shift (a derecha). Mostrar que al conjugar a U con este Mw queda que
−1 ∗
Mw U Mw = Mw U Mw = ω U =⇒ σ(U ) = σ(Mw U Mw ) = σ(ω U ) = ω σ(U ) .

3. Deducir que σ(U ) = ω σ(U ) vale para todo ω ∈ T.

4. Concluir que σ(U ) = T. ¿Y el de Mw qué da? 4


6.7.13. Sea H un EH. Probar las siguientes afirmaciones:
1. La flecha T 7→ w(T ) define una norma en L(H). Se usa la Ec. (4.3).

2. Si T ∈ L(H), entonces hT x , xi ≤ w(T ) kxk2 para todo x ∈ H.

3. Cuando A ∈ A(H), se tiene la igualdad w(A) = máx { MA , −mA }, donde mA y MA son los números
de la Prop. 6.4.2. 4
6.7.14. Probar que la norma w(·) cumple que

w(T 2 ) ≤ w(T )2 para todo T ∈ L(H) . 4

6.7.15. Dado un A ∈ L(H), probar que

nuestro A ∈ A(H) ⇐⇒ A es normal y σ(A) ⊆ R . 4

6.7.16 (CFC para normales). Sea N ∈ L(H) un normal.


1. Consideremos el álgebra de Banach C ∗ (N ) ⊆ L(H) generada por N , N ∗ y IH . Probar que C ∗ (N ) es
conmutativa, cerrada por adjunción y que todos sus elementos son normales.

2. Recordando el Ejer. 6.7.9, probar que la flecha XC ∗ (N ) 3 ϕ 7→ ϕ(N ) ∈ σ(N ) es un hómeo entre el
espectro maximal XC ∗ (N ) de C ∗ (N ) (con su topologı́a w∗ que lo hacı́a compacto) y σ(N ).

3. Componiendo con este hómeo, identificar (como AB’s) a C XC ∗ (N ) con C(σ(N ) ).

4. Aplicar la “transformada de Gelfand” Γ : C ∗ (N ) → C XC ∗ (N ) ∼



= C(σ(N ) ) del Ejer. 6.7.9.

5. Usando el Teo. 6.4.6 y la Ec. (6.42), mostrar que Γ es isométrica.

6. Sea ϕ ∈ XC ∗ (N ) un caracter. Probar que ϕ(A∗ ) = ϕ(A) para todo A ∈ C ∗ (N ).

7. Deducir que Γ(A∗ ) = Γ(A) para todo A ∈ C ∗ (N ).

8. Probar que Γ es sobre por el Teor. de Stone-Weierstrass 3.6.3.

9. Definir el CFC en N simplemente como la inversa de Γ, o sea que ponemos


def
ΦN = Γ−1 : C(σ(N ) ) → C ∗ (N ) ⊆ L(H) .

201
10. Extender el Teo. 6.5.4 (con todos sus items) a operadores normales N ∈ L(H).
11. Repasar a la luz de todo esto aquel viejo Ejer. 6.4.8 - 6.7.15. 4
6.7.17. Sea N ∈ L(H) un operador normal. Notemos K = σ(N ). Fijemos una f ∈ C(K) y llamemos
J = f (K) ⊆ C que es compacto. Dada ahora una g ∈ C(J), vale que
1. La composición h = g ◦ f ∈ C(K), por lo que podemos evaluar

h(N ) = g ◦ f (N ) ∈ L(H) .

2. Pero también podemos hacer primero M = f (N ) y observar que

M es normal y σ(M ) = f (K) = J , por lo que g ∈ C(σ(M ) ) .

En resumen, podemos usar el CFC para M = f (N ) y obtener g(M ) = g(f (N ) ) ∈ L(H), y por otro lado
hacer CFC en N y obtener h(N ) = g ◦ f (N ). El ejercicio es probar que

g ◦ f (N ) = g(M ) = g(f (N ) ) , (6.43)
o sea que las dos maneras plausibles de evaluar la composición coinciden.
Sug: Probarlo primero para funciones g ∈ C(J) que sean polinómicas. 4
6.7.18. Sea U ∈ U(H), por lo que en particular es normal. La Prop. 6.3.2 nos dice que σ(U ) ⊆ T. Asumamos
que no lo llena, o sea que existe un ω ∈ T \ σ(U ).
Probar que en esas condiciones siempre existe un B ∈ L(H) tal que

B ∗ = −B (en particular B es normal) y U = eB .


Esto último significa que U = exp(B) vı́a en CFC en B, donde exp(z) = ez es la función exponencial. Más
aún, probar que existe un A ∈ L(H) tal que cumple lo siguiente:

A ∈ A(H) , σ(A) ⊆ [t , t + 2π] para algún t ∈ [0 , 2π] y U = exp(i A) = ei A . (6.44)


La idea es definir B = log(U ) con alguna rama holomorfa del log que “salte” en nuestro puntito ω ∈
/ σ(U ).
De hecho más adelante veremos que el requerimiento de que σ(U ) no llene a T no es imprescindible para
obtener (6.44), pero sólo es posible hacerlo con el CFC si asumimos eso. El caso general que anunciamos
será una consecuencia del futuro CFBA (CF Boreliano acotado).
Observar que tal resultado implicarı́a que U(H) es conexo (por arcos), conectando a U con IH con la curva
continua [0, 1] 3 t 7→ ei t A ∈ U(H). Haciendo la DP y usando que L(H)+ es convexo, se podrı́a deducir que
todo el grupo Gl (H) es también arconexo. 4
6.7.19. Sea A ∈ A(H). Probar que
|A| = A+ + A− = m(A) , donde m(t) = |t| para t∈R. 4
6.7.20. Sea T ∈ L(H). Recordar de 4.5.6 que si S ∈ Latr (T ) entonces
 
T1 0 S
T = con T1 ∈ L(S) y T2 ∈ L(S ⊥ ) .
0 T2 S⊥

Probar que en tal caso se tiene la siguiente iguadad de los espectros:


σ(T ) = σ(T1 ) ∪ σ(T2 ) ,
donde al σ(T1 ) se lo piensa en el álgebra L(S) y al de T2 en L(S ⊥ ). Si T ∈ A(H), probar además que
 
f (T1 ) 0 S
f (T ) = para toda f ∈ C(σ(T ) ) . 4
0 f (T2 ) S⊥

202
6.7.21. Sea H un EH. Sea I ⊆ R un intervalo abierto. Probar que
def
1. El conjunto AI (H) = {A ∈ A(H) : σ(A) ⊆ I} es abierto en A(H).

2. La evaluación (CFC) por una f ∈ C(I) es cotinua en AI (H).

Ahora van un par bastante más difı́ciles. Si no salen al menos recordar que valen:
CF C
3. Si f es “suave” en I, también es suave la flecha AI (H) 3 A −→ f (A) ∈ L(H). 4

Ejercicios nuevos
def
6.7.22. Sea A un AB. Si U ⊆ C es abierto, probar que AU = {a ∈ A : σ(a) ⊆ U } es abierto en A. En
otras palabras, si a ∈ A y σ(a) ⊆ U , entonces existe ε > 0 tal que

b∈A y ka − bk < ε =⇒ σ(b) ⊆ U . 4

6.7.23. Sea A un AB. Dados a, b ∈ A, probar que

si ab ∈ GA y también ba ∈ GA =⇒ a y b ∈ GA .

Observar que esto mejora el Ejer. 6.7.2. 4


1
6.7.24. Sea A = ` (Z) con su norma usual y el producto de convolución
X
a∗b=c donde cm = an bm−n para a = (an )n∈ N , b = (bn )n∈ N ∈ A y m∈Z.
n∈Z

Probar que nos queda un AB unital (con 1 = e0 , la delta de Dirac discreta). Probar además que

1. Antes de empezar, hay que ver que ka ∗ bk1 ≤ kak1 kbk1 para que sea AB.

2. Por otra parte A es conmutativa, i.e. a ∗ b = b ∗ a para todo par a , b ∈ A.

3. El elemento e1 ∈ GA y cumple que em


1 = em para todo m ∈ Z.

4. Por ello e1 genera el álgebra A. Más especı́ficamente, todo


X X
a = (an )n∈ N ∈ A se escribe como a= an en = an en1 ,
n∈Z n∈Z

con convergencia en la norma (uno) de A.

5. Deducir que todo caracter ϕ ∈ XA está determinado por su valor ϕ(e1 ).

6. Usando que kϕkA∗ = 1 y que ke1 k = ke−1


1 k = ke−1 k = 1, deducir que ϕ(e1 ) ∈ T.

7. Si λ ∈ T la funcional ϕλ : A → C dada por


X
ϕλ (a) = an λn para cada a = (an )n∈ N ∈ A
n∈Z

es lineal, acotada y multiplicativa. O sea que ϕλ ∈ XA y ϕλ (e1 ) = λ.

8. Deducir que λ 7→ ϕλ es un hómeo entre T y XA con inversa ϕ 7→ ϕ(e1 ).

203
9. Interpretar que la transformada de Gelfand se puede ver como
X
Γ : A → C(T) dada por Γa (z) = a
b(z) = an z n para a = (an )n∈ N ∈ A y z∈T.
n∈Z

10. Luego la imagen de Γ son las f ∈ C(T) tales que sus coeficientes de Fourier (fb(n) )n∈Z ∈ `1 (Z). Esas
funciones f forman la llamada álgebra de Wiener W(T).

11. Un famoso (y difı́cil) teorema del mismo Wiener dice que si f ∈ W(T) y f −1 ∈ C(T) entonces también
su inversa es de Wiener: f −1 ∈ W(T). Probarlo con toda la data anterior. La facilidad de esta prueba
le dió prensa mundial a la T de G, mostrando que es un “abstract nonsense” que tiene mucho sentido.
Sug: Se asume que 0 ∈ / σ(a) por lo que a−1 ∈ A y f −1 = ad
b sale que 0 ∈
/ f (T). Si f = a −1 ∈ W(T). 4

6.7.25. Sea N ∈ L(H) un operador normal. Demostrar que se verifica la siguiente propiedad:

−1
Dado un λ ∈ C \ σ(N ) se tiene que k(N − λ)−1 k = d (λ , σ(N ) ) .

Dar un contraejemplo si se saca la hipótesis de normalidad. 4


6.7.26. Sea A ∈ L(H). Probar que las siguientes afirmaciones son equivalentes:

1. A ∈ L(H)+

2. A = B 2 para cierto B ∈ A(H).

3. A = C ∗ C para algún C ∈ L(H).

4. A ∈ A(H) y kA − λ IH k ≤ λ para todo número λ ≥ kAk.

5. A ∈ A(H) y kA − λ IH k ≤ λ para algún número λ ≥ kAk. 4

204
Capı́tulo 7

Operadores compactos

Recordemos que en el Cor. 5.8.2 mostramos que si T ∈ L(H) entonces T (BH ) es siempre
cerrada en norma dentro de H. Se usa que los EH son todos reflex.
Cabe preguntarse qué operadores cumplirán que T (BH ) sea compacta en H. Ahora bien,
si la dim H = ∞ y T (BH ) tiene interior no vacı́o, ya sabemos que no puede pasar porque
las bolitas nunca son compactas en H. Sin embargo hay muchos operadores que sı́ cumplen
lo pedido arriba, y por ello se los llama operadores compactos. Una teorı́a muy similar se
puede desarrollar en el contexto más general de operadores entre EB’s. Pero en este texto
nos limitaremos al caso Hilbertiano.

7.1 Definiciones y equivalencias


Si H es un EH, recordar que llamábamos LF (H) = {T ∈ L(H) : rk T < ∞} ⊆ L(H)
al subespacio de operadores de rango finito. Una cuenta fácil, que sale usando la vieja
Ec. (4.44), muestra que LF (H) en realidad es un ideal bilátero de L(H) que además es
cerrado por tomar ∗ . Entonces su clausura sera un ideal cerrado que permitirá cocientar
y jugar a las álgebras de Banach. Pero antes de definir veamos una serie de condiciones
equivalentes que usaremos a posteriori como definición.
Lema 7.1.1. Sea H un EH. Fijemos B = {ei : i ∈ I} una BON de H. Para cada F ∈ PF (I)
definamos proyector PF ∈ P(H) con rango HF = span {ei : i ∈ F}. Luego vale que

kPF y − yk −−−−−→ 0 para todo y∈H. (7.1)


F∈ PF (I)
P
Demostración. Recordemos que P F y = i∈F hy , ei i ei . Aplicando ahora el Teo. 3.5.5 vemos
que kPF y − yk2 = i∈I\F | hy , ei i |2 −−−−−→ 0.
P

F∈ PF (I)

Con el lenguaje del Lema anterior ya podemos dar la serie de condiciones equivalentes que
anunciábamos. Para cada Hilbert H, denotaremos por K(H) a la clausura en norma de los
rango finito LF (H). En la prueba del siguiente teorema usaremos libremente las caracteri-
zaciones de los espacios (topológicos o métricos) compactos vistas en A.12.3 y A.13.3.

205
Teorema 7.1.2. Sean H un EH y T ∈ L(H). Las suguientes condiciones son equivalentes:
def
1. T ∈ K(H) = LF (H).
w k·k
2. Si xi −−→ x (todos en BH ), entonces T xi −−→ T x. En otras palabas, estamos diciendo
i∈ I i∈ I
que la restricción T : BH → H es w → k · k continua.
BH

3. T (BH ) es k · k- compacta en H.

4. Dada una red x = (xi )i∈ I en BH , existe un z ∈ H y una subred y = (yj )j∈ J de x tales
k·k
que T yj −−→ z.
j∈ J

5. T (BH ) es totalemte acotada con la norma de H.


k·k
6. La red PF T −−−−−→ T , donde los PF son los proyectores del Lema 7.1.1, asociados a
F∈ PF (I)
cualquier BON de H.

A los T ∈ L(H) que cumplen estas cosas se los llama operadores compactos.
w
Demostración. Fijemos la red convergente xi −−→ x. Observar que como la red x = (xi )i∈ I
i∈ I
vive en BH , entonces automáticamente su lı́mite x ∈ BH , porque la bola es convexa y cerrada
en norma (se usa la Prop. 5.5.2). Si asumimos que T ∈ K(H), existirá un S ∈ LF (H) tal
que kT − Sk < 3ε . Luego la cuenta de siempre dice que


kT xi − T xk ≤ kT xi − S xi k + kS xi − S xk + kS x − T xk < + kS xi − S xk ,
3
Por otra parte, la Prop. 5.8.1 decı́a que el S debe ser w → w continuo, por lo que podemos
w
afirmar que S xi −−→ S x. Finalmente, como la dim R(S) < ∞, allı́ adentro la topologı́a de
i∈ I
la norma coincide con la w (basta productear contra una BON del R(S) y convergen las
k·k
coordenadas). Luego tenemos que S xi −−→ S x. Con la desigualdad de arriba podemos
i∈ I
k·k
concluir que T xi −−→ T x como afirma el item 2.
i∈ I

Como
H es reflex, el Teo. 5.7.1 asegura que BH es w- compacta. Si ahora aceptamos que
T B es w → k · k continuo, sale al toque que T (BH ) es k · k- compacta en H. Como sabemos
H
que T (BH ) es cerrada (Cor. 5.8.2) y por ello completa, eso equivale a que T (BH ) sea TA.
Vimos que 1 ⇒ 2 ⇒ 3 ⇔ 5. La relación 3 ⇔ 4 es casi tautológica (vı́a A.12.3). El baile
k·k
es 5 ⇒ 6: Queremos probar que PF T −−−−−→ T . Por la Ec. (7.1) del Lema 7.1.1 aplicada
F∈ PF (I)
a y = T x, sabemos que hay convergencia puntual. Pero estamos asumiendo que T (BH ) es
a
TA. Ello nos permite, dado un ε > 0, cubrila con n bolas Bk = BH (T xk , 3ε ), para k ∈ In .

206
Fijemos un F0 ∈ PF (I) tal que kPF T xk − T xk k < 3ε para todo F ⊇ F0 y todo k ∈ In .
Usando que todas las kPF k ≤ 1, vemos que los F ⊇ F0 cumplen que

kPF T x − T xk ≤ kPF (T x − T xk )k + kPF T xk − T xk k + kT xk − T xk

ε
< 2 kT x − T xk k + 3
< ε siempre que T x ∈ Bk .

Como las Bk cubren T (BH ), si F ⊇ F0 nos queda que kPF T x − T xk < ε para todo x ∈ BH ,
k·k
es decir que kPF T − T k ≤ ε para tales F. Eso mustra que PF T −−−−−→ T .
F∈ PF (I)

Finalmente notemos que PF ∈ LF (H) para todo F ∈ PF (I). Luego todos los productos PF T
están también en LF (H). Ası́ que 6 ⇒ 1 es gratis. 
La definición usual de que un operador T ∈ L(E , F ) entre espacios de Banach sea compacto
pasa por el hecho de que T (BE ) sea “relativamente compacto”. En tal contexto no es cierto
simpre que los compactos K(E, F ) ⊆ L(E, F ) sean la clausura de los rango finito.
En cambio vimos que sı́ pasa con los compactos de L(H). A partir de ese hecho pueden
probarse muchas propiedades del espacio K(H), y con el Teo. 7.1.2 ya tenemos muchas
adentro. Las enumeramos a continuación:
Corolario 7.1.3. Sea H un EH. El conjunto K(H) de operadores compactos cumple:

1. Contiene a LF (H) i.e., todo rango finito es compacto.

2. Es un subespacio de L(H), o sea que suma de compactos es compacto.

3. Más aún, es un ideal bilátero. Esto agrega que si T ∈ K(H), entonces

A T B ∈ K(H) para todo par A , B ∈ L(H) .

4. Es cerrado, por lo que un lı́mite de compactos queda compacto.

5. Es cerrado por adjunción: T ∈ K(H) =⇒ T ∗ ∈ K(H).

6. Además vale que T ∈ K(H) ⇐⇒ |T | ∈ K(H) ⇐⇒ Re T e Im T ∈ K(H).

7. En cambio si hay un subespacio N ⊆ H y un ε > 0 tales que

dim N = ∞ y T ∈ L(H) cumple kT xk ≥ ε kxk para todo x∈N (7.2)

(eso se abrevia “T es AI en N por ε”), entonces T ∈


/ K(H).

Demostración. Al fin y al cabo K(H) era la clausura en norma e LF (H). De ahı́ se deducen
en forma trivial los items 1 al 4. Lo del módulo sale porque si T = U |T | es la DP de T , en
el Teo. 4.4.4 vimos que |T | = U ∗ T , por lo que T ∈ K(H) ⇐⇒ |T | ∈ K(H). De ahı́ sale que
T ∗ = |T |U ∗ ∈ K(H) si T era compacto. Lo de Re T e Im T va como ejercicio. Finalmente,

207
si estamos en la situación de (7.2), entonces existe un SON {xn : n ∈ N} ⊆ BN . Luego se
w
tiene que xn −−−→ 0 pero kT xn k ≥ ε para todo n ∈ N. 
n→∞
Los compactos parecen tan buenos que uno sospecharı́a que tal vez haya muy pocos de ellos.
Sin embargo son una clase bastante respetable, e incluyen muchas familias importantes de
ejemplos, como los integrales y las “inversas” de muchos operadores diferenciales. De más
está decir que si dim H < ∞, entonces K(H) = L(H), o sea que todas las matrices son
compactas. De hecho, la gracia de todo esto es estudiar operadores que se parezcan más a
ellas. Listemos a continuación cuándo son compactos nuestros ejemplos amigos:
Ejemplo 7.1.4. Sea H = `2 (N) y fijemos un a = (an )n∈ N ∈ `∞ (N). Entonces
Ma ∈ K( `2 (N) ) ⇐⇒ a ∈ c0 , es decir que an −−−→ 0 .
n→∞

Probemosló: En el Ejem. 1.2.5 vimos que c0 es la clausura con la k · k∞ de SF que eran


las sucesiones finitas. Como la flecha a 7→ Ma era isométrica, si a ∈ c0 , entonces Ma se
aproxima por operadores Mb con los b ∈ SF . Pero es fácil ver que ésos Mb ∈ LF (H).
w
Si ahora asumimos que Ma ∈ K( `2 (N) ), basta recordar que los en −−−→ 0, por lo que
n→∞
k·k
an en = Ma en −−−→ 0. Luego |an | = kan en k −−−→ 0 y a ∈ c0 . 4
n→∞ n→∞

Ejemplo 7.1.5. El ejemplo anterior se generaliza bastante: Si H es un EH con dim H = ℵ0 ,


y fijamos B = {xn : n ∈ N} una BON de H, podemos definir un único operador
Ma , B ∈ L(H) tal que Ma , B xn = an xn para todo n∈N. (7.3)
P
En efecto hay que hacer Ma , B x = n∈N an hx , xn i xn , para cada x ∈ H. Los operadores
que admiten una representación de este tipo se llaman diagonalizables, porque su “matriz”
en B queda diagonal (con un a ∈ `∞ en la diagonal). Un ejercicio que es casi solo notacional
(pero que igual hay que hacer) serı́a mostrar que un Ma , B ∈ K(H) ⇐⇒ a ∈ c0 . Es por
esto que en muchos libros se usa la notación L0 (H) en lugar de nuestro K(H). Como se va
a usar seguido, a pesar de ser medio obvia igual dejamos sentada la siguiente propiedad:
Si Ma , B es el de (7.3) para un a ∈ `∞ entonces kMa , B k = kak∞ . (7.4)
La prueba es igual que para L(`2 ) con la BON canónica. 4
Ejemplo 7.1.6. El ejemplo anterior muestra una clase bastante gorda de operadores com-
pactos. Sin embargo, cuando uno toma multiplicadores en un espacio de medida que sea
“continuo”, no consigue nunca un compacto. Por ejemplo si H = L2 [0, 1] y tomamos un
Mf ∈ L(H) para una f ∈ L∞ [0, 1], entonces se tiene que
ctp
Mf ∈ K(H) ⇐⇒ f = 0 ⇐⇒ Mf = 0 .
En efecto, si f 6= 0, existe un ε > 0 tal que A = {t ∈ [0, 1] : |f (t)| ≥ ε} tiene medida positiva.
En tal caso, es fácil ver que en el subespacio SA = {f ∈ L2 [0, 1] : f = f 1A } de funciones
con soporte en A, nuestro Mf está AI por la contante ε. Como dim SA = ∞, el item 7 del
Cor. 7.1.3 no permite que Mf ∈ K(H). 4

208
Ejemplo 7.1.7 (Operadores integrales). Recordemos el ejemplo visto en 1.8.3: Se labura
en L2 = L2 (X, Σ, µ). Dado un núcleo k ∈ L2 (X × X) con la medida producto µ × µ, el
operador Tk ∈ L(L2 ) estaba dado por la fórmula
Z
(Tk f )(x) = k(x, y) f (y) dµ(y) para cada f ∈ L2 y casi todo x ∈ X . (7.5)
X

Sea B = {φi : i ∈ I} una BON de L2 . Dados i, j ∈ I definamos


φi ⊗ φj ∈ L2 (X × X) por φi ⊗ φj (x, y) = φi (x) φj (y) para (x, y) ∈ X × X .
Un ejercicio straightforward muestra que si los juntamos a todos,
def
B ⊗ B = {φi ⊗ φj : i , j ∈ I} es una BON de L2 (X × X) .

La idea es probar primero que es un SON (eso sale fácil), y después ver que su ortogonal es
hx
cero, usando que dada una h ∈ L2 (X × X), casi todas las funciones X 3 y 7−→ h(x, y) viven
en L2 (X). Laburo para la casa. De paso observar que los operadores asociados

Tφi ⊗φj = φi φj ∈ L1 (L2 (X) ) para todo par i, j ∈ I ,

donde φi φj son los operadores de rango uno definidos en (4.42). En efecto, si f ∈ L2 (X),
Z
Tφi ⊗φj f (x) = φi (x) φj (y) f (y) dµ(y) = hf , φj i φi (x) para todo x ∈ X .
X

Luego Tφi ⊗φj f = hf , φj i φi = φi φj (f ). Observemos ahora dos hechos:


• La flecha L2 (X × X) 3 k 7→ Tk ∈ L(H) reduce normas: kTk k ≤ kkk2 (ver 1.8.3).

• Todo k ∈ L2 (X × X) es lı́mite (en norma dos) de combinaciones lineales finitas de


elementos de B ⊗ B, por ser ésta una BON.
Entonces uno deduce que Tk ∈ LF (L2 (X) ) = K(L2 (X) ) para todo núcleo k ∈ L2 (X × X).
Traduciendo, todos los operadores integrales con núcleo de tipo L2 son compactos. 4
Ejercicio 7.1.8. Sea H un EH con una BON B = {xn : n ∈ N}. Sea

DB = {M ∈ L(H) : M = Ma , B (el de (7.3) ) para algún a ∈ `∞ } .

1. Mostrar que DB ∩ K(H) = {Ma , B : a ∈ c0 } (propuesto en el Ejem. 7.1.5).

2. Probar que existe un EB ∈ L(L(H) ) que comprime a la diagonal:

(a) EB2 = EB y kEB k = 1.


(b) Su rango es R(EB ) = DB , por lo que EB (M ) = M para todo M ∈ DB .
(c) Más aún, se tiene que si M ∈ DB y T ∈ L(H), entonces

EB (M T ) = M EB (T ) y EB (T M ) = EB (T ) M .

209
(d) Si T ∈ K(H), entonces EB (T ) ∈ K(H).

3. Probar que aunque K(H) v L(H), el subespacio K(H) no es COM en L(H).

Sug: Dado T ∈ L(H), definir dT = hT xn , xn i n∈N ∈ `∞ y poner EB (T ) = MdT , B . Por




otro lado, si hubiera un proyector acotado Q de L(H) sobre K(H), entonces EB ◦ Q D
B
proyectarı́a al espacio DB ∼
= `∞ sobre DB ∩ K(H) ∼
= c0 . Luego mirar el Ejem. 2.7.8. 4

7.2 Fredholm inicia


7.2.1. Sea A un AB y sea I ⊆ A un ideal bilátero y cerrado. En el Ejer. 6.2.8 se afirmaba
que el espacio A/I con la norma cociente vista en la Prop. 1.7.1 es un AB. Como nos interesa
particularmente el álgebra cociente L(H)/ K(H) revisemos como sale.
Por ser I un ideal bilátero, entonces A/I queda un buen anillo, que sigue siendo C-álgebra
con su estructura de C-EV. Por otro lado, la norma cociente de la Prop. 1.7.1 lo hace Banach.
Ası́ que sólo falta verificar la desigualdad (6.1) : Dados a , b ∈ A, como a I ⊆ I sale que

ka bk = ka bk = ı́nf ka b + ck ≤ ı́nf ka b + a ck ≤ kak ı́nf kb + ck = kak kbk .


c∈I c∈I c∈I

Tomando ahora el ı́nfimo sobre los elementos de a = a + I, nos queda que ka bk ≤ kak kbk.
Con esta ya podemos decir que A/I es una señora AB. 4
7.2.2. Sea H un EH. Como K(H) es ideal bilátero cerrado de L(H) podemos definir
def
el álgebra de Calkin Cal (H) = L(H)/ K(H)

que por lo viste recién es un AB con la norma cociente kT + K(H)k = d (T, K(H) ). La
proyección se denotará PK(H) : L(H) → Cal (H). Ella es un epimorfismo (acotado) de AB’s.
En general se abrevia PK(H) T = T ∈ Cal (H).
Las propiedades de un T ∈ L(H) que dependen de su clase T se suelen llamar propiedades
esenciales. Tı́picamente la versión esencial de una propiedad P significa cambiar la frase
“T cumple P ” por “T cumple P módulo un compacto”.
def
Por ejemplo, el espectro esencial de T es σe (T ) = σCal (H) ( T ). Como PK(H) es morfismo
se ve que PK(H) (Gl (H) ) ⊆ GCal (H) . De ahı́ se deduce fácil que σe (T ) ⊆ σ(T ). La inclusión
puede muy bien ser estricta, como se puede ver en el caso del shift S ∈ L(`2 (N) ). Un lindo
ejercicio es mostrar que σe (S) = T, mucho más chico que σ(T ) = D.
−1
En cambio los operadores esencialmente inversibles F (H) = PK(H) (GCal (H) ) tienen nombre
propio, se los conoce como operadores de Fredholm y ahora veremos sus propiedades. 4
Teorema 7.2.3. Sea T ∈ L(H). Las suguientes condiciones son equivalentes:

1. PK(H) T = T ∈ GCal (H) , o sea que T ∈ F (H) es de Fredholm.

210
2. Existe un S ∈ L(H) tal que
ST − I ∈ K(H) y también T S − I ∈ K(H) . (7.6)

3. Se cumplen las siguientes tres cosas:


(a) α(T ) = dim ker T < ∞.
(b) β(T ) = dim ker T ∗ = dim R(T )⊥ < ∞.
(c) R(T ) v H.
En tal caso, existe un único T † ∈ L(H) que mejora el item 2 del siguiente modo:
T † T = I − Pker T = PR(T ∗ ) y T T † = I − Pker T ∗ = PR(T ) . (7.7)
Demostración. La relación 1 ⇔ 2 es clara, tomando PK(H) (S) = T −1 . Asumamos que
tenemos el S ∈ L(H) que cumple (7.6). Llamemos A = ST − I ∈ K(H). Si existiera un
w
SON {en : n ∈ N} dentro de ker T , tendrı́amos que en −−−→ 0 (todos dentro BH ). Pero como
n→∞
k·k
A ∈ K(H), ello implicarı́a que en = −A en −−−→ 0. Absurdón. Observar que S ∗ cumple
n→∞
(7.6) para T ∗ . Luego, por el mismo argumento vemos que dim ker T ∗ < ∞.
1
Tomemos ahora B ∈ LF (H) tal que kA − Bk < 2
. Entonces todo x ∈ ker B cumple que
1
kSk kT xk ≥ kS T xk = k(I + A) xk ≥ kxk − k(A − B) xk ≥ kxk .
2
Luego T |ker B es AI, por lo que T (ker B) v H. Pero la otra mitad T (ker B)⊥ tiene


dimensión finita, porque también B ∗ ∈ LF (H) y (ker B)⊥ = R(B ∗ ). Juntándolos, por el
Cor. 1.7.2 queda lo que nos faltaba:
 1.7.2
ker B ⊕ (ker B)⊥ = H =⇒ R(T ) = T (ker B) + T (ker B)⊥ v H.
Ya probamos que 2 implica el abc del item 3. Asumamos que T cumple los tres de 3.
def
Llamemos N = (ker T )⊥ y M = R(T ) v H. Observar que T0 = T |N es un iso entre los
Hilberts N y M. Luego existe T0−1 = S0 ∈ L(M , N ) (usamos el TFI 2.3.4 entre Banach’s).
Extendamos S0 a un T † ∈ L(H) haciendolo actuar como cero en M⊥ = R(T )⊥ = ker T ∗ . Es
acotado porque cumple que T † x = S0 PM x para todo x ∈ H. Y por eso mismo,
T T † x = T0 S0 PM x = PM x y T † T x = T † PM T0 PN x = S0 T0 PN x = PN x ,
para todo x ∈ H. Luego I − T T † = Pker T ∗ y I − T † T = Pker T viven en LF (H) ⊆ K(H).
Fijensé que construimos al T † de la Ec. (7.7), la seudoinversa de Moore Penrose de T . 
7.2.4. El Teo. 7.2.3 es conocido como el Teorema de Atkinson. El permite desarrollar una
teorı́a muy profunda, que es la del ı́ndice de operadores de Fredolm: Si T ∈ F (H),

Ind T = α(T ) − β(T ) = dim ker T − dim ker T ∗ ∈ Z ,


def

es el ı́ndice de T . Del Teo. 7.2.3 vemos que se tienen las siguientes propiedades:

211
1. Gl (H) ⊆ F (H), y si G ∈ Gl (H) entonces Ind G = 0 − 0 = 0.

2. El conjunto F (H) es abierto en L(H), por serlo GCal (H) en Cal (H).
A partir de ahora asumamos que T ∈ F (H).

3. Llamemos PT = Pker T y QT = PT ∗ = Pker T ∗ . Luego Ind T = rk PT − rk QT .

4. Si M ∈ F (H), entonces M T y T M ∈ F (H). Aún no sabemos sus ı́ndices.

5. Pero si G ∈ Gl (H) =⇒ Ind GT = Ind T G = Ind T (porque vale para sus α y β).

6. T ∗ ∈ F (H) y tiene su Ind T ∗ = −Ind T . Sale porque α(T ∗ ) = β(T ).

7. También T † ∈ F (H) y cumple que Ind T † = −Ind T . 4

Definición 7.2.5. Sea H un EH con dim H = ∞. Definamos los conjuntos

Fn (H) = {A ∈ F (H) : Ind A = n} para cada n∈Z. (7.8)

Veamos que son todos no vacı́os: 4


Ejemplo 7.2.6. Fijemos H = `2 (N) y recordemos al shift S ∈ L(H) unilateral hacia la
derecha, tal que S ek = ek+1 para cada k ∈ N. Luego tenemos que

S ∈ F (H) , Ind S n = −n mientras que Ind (S ∗ )n = n para todo n∈N.

En efecto, notar que S S ∗ = I y S ∗ S = I − Pe1 , por lo que S ∈ F (H) con S † = S ∗ . Para


calcular el Ind de sus potencias, tenemos que α(S n ) = 0 y β(S n ) = n, porque

ker(S ∗ )n = span {e1 , . . . , en } para todo n∈N.

Por otro lado, las potencias de S ∗ cambian el signo del ı́ndice de las de S. Por lo tanto
Fm (H) 6= ∅ para todo m ∈ Z. Al menos cuando dim H = |N|. 4

7.3 Espectro de compactos


Usando el Teo. de Atkinson 7.2.3, uno puede ver que desde el punto de vista del espectro,
los compactos son lo que uno hubiese querido que sea una generalización agradable de las
matrices al caso infinitodimensional.
Lema 7.3.1. Sea F ∈ LF (H). Entonces I + F ∈ F0 (H). Es decir que Ind (I + F ) = 0.
Demostración. Es claro que T = I + F ∈ F (H). Recordemos la notación PT = Pker T y
QT = PT ∗ = Pker T ∗ . Por el Teo. 7.2.3 ellos viven en LF (H). Llamemos S = T † . Por la
Ec. (7.7), sabemos que ST = I − PT y que T S = I − QT . Por lo tanto

PT − QT = T S − S T = (I + F ) S − S (I + F ) = F S − S F . (7.9)

212
Consideremos un ambiente finitodimensional donde operan tres de ellos: Sean

M = R(PT ) + R(QT ) + R(F ) + R(F ∗ ) v H y PM ∈ LF (H) ∩ P(H) .

Luego el proyector PM funciona como una identidad en L(M) para los tres:

PM PT PM = PT , PM QT PM = QT y PM F PM = F

porque, por ejemplo, PM F = F y PM F ∗ = F ∗ . Sea S1 = PM S PM . Luego


(7.9)
PT − QT = PM (PT − QT ) PM = PM (F PM S − S PM F ) PM = F S1 − S1 F .

Entonces podemos pensar a los 4 operadores involucrados (se agregó S1 ) en el ambiente


L(M). Pero como dim M < ∞, en L(M) hay una traza finita (la suma de la diagonal en
alguna BON de M). Luego podemos tomar traza de lo de arriba y nos queda que
7.2.4
Ind (I + F ) = Ind (T ) = rk PT − rk QT = tr (PT − QT ) = tr (F S1 − S1 F ) = 0 .

Hemos usado que la traza de un proyector es igual a su rank (sale eligiendo una BON que
empiece generando su imagen) y que tr AB = tr BA para todo par A , B ∈ L(M). 
Lema 7.3.2. Sea T ∈ K(H). Entonces I + T ∈ F (H) y también vale que Ind (I + T ) = 0.
Demostración. Sea F ∈ LF (H) tal que kT − F k < 1. Luego, por el Teo. 6.1.4

S = I + (T − F ) ∈ Gl (H) =⇒ I + T = S + F = S(I + S −1 F ) ∈ F0 (H) .

En efecto, como S −1 F ∈ LF (H) el Lema 7.3.1 asegura que I + S −1 F ∈ F0 (H). Pero vimos
que multiplicarlo por un S ∈ Gl (H) no le cambiaba el ı́ndice. 
Proposición 7.3.3. Sea T ∈ K(H). Dado λ ∈ σ(T ) tal que λ 6= 0, se tiene que
1. El tal λ es un autovalor.

2. Además 0 6= dim ker(λ I − T ) = dim R(λ I − T )⊥ < ∞.

3. De paso se sabe también que R(λ I − T ) es cerrado y tiene codimensión finita.


Demostración. Observar que para todo λ ∈ C \ {0} tenemos que Bλ = λ I − T ∈ F (H),
porque PK(H) (Bλ ) = λ 1A(H) . Más aún, por el Lema 7.3.2 podemos asegurar que Ind Bλ = 0
(el λ se saca). Por lo tanto ya tenemos que

λ ∈ σ(T ) ⇐⇒ Bλ ∈
/ Gl (H) ⇐⇒ α(Bλ ) = β(Bλ ) 6= 0 ,

porque sabemos que R(Bλ ) v H. En resumen, si λ ∈ σ(T ) \ {0}, entonces ker Bλ 6= {0} y
encima tiene que cumplirse que dim ker Bλ = dim ker Bλ∗ = dim R(Bλ )⊥ < ∞. 
Observación 7.3.4. El resultado anterior se llama la “alternativa de Fredholm” (descubierta
a principios del siglo pasado para el caso de operadores integrales). La alternatividad consiste
en que si nos planteamos la ecuación T x = λ x + b

213
con la incógnita x y los datos b ∈ H , T ∈ K(H) y λ ∈ C \ {0} ,
entonces se tienen las dos posibilidades conocidas:

• O bien T − λ I ∈ Gl (H) por lo que hay solución única

x = (T − λ I)−1 b para todo b ∈ L(H) .

• O bien λ ∈ σ(T ) \ {0} y caemos en la Prop. 7.3.3. En tal caso tenemos la igualdad
dim ker(λ I − T ) = dim R(λ I − T )⊥ < ∞, que es parecido a lo que sabemos de los
sistemas de ecaciones del álgebra lineal: La dimensión del espacio de soluciones es
finita, e igual a la del ortogonal del espacio de los b ∈ H para los que hay solución. 4

Proposición 7.3.5. Sea T ∈ K(H) con dim H = ∞. Luego σ(T ) tiene dos posibilidades:

1. Puede ser que σ(T ) sea finito, con 0 ∈ σ(T ).

2. Pero si es infinito, entonces es numerable. Más precisamente

σ(T ) = {0} ∪ {λn : n ∈ N} donde λn −−−→ 0 .


n→∞

En ambos casos, todos los λn ∈ σ(T ) \ {0} son autovectores de multiplicidad finita.
Demostración. Dado m ∈ N, consideremos el conjunto σ(T )m = {λ ∈ σ(T ) : |λ| ≥ m1 }. Para
probar todo loSenunciado bastarı́a ver que σ(T )m es finito para todo m ∈ N. En efecto, como
σ(T ) \ {0} = m∈N σ(T )m , si todos fueran finitos la unión quedarı́a numerable, y cualquier
enumeración de σ(T ) \ {0} harı́a que sus elementos tiendan a cero (o que se terminen). Los
comentarios finales sobre las propiedades de los λn son un refrito de la Prop. 7.3.3.
Supongamos entonces que algún σ(T )m fuese infinito. Luego existirı́a una sucesión (µk )k∈N
en ese σ(T )m tal que µk 6= µr si k 6= r. Por la Prop. 7.3.3, para cada k ∈ N podrı́amos elegir
un vector unitario xk ∈ ker (T − µk I), y un subespacio Sk = span {x1 , . . . , xk } v H.
Como los xk son autovectores de autovalores distintos, ellos son un conjunto LI, por lo que
Sk ⊂ Sk+1 en forma propia para todo k ∈ N. Luego, por la el Lema de Riesz 1.4.4, podemos
ir eligiendo vectores unitarios yk+1 ∈ Sk+1 tales que d (yk+1 , Sk ) ≥ 21 para todo k ∈ N.
Setiemos y1 = x1 . Una cuenta directa muestra que se deberı́an cumplir dos cosas:
(a) T (Sk ) ⊆ Sk para todo k ∈ N, porque sus generadores xj son autovectores.
(b) Si k > 1, como xk ∈ ker (T − µk I) entonces (T − µk I) yk ∈ Sk−1 , porque le tachamos su
componente en xk y las anteriores no se mueven de Sk−1 . Luego, si r < k,

k T µykk − T µyrr k = k yk − T µyrr − (T − µk I) µykk k ≥ 21 ,



(7.10)

porque el bodoque T µyrr − (T −µk I) µykk ∈ Sr +Sk−1 ⊆ Sk−1 . Como todos los |µk | ≥ m1 , la


sucesión µykk k∈N vive en m · BH . Pero (7.10) dice que al aplicarle T no tiene subsucesiones


convergentes. Eso contradirı́a la compacidad de m · T (BH ) y por ende la de T . 

214
Observación 7.3.6. En las cuentas de la prueba de la Prop. 7.3.5, en forma deliberada no
se usó que H sea un Hilbert, salvo en el hecho de que los λ ∈ σ(T ) \ {0} de un T ∈ K(H)
debı́an ser autovalores. Este hecho sigue siendo cierto si E es un EB y T ∈ L(E) es compacto
(eso significaba que T (BE ) tenga clausura compacta). La prueba de la Prop. 7.3.3 en este
contexto es bastante más costosa que para elementos de K(H), y la omitiremos. Pero al
menos informamos que eso vale, y por lo tanto también la Prop. 7.3.5. 4

Ejemplo 7.3.7. Sea H = L2 [0, 1] y tomemos v ∈ L2 [0, 1]2 el núcleo dado por

v = 1∆ donde ∆ es el triángulo ∆ = (x, y) ∈ [0, 1]2 : 0 ≤ y ≤ x ≤ 1 ,




def
la mitad de abajo de [0, 1]2 . Luego el operador V = Tv ∈ L(L2 ) está dado por
Z 1 Z x
V f (x) = v(x , y) f (y) dy = f (y) dy para f ∈ L2 y x ∈ [0, 1] . (7.11)
0 0

Este operador V se llama “el Volterra”. Observemos que para cada f ∈ L2 , la función V f
es la única primitiva F de f que cumple F (0) = 0. Por otro lado, como v ∈ L2 [0, 1]2 , en
el Ejem. 7.1.7 mostramos que el Volterra V = Tv ∈ K(L2 ), o sea que es compacto.
Es un hecho famoso que σ(V ) = {0}. La prueba usual consiste en hacer trabajosas acota-
ciones con integrales. Pero ahora, en vista de la Prop. 7.3.3, para mostrar que σ(V ) = {0}
nos alcanza con ver que V no puede tener autovalores, porque al ser un operador compacto
sabemos que si hubiera un λ ∈ σ(V ) \ {0} deberı́a ser uno de ellos.
Sea entonces λ ∈ C \ {0}. Si una f ∈ L2 cumple que F = V f = λ f , como F ∈ C[0, 1],
sabemos que f es continua y por ello F (y también f ) es derivable en todos los puntos.
Iterando, sale que f es muy suave (C ∞ ). Por otro lado, aplicando ahora la fórmula (7.11)
sabemos que f = F 0 = λ f 0 . Luego, de un curso básico de ED’s podemos deducir que nuestra
f (x) = k eλ x para cierta constante k ∈ C.
Pero también sabemos que λ f (0) = F (0) = 0. Esto obliga a que k = 0 por lo que f ≡ 0 y
minga autovector. Ni siquiera λ = 0 puede ser autovalor, porque es fácil ver que V es mono.
Resumiendo, V no tiene ningún autovector, ası́ que aplicando la Prop. 7.3.3 ya podemos dar
por demostrado que σ(V ) = {0}. 4

7.4 Representaciones espectrales


Vimos que el λ = 0 del espctro de un compacto debe tener un tratamiento espacial. Siempre
pasa que 0 está, porque no hay compactos inversibles. De hecho hay ejemplos importantes
(en esta misma página) de compactos para los que la Prop. 7.3.5 es muy poco útil, ya que
son cuasinilpotentes, o sea que su espectro es tan solo el {0}. En cambio, si el compacto
es también autoadjunto, entonces el cero de su espectro no aporta nada importante. Eso
permite dar una representación del kia como una serie en la que aparecen sus autovectores.
A partir de ella y usando la DP, podremos dar una representación de todos los compactos,
incluidos los cuasinilpotentes, en función de dos SON’s y de sus valores singulares.

215
Teorema 7.4.1. Sea A ∈ K(H) tal que A = A∗ y σ(A) es infinito. Entonces existen

• un sistema B = {xk : k ∈ N}, que es una BON de (ker A)⊥ = R(A), y

• una sucesión (µk )k∈ N en R tal que µk −−−→ 0,


k→∞

tales que ellos describen completalmente la acción de A por la fórmula


X X
Ay = µk hy , xk i xk = µk xk xk (y) para todo y ∈ H . (7.12)
k∈N k∈N

A la tal B se la llama una BON de autovectores de A (aunque hay que agregarle una BON
de ker A, que bien puede ser infinita, para que generen todo H).
d
Demostración. Podemos representar a σ(A) = {0} ∪ {λn : n ∈ N} con los λn −−−→ 0
n→∞
como en la Prop. 7.3.5. Luego todos esos λn son puntos aislados de σ(A). Consideremos
ahora los proyectores Pn = P{λn } = 1{λn } (A) del Cor. 6.5.9. Allı́ se vió que los subespacios
def
Sn = R(Pn ) = ker(λn I − A) para todo n ∈ N. Observar que, por las propiedades del CFC,

Pn Pm = 1{λn } (A) 1{λm } (A) = 1{λn } · 1{λm } (A) = 0 siempre que n 6= m .

Eso dice que Sn ⊥ Sm si n 6= m. Consideremos el subespacio cerrado que ellos generan:


( )
M [ \ ⊥
Sn⊥
def
S= Sn = span Sn = . (7.13)
n∈N n∈N n∈N

Como los Sn son ortogonales 2 a 2, podemos construir una BON de S pegando sendas
BON’s de cada Sn (todas ellas finitas). Llamémosla B = {xk : k ∈ N}. Al mismo tiempo
construyamos la sucesión (µk )k∈ N en R repitiendo dim Sn veces cada λn . En ambos casos
respetando el orden de los n ∈ N (por los λn repetidos y por los vectores de cada BONcita).
Como cada A|Sn actúa multiplicando por λn y las numeraciones fueron hechas coherente-
mente, vale que cada A xk = µk xk . Luego la fórmula (7.12) se cumple para todo y ∈ S :
(3.18) X X
y ∈ S = span {B} =⇒ y = hy , xk i xk =⇒ A y = µk hy , xk i xk . (7.14)
k∈N k∈N

De esto podemos deducir que A(S) ⊆ S. Como A = A∗ , el Cor. 4.5.4 dice que S ∈ Latr (A),
o sea que A(S ⊥ ) ⊆ S ⊥ . Consideremos entonces A0 = A|S ⊥ ∈ L(S ⊥ ). Observar que

• En realidad A0 ∈ K(S ⊥ ), porque manda BS ⊥ a un cacho de A(BH ) que es compacta.

• También vale que A0 ∈ A(S ⊥ ) como hemos visto otras veces (por ejemplo por (4.39) ).

• Pero además tenemos que σL(S ⊥ ) (A0 ) = {0}, porque no le quedan autovectores libres
para ningún λ 6= 0 (de haberlos lo serı́an también de A, pero están todos en S).

216
Usando estas tres cosas, por el CFC en A0 (o el Cor. 6.4.7) vemos que A0 = 0.
Finalmente, si descomponemos a un vector y = y0 + y1 ∈ S ⊥ ⊕ S = H, entonces tenemos
que hy , xk i = hy1 , xk i para todo k ∈ N. Como vimos que A y0 = A0 y0 = 0, queda que
X X
µk hy , xk i xk = µk hy1 , xk i xk = A y1 = A y ,
k∈N k∈N

ahora para todo y ∈ H. Finalmente, mirando fijo la Ec. (7.14) y lo que se dijo después vemos
que S ∩ ker A = {0} mientras que S ⊥ ⊆ ker A. De ahı́ se deduce que S ⊥ = ker A. Esto
justifica la afirmación de que B era una BON de (ker A)⊥ = S. 
Observaciones: 7.4.2. Sigamos en el caso de A ∈ K(H) ∩ A(H). Manteniendo las nota-
ciones del Teo. 7.4.1, se tienen las siguientes propiedades extra:

1. En el caso que faltaba en el que σ(A) es finito, una cuenta más fácil que la de arriba
muestra que A ∈ LF (H) y también tiene una BON de autovectores de (ker A)⊥ , que
ahora será finita. Y con ella sale una Ec. (7.12) con sumas finitas.

2. Volviendo al caso σ(A) = {0} ∪ {λn : n ∈ N} con λn −−−→ 0, una reescritura de la


n→∞
Ec. (7.12) nos dice que A es diagonalizable en el sentido de Ejem. 7.1.4. Mejor aún:
X
A= µ k xk xk , (7.15)
k∈N

donde la convergencia es con la norma de L(H).P En efecto, al ser operadores diagonales,


la Ec. (7.4) da que las normas de las colas k µk xk xk k = sup |µk | −−−→ 0.
k≥m k≥m m→∞

3. Por otra parte, podemos usar los proyectores P{λn } = 1{λn } (A) para obtiener otra linda
representación de A, que describe mejor su comportamiento:
X X
A = λn P{λn } = λn Pker (λn I−A) , (7.16)
n∈N n∈N

donde la convergencia también es en la norma de L(H). La prueba no es otra cosa


mn
P
que volver a reagrupar las cosas en la Ec. (7.15), porque cada P{λn } = xk x k
k=rn
para ciertos números rn < mn adecuados (los que limitan a los µk = λn ). Lo de la
convergencia en norma sale porque es un caso particular de la de (7.15). 4

Corolario 7.4.3. Sea A ∈ K(H) tal que A = A∗ . Entonces existen

A+ y A− ∈ L(H)+ ∩ K(H) tales que A = A+ − A− y A+ A− = 0 , (7.17)

que son únicos aún sin pedrles que sean compactos. En particular, todo T ∈ K(H) es CL
de 4 positivos compactos.

217
Demostración. Sabemos que existen (y son únicos) por la Prop. 6.5.15. Pero para ver que
son compactos hagamos esto: Sea σ(A) = {0} ∪ {λn : n ∈ N} ⊆ R. Escribamos
(7.16) X
Pn = Pker (λn I−A) , n ∈ N y A = λn P n .
n∈N

d
Sean I = {n ∈ N : λn ≥ 0} y J = {n ∈ N : λn < 0}. Luego I ∪ J = N y los operadores
X X
A+ = λ n Pn y A − = − λn Pn ∈ L(H)+ ∩ K(H)
n∈I n∈J

cumplen que A = A+ − A− y que A+ A− = 0. Si σ(A) era finito se hace lo mismo. Luego


son los únicos de la Prop. 6.5.15 y son compactos. La observación sobre los T ∈ K(H) se
deduce de lo anterior y de que T = Re T + i Im T . 
7.4.4 (CFC para compactos autoadjuntos). Dado A ∈ K(H) ∩ A(H) tal que σ(A) es
infinito, las descomposiciones (7.15) y (7.16) caracterizan completamente el CFC en A:

1. Dada f ∈ C(σ(A) ) tal que f (0) = 0, con las notaciones del Teo. 7.4.1 se tiene que

♣ X  X
f (A) = f (µk ) xk xk = f (λn ) P{λn } , (7.18)
k∈N n∈N

con convergencia en la norma de L(H). Para probarlo basta fijarse que anda bien
para los polis p ∈ C[X] tales que p(0) = 0 (aproximan a esas f ’s). Sale usando que
?
X X
An y = hAn y , xk i xk = µnk hy , xk i xk para todo par k , n ∈ N ,
k∈N k∈N

?
donde = se debe a que todos los R(An ) ⊆ R(A) y B es BON de R(A). Para los lı́mites
se usa que los operadores a comparar son diagonalizables en la misma BON, ası́ que
la Ec. (7.4) da que su distancia es la infinito de las “diagonales”. Eso demuestra la
♣ 
igualdad = de (7.18). Para probar = se usa el mismo argumento que en (7.16).

2. En cambio, para las funciones f ∈ C(σ(A) ) tales que f (0) 6= 0 nos queda que
P
f (A) = f (0) IH + (f (λn ) − f (0) ) P{λn }
n∈N

P (7.19)
= f (0) IH + (f (µk ) − f (0) ) xk xk
k∈N

también con convergencia en norma de L(H). Surge de que f = f (0)1 + (f − f (0)1).


La fórmula es algo enrrevesada justamente para que converja bien, porque como f es
continua, los multiplicadores f (λn ) − f (0) −−−→ 0 y lo mismo para los µk .
n→∞

218
3. Otra manera de escribir la Ec. (7.19) es ésta: Para toda f ∈ C(σ(A) ),
X X
f (A) = f (0) Pker A + f (λn ) P{λn } = f (0) Pker A + f (µk ) xk xk . (7.20)
n∈N k∈N

Sin embargo, ahora la convergencia no es en norma sino puntual. Esto significa que
las series convergen recién después de evaluar en un y ∈ H. Por ejemplo
X
f (A) y = f (0) Pker A (y) + f (µk ) hy , xk i xk para todo y ∈ H ,
k∈N

donde ahora sı́ hay convergencia en H. 4

Observación 7.4.5. Como siempre los normales quedan para los remarks. Si N ∈ K(H)
es normal, entonces el Teo. 7.4.1 y las Ec’s. (7.15), (7.16), (7.18), (7.19) y (7.20) valen tal
cual, slavo el hecho de que ahora los µk ∈ C y no necesariamente a R. La prueba es igual,
dado que usa el CFC, que también camina para los normales.
Otra sutileza es que, si S es el subespacio definido en la Ec. (7.13), ahora hay que probar a
mano que S ∈ Latr (N ), sin la ayuda del Cor. 4.5.4. Esto no se deduce de que S ∈ Lat (N )
como en el caso en que N ∈ A(H), pero sale usando que el proyector PS es lı́mite puntual
de las sumas finitas de los proyectores PSn = 1{λn } (N ) , que conmutan con N . 4
Definición 7.4.6. Usemos las notaciones del Teo. 7.4.1, pero ahora para un A ∈ K(H)
que sea positivo, o sea A ∈ L(H)+ . Se vió que la sucesión (µk )k∈ N se construye con los
autovalores de A contados “con multiplicidad” (tantos como la dimensión de su espacio de
autovectores), y sabemos que ella converge a cero.
Como ahora todos los µk ≥ 0 (Prop. 6.4.2), la sucesión puede ser reordenada para que quede
decreciente, y en tal caso es unı́voca. A tal sucesión decreciente se la denotará por

µ(A) = ( µk (A) )k∈N y será llamada la sucesión de autovalores de A . (7.21)

Pot otro lado, si T ∈ K(H) sabemos que |T | ∈ K(H) y que es positivo. Definimos

s(T ) = ( sk (T ) )k∈N dada por s(T ) = µ ( |T | ) , (7.22)

la sucesión de valores singulares de T . En el caso de operadores de rango finito, las


sucesiones µ(A) y s(T ) = µ( |T | ) terminan en n = el rango, pero les agregamos ceros. 4
Corolario 7.4.7. Sean A ∈ L(H)+ ∩ K(H) y µ(A) su sucesión decreciente de autovectores
definida en (7.21). Sea f ∈ C(σ(A) ) que cumpla las siguiente propiedades:

• La f toma valores positivos.

• Además f es no decreciente.

• Se cumple que f (0) = 0.

219
En tal caso se tiene la siguiente data sobre f (A): Con las notaciones de (7.21),
 
+
f (A) ∈ L(H) ∩ K(H) y tiene su µ(f (A) ) = f (µk (A) ) . (7.23)
k∈N

con la misma BON de autovectores que A. Para que f (A) ∈ K(H) alcanzaba con que
f (0) = 0, sin pedirle las otras cosas.
Demostración. Antes que nada hay que ver que f (0) = 0 =⇒ f (A) ∈ K(H). Esto sale
porque σ(A) es una sucesión que tiende a cero, por lo que σ(f (A) ) = f (σ(A) ) (esto era el
Teo. 6.5.4) es otra del mismo tipo. Después uno mira la fórmula (7.18) en su versión con
proyectores, y deduce que f (A) es lı́mite en norma de las sumas finitas que viven en LF (H).
Asumamos ahora que f cumple también las otras dos cosas. El hecho de que f (A) ∈ L(H)+
ya fue probado en la Ec. (6.27) del Teo. 6.5.4. Tenı́amos que σ(f (A) ) = f (σ(A) ), o sea
que tan solo los f (µk (A) ), y eventualmente el 0, pueden ser autovectores de f (A). Pero las
multiplicidades son las correctas y la BON es la misma
 por laEc. (7.18). Finalmente, el hecho
de que f sea creciente asegura que la sucesión f (µk (A) ) sigue siendo decreciente, y
k∈N
por ello coincide con µ(f (A) ). 
Teorema 7.4.8. Sea T ∈ K(H) \ LF (H). Luego existen dos SON’s :
1. B1 = {xk : k ∈ N}, que es BON de (ker T )⊥ , y

2. B2 = {zk : k ∈ N}, donde ella es BON de R(T ) = (ker T ∗ )⊥ ,


tales que el operador T se representa como la serie (que converge en norma) :
X X
T = sk (T ) zk xk =⇒ T y = sk (T ) hy , xk i zk para todo y ∈ H . (7.24)
k∈N k∈N

De hecho B1 es una BON de autovectores para |T | y B2 lo es para |T ∗ |, donde ninguna de


las dos contiene generadores de los núcleos. Además vale que s(T ∗ ) = s(T ).
Demostración. Hagamos T = U |T | la DP de T . Recordar que s(T ) = µ(|T |). El Teo. 7.4.1
nos provee del sistema B1 = {xk : k ∈ N} que es una BON de autovectores para |T |. En la
Obs. 7.4.2 se veı́a que span {B1 } = S = (ker |T |)⊥ = (ker T )⊥ .
Por otro lado, en el Teo. 4.4.4 vimos que la U de la DP es una IP con dominio S e imagen
R(U ) = R(T ) = (ker T ∗ )⊥ . Luego U actúa isométricamente en S, y por ello el sistema B2
formado por los vectores zk = U xk es una BON de R(T ). Finalmente, por (7.12) para |T |,
 X  X
T y = U ( |T | y ) = U µk ( |T | ) hy , xk i xk = sk (T ) hy , xk i zk
k∈N k∈N

para todo y ∈ H. En el Teo. 4.4.4 vimos que |T ∗ | = U |T | U ∗ . De ahı́ se deduce que


B2 = U (B1 ) es una BON de autovectores para |T ∗ | con los mismos autovalores. Por lo tanto
tenemos que s(T ∗ ) = µ(|T ∗ |) = µ(|T |) = s(T ). Cuando no ponemos el y, la convergencia de
la serie es en norma porque lo es para |T | y multiplicar por U es continua en L(H). 

220
Ejercicio 7.4.9. Dado T ∈ K(H), probar que s1 (T ) = k |T | k = kT k. 4
Ejercicio 7.4.10. Probar que si T ∈ LF (H), entonces tiene una representación del tipo
(7.24) pero con sumas finitas. De paso mostrar que, si ahora T ∈ K(H) \ LF (H), truncando
en (7.24) obtenemos una sucesión posta en LF (H) que le converge a T . Posta significa que
minimiza la distancia de T a los operadores del rango de cada truncado. 4
Ejercicio 7.4.11. Sea T ∈ K(H). Probar que ese T es diagonalizable (c.f. Ejem. 7.1.4) si
y sólo si T es normal. En tal caso vale que sk (T ) = |µk (T )| para todo k ∈ N (o hasta donde
sea que lleguen si T era rango finito), siempre que uno enumere los µk (T ) para que tengan
módulos decrecientes (se puede porque van hacia cero). 4

7.5 Fredholm sigue


Para empezar repasemos la data de la sección 7.2. Se definı́a el ágebra de Calkin como el
cociente Cal (H) = L(H)/ K(H) , que es un AB con la norma cociente. Se tiene la proyección
PK(H) : L(H) → Cal (H) que es un epimorfismo de AB’s. Luego definı́amos los operadores
de Fredholm como aquellos T ∈ L(H) tales que PK(H) (T ) ∈ GCal (H) . El conjunto de los
−1
Fredholm’s es F (H) = PK(H) (GCal (H) ). Vimos que T ∈ F (H) es de Fredholm si y sólo si

α(T ) = dim ker T < ∞ , β(T ) = dim ker T ∗ = dim R(T )⊥ < ∞ y R(T ) v H .

Luego definı́amos el ı́ndice de Fredholm como la función Ind : F (H) → Z dada por

Ind T = α(T ) − β(T ) = dim ker T − dim ker T ∗ ∈ Z


def
para cada T ∈ F (H) ,

En la Obs. 7.2.4 vimos que, entre otras, se tienen las siguientes propiedades: Si me dan dos
operadores T , M ∈ F (H), se tenı́a que M T y T M ∈ F (H). También vale que

G ∈ Gl (H) =⇒ Ind GT = Ind T G = Ind T y además Ind T ∗ = −Ind T . (7.25)

Luego definı́amos Fn (H) = {T ∈ F (H) : Ind T = n} para cada n ∈ Z. Cuando H = `2 (N)


vimos que el shift S ∈ L(H) unilateral hacia la derecha cumple que S ∈ F (H) con

Ind S n = −n mientras que Ind (S ∗ )n = n para todo n∈N. (7.26)

Ahora sı́ podemos seguir desarrollando la teorı́a de Fredholm.


Lema 7.5.1. Sea T ∈ F0 (H) un Fredholm con Ind (T ) = 0. Luego
1. Existe un F ∈ LF (H) tal que T + F ∈ Gl (H).

2. Sumarle compactos a T no le altera en ı́ndice:

Ind (T + A) = 0 para todo A ∈ K(H) . (7.27)

En otras palabas, se tiene que F0 (H) + K(H) = F0 (H).

221
Demostración. Sean N = ker T y M = R(T ) v H. El hecho de que Ind (T ) = 0 significa
que dim N = α(T ) = β(T ) = dim M⊥ < ∞. Luego existe un operador F0 ∈ L(N , M⊥ ) que
es un iso. Podemos extender F0 a un F ∈ LF (H) haciendolo actuar como cero en N ⊥ . Es
acotado porque F x = F0 PN x para todo x ∈ H y porque F0 era automáticamente continuo.
Ahora una cuenta directa muestra que T + F ∈ Gl (H) como se anunció. La idea es que

T = T PN ⊥ = T (I − PN ) =⇒ (T + F ) x = T (I − PN ) x + F PN x ∈ M ⊕ M⊥

para todo x ∈ H. Luego las acciones de T y de F son independientes entre sı́. Como T
def
también es iso entre N ⊥ y M v H, sale que G = T + F ∈ Gl (H).
Tomemos ahora un A ∈ K(H), y llamemos B = A − F ∈ K(H). Por lo tanto tenemos que
T + A = G + B = G (I + G−1 B). Calculando ı́ndices terminamos el laburo:
 (7.25) 7.3.2
Ind (T + A) = Ind (G + B) = Ind G (I + G−1 B) = Ind (I + G−1 B) = 0 . 

Para probar las propiedades más interesantes de la teorı́a de Fredholm hay una herramienta
especialmente útil: La suma directa de operadores. Todo lo referente a esas sumas es muy
elemental, pero son muchas cosas. En el siguiente ejercicio enumeramos exhaustivamente
los hechos que nos interesarán de estos operadores. La mayor parte de los enunciados que
siguen ya habı́an aparecido en el viejo Ejer. 4.7.1. Lo novedoso va con ∗.
Ejercicio 7.5.2. Sean H y K dos EH’s. Luego el espacio H ⊕ K con la estructura usual de
C-EV (sumando y multiplicando por escalares en cada coordenada) y el PI dado por


(x1 , y1 ) , (x2 , y2 ) = hx1 , x2 iH + hy1 , y2 iK para (x1 , y1 ) , (x2 , y2 ) ∈ H ⊕ K

es un nuevo EH. Se llama la “suma ortogonal” de H y K. Probar que

1. Dado un (x , y) ∈ H ⊕ K su norma cumple que k (x , y) k2 = kxk2H + kyk2K .

2. La convergencia es en las dos coordenadas a la vez. Deducir que H ⊕ K era completo.

3. Dados subespacios S ⊆ H y T ⊆ K su suma S ⊕ T ⊆ H ⊕ K es un subespacio tal que

S ⊕T =S ⊕T y (S ⊕ T )⊥ = S ⊥ ⊕ T ⊥ .

4. La flecha H 3 x 7→ (x , 0) ∈ H ⊕ K es una isometrı́a y por ello hómeo con la imagen.

5. Idem para K ,→ {0} ⊕ K v H ⊕ K.

Dados ahora M ∈ L(H) y N ∈ L(K), sea

M ⊕ S ∈ L(H ⊕ K) dado por M ⊕ N (x , y) = (M x , N y) ∈ H ⊕ K

para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas:

222
1. Primero hay que verificar que efectivamente M ⊕ N ∈ L(H ⊕ K).

2. Más aún, se tiene que kM ⊕ N k = max{ kM k , kN k }.

3. * Si fijamos el N ∈ L(K), la flecha L(H) 3 M 7→ M ⊕ N es un hómeo entre


def
L(H) y L(H) ⊕ N = {M ⊕ N : M ∈ L(H)} ,

si a este le consideramos la topologı́a inducida de la de L(H⊕K). Más aún, las métricas


coinciden.

4. * Por otra parte σ(M ⊕ N ) = σ(M ) ∪ σ(N ).

5. Entre estos operadores, las operaciones sumar, multiplicar, adjuntar e invertir (si se
puede), se hacen en cada coordenada.

6. R(M ⊕ B) = R(M ) ⊕ R(N ) ⊆ H ⊕ K, y es cerrado ⇐⇒ ambos rangos lo son.

7. ker(M ⊕ N ) = ker M ⊕ ker N v H ⊕ K.

8. Un operador cualquiera T ∈ L(H ⊕ K) es de estos diagonales ⇐⇒ conmuta con las


proyecciones a H y K. * En otras palabras, si H ⊕ {0} reduce a T .

9. * Nuestros M y N son compactos ⇐⇒ M ⊕ N ∈ K(H ⊕ K). Idem para rango finito.

10. * Además M y N son Fredholms ⇐⇒ M ⊕ N ∈ F (H ⊕ K). En tal caso vale que

α(M ⊕ N ) = α(M ) + α(N ) y β(M ⊕ N ) = β(M ) + β(N ) .

Finalmente, llegamos a que Ind (M ⊕ N ) = Ind (M ) + Ind (N ). 4

Teorema 7.5.3. Sea T ∈ F (H) un Fredholm. Entonces vale que

Ind (T + A) = Ind (T ) para todo A ∈ K(H) . (7.28)

En otras palabas, la función Ind : F (H) → Z se puede bajar al cociente y definir un

Ind a : GCal (H) → Z dado por Ind a ( T ) = Ind (T ) para cada T ∈ F (H) . (7.29)

Demostración. Consideremos el Hilbert K = H ⊕ `2 (N), como en el Ejer. 7.5.2. Supongamos


que Ind (T ) = n > 0. Tomemos S ∈ L(`2 (N) ) el shift a derecha. En (7.26) vimos que
Ind (S n ) = −n, por lo que Ind (T ⊕ S n ) = n − n = 0 (Ejer. 7.5.2). Por lo tanto podemos
aplicarle el Lema 7.5.1 a T ⊕ S n ∈ F0 (K). Para hacerlo tomemos un A ∈ K(H). Luego
7.5.1
Ind (T + A) − n = Ind (T + A) ⊕ S n = Ind T ⊕ S n + A ⊕ 0
 
= 0,

porque A ⊕ 0 es compacto en L(K). Esto prueba (7.28) en el caso Ind (T ) > 0. El caso de
ı́ndice nulo ya lo vimos, y el caso negativo se deduce del positivo cambiando T por T ∗ . 

223
Teorema 7.5.4. Sea H un EH. Luego la flecha Ind : F (H) → Z es continua. Esto significa
que los conjuntos Fn (H) son abiertos para todo n ∈ Z.
Demostración. Alcanza con ver que F0 (K) es abierto para todo Hilbert K. En efecto,
observar que si S ∈ L(`2 (N) ) el shift a derecha, entonces para un n > 0 tenemos que
7.5.2
Fn (H) ⊕ S n = F0 H ⊕ `2 (N) ∩ L(H) ⊕ S n , todo en L H ⊕ `2 (N) .
 

Como la flecha T 7→ T ⊕ S n es un hómeo entre L(H) n


 y L(H) ⊕ S (Ejer. 7.5.2) podemos
2 2
usar que F0 H ⊕ ` (N) es abierto en L H ⊕ ` (N) para deducir que Fn (H) es abierto en
L(H). Para el caso negativo uno usa que F−n (H) = Fn (H)∗ y que adjuntar es hómeo.
Asumamos ahora que T ∈ F0 (H). Por el Lema 7.5.1 sabemos que existe un F ∈ LF (H) tal
que G = T + F ∈ Gl (H). Luego tanto G como G∗ son AI en todo H por un ε > 0.
Si ahora me dan una sucesión Tn −−−→ T , es claro que Gn = Tn + F −−−→ G, por lo que
n→∞ n→∞
a partir de un n0 ∈ N todos esos Gn ∈ Gl (H) (por aquel Teo. 6.1.4 sabemos que Gl (H) era
abierto). Finalmente, aplicando el Lema 7.5.1 podemos deducir que a partir de ese n0 todos
los Tn = Gn − F ∈ Gl (H) + K(H) ⊆ F0 (H). Eso dice que T es interior para F0 (H), que por
ello debe ser abierto en su ambiente L(H). 
Teorema 7.5.5. Dados T , M ∈ F (H) se tiene que Ind (T M ) = Ind (T ) + Ind (M ).
Demostración. Sean n = Ind (T ) y m = Ind (M ). Como siempre, empecemos con el caso
en el que m = Ind (M ) = 0. Si pasa eso, el Lema 7.5.1 provee del F ∈ LF (H) tal que
G = M + F ∈ Gl (H). Como también vale que T F ∈ LF (H), podemos calcular que
(7.25) 7.5.3
Ind (T ) + Ind (M ) = n = Ind (T ) = Ind (T G) = Ind (T M + T F ) = Ind (T M ) .
Si m > 0, laburemos en L(H ⊕ `2 (N) ) con el shift S m . Nos queda que el Ind (M ⊕ S m ) = 0.
Luego, por el caso que acabamos de ver, podemos hacer esta cuenta:
n = Ind (T ⊕ I) = Ind (T ⊕ I) (M ⊕ S m ) = Ind (T M ⊕ S m ) = Ind (T M ) − m .


Entonces Ind (T M ) = n + m = Ind (T ) + Ind (M ). El caso m < 0 sale con (S ∗ )−m . 


Corolario 7.5.6. Sea H un EH. Luego la función Ind a : GCal (H) → Z que aparecı́a en (7.29)
está bien definida y es un morfismo continuo de grupos.
Demostración. Bajar a GCal (H) los tres tristes teoremas 7.5.3, 7.5.4 y 7.5.5. 

7.6 La traza
Todos sabemos qué es la traza de matrices, y hasta la hemos usado un par de veces en este
texto. En el contexto de un Hilbert H tal que dim H = ∞, la tr de un T ∈ L(H) se define
como siempre (la suma de la “diagonal”), pero la gracia va a ser estudiar a aquellos T tales
que tr T < ∞. Además veremos que sus propiedades se mantienen intactas. Pero definirla
no es tan fácil, porque la diagonal depende en principio de la BON que uno elija. Para hacer
las cosas bien conviene empezar por los positivos.

224
Definición 7.6.1. Sea H un EH. Definiremos la traza de un T ∈ L(H)+ por la fómula
X
tr T = hT ei , ei i ∈ R+ ∪ {+∞} , (7.30)
i∈I

para alguna BON fija B = {ei : i ∈ I} de H. 4


Proposición 7.6.2. Sea T ∈ L(H). Entonces la traza de arriba cumple que
tr ( T ∗ T ) = tr ( T T ∗ ) . (7.31)
2
Demostración. Observar que para todo par i , j ∈ I, pasando por h T ei , ej i tenemos que
h T ei , ej i h ej , T ei i = h T ∗ ej , ei i h ei , T ∗ ej i ≥ 0 . (7.32)
Fijemos un i ∈ I. Sumando los primeros de (7.32) sobre j ∈ I nos queda que
X D E DX E
h T ei , ej i ej , T ei = h T ei , ej i ej , T ei = h T ei , T ei i = h T ∗ T ei , ei i .
j∈I j∈I

Si ahora fijamos j ∈ I y sumamos los segundos de (7.32) sobre i ∈ I nos queda que
X D E
h T ∗ ej , ei i ei , T ∗ ej = h T ∗ ej , T ∗ ej i = h T T ∗ ej , ej i .
i∈I

Si ahora sumamos tutti en la (7.32), como todos los téminos son positivos da lo mismo el
orden en que lo hagamos. Luego estamos como queremos:
h T ∗ T ei , ei i =
P P P
h T ei , ej i h ej , T ei i
i∈I i∈I j∈I

(7.32)
h T ∗ ej , ei i h ei , T ∗ ej i = h T T ∗ ej , ej i .
P P P
=
j∈I i∈I j∈I

O sea que tr ( T ∗ T ) = tr ( T T ∗ ). 
Corolario 7.6.3. Sea T ∈ L(H)+ . Entonces se tienen las siguientes propiedades:
1. Vale la igualdad tr T = tr (U ∗ T U ) para cualquier U ∈ U(H)
2. El valor de tr T es independiente de la BON que se use en la fórmula (7.30).
En resumen, en la Def. 7.6.1 se puede cambiar “una BON fija” por “cualquier BON”.
Demostración. Aplicándole la Ec. (7.31) al operador S = U ∗ T 1/2 nos queda que
(7.31)
tr (U ∗ T U ) = tr (U ∗ T 1/2 T 1/2 U ) = tr (SS ∗ ) = tr (S ∗ S) = tr(T 1/2 U U ∗ T 1/2 ) = tr T .
Fijada B = {ei : i ∈ I}, toda otra BON de H tiene la forma BV = {V ei : i ∈ I} para algún
V ∈ U(H). Por ello, si calculamos la tr T con BV llegamos a que
X X
hT V ei , V ei i = hV ∗ T V ei , ei i = tr (V ∗ T V ) = tr T . 
i∈I i∈I

225
7.6.4. La función tr : L(H)+ → R+ ∪ {+∞} cumple algunas propiedades: Si A ∈ L(H)+
P
1. tr A = i∈I hA ei , ei i, ahora para cualquier BON {ei : i ∈ I} de H.

2. Si y ∈ H es unitario, entonces hA y , yi ≤ tr A. Sale completando {y} a una BON.


(6.22)
3. En particular kAk = w(A) = supkyk=1 hA y , yi ≤ tr A.

4. Hasta donde tiene sentido (por ahora), la tr es lineal: Si B ∈ L(H)+ y µ ∈ R+ ,

tr(A + B) = tr A + tr B y tr(µ A) = µ tr A . (7.33)

Esto sale de una por la fórmula (7.30).

5. La traza es monótona: A ≤ B =⇒ tr A ≤ tr B. Es consecuencia de la Def. 7.6.1.

6. Si A es compacto (además de positivo), entonces su traza se puede calcular ası́:


X X
A= µk (A) xk xk =⇒ tr A = µk (A) , (7.34)
k∈N k∈N

donde los µk (A) son su sucesión decreciente de autovectores (con multiplicidades),


como en la Ec. (7.21). Para probarlo basta calcular la traza en la correspondiente
BON de autovectores de A (los del núcleo no aportan). Al hacer eso uno tiene que
usar que cada término A xk = µk (A) xk =⇒ hA xk , xk i = µk (A) .

7. Luego podemos afirmar la siguiente caracterización que será util más adelante:

Dado A ∈ K(H) ∩ L(H)+ se tiene que tr A < ∞ ⇐⇒ µ(A) ∈ `1 (N) . (7.35)

Ahorita veremos que los positivos “traza finita” son siempre de estos. 4

Pensémoslo al revés: Sea B = {en : n ∈ N} una BON de un H y tomemos, como en (7.3), un


diagonalizable Ma , B ∈ L(H)+ dado por un a = (an )n∈ N ∈ `∞ de entradas positivas. Para
calcular su traza podemos usar a la misma B y nos queda que
X
cada Ma , B en = an en =⇒ tr Ma , B = an por lo que tr Ma , B < ∞ ⇐⇒ a ∈ `1 .
n∈N

En particular tendremos que an −−−→ 0 y por el Ejem. 7.1.5 ello asegura que Ma , B ∈ K(H).
n→∞
Es un hecho general que los operadores con traza finita (de él o de alguna potencia) tienen
que ser compactos, aunque la “compacidad” no alcanza para asegurar traza finita.
Para decirlo propiamente recordemos que si T ∈ L(H) entonces |T | ∈ L(H)+ por lo que
podemos usar el CFC en |T | y definir f ( |T | ) ∈ L(H) para cualquier función f ∈ C[0, ∞).
Lo usaremos seguido para las f (t) = tp con p > 0.

226
Proposición 7.6.5. Sea T ∈ L(H). Si existe algún p > 0 tal que se cumpla que
tr |T |p < ∞ =⇒ T ∈ K(H) .
Demostración. Sea B = {xi : i ∈ I} una BON de H. Consideremos la red asociada de
proyectores (PF )F∈PF (I) definida en el Lema 7.1.1. Recordemos que R(PF ) = span {xi : i ∈ F}
y llamemos QF = IH − PF para cada F ∈ PF (I). Dado un y ∈ H unitario vale que
7.6.4  X
k |T |p/2 QF yk2 = hQF |T |p QF y , yi ≤ tr QF |T |p QF = h |T |p xi , xi i −−−−−→ 0 ,
F∈PF (I)
i∈F
/

donde la convergencia final se debe a que la tr |T |p < ∞ (calculándola con B). Observar que
k·k
lo que va a cero es independiente del y ∈ BH , o sea que |T |p/2 PF −−−→ |T |p/2 . Aplicando el
n→∞
Teo. 7.4.8 y adjuntando, llegamos a que |T |p/2 ∈ K(H) =⇒ |T |p ∈ K(H) ∩ L(H)+ .
Luego podemos aplicarles el Cor. 7.4.7 a |T |p y a la función f (t) = t1/p para t ∈ [0, +∞).
Deducimos que f (|T |p ) = (|T |p )1/p ∈ K(H). Finalmente, la Ec. (6.32) del Ejer. 6.5.13 nos
Cor. 7.1.3
asegura que |T | = (|T |p )1/p ∈ K(H) =⇒ T ∈ K(H). 
7.6.6. Sea H un EH. Consideremos los siguientes subespacios de K(H) asociados a la traza.
• Para empezar sea L1 (H)+ = {A ∈ L(H)+ : tr A < ∞} ⊆ K(H).
def
• Los operadores traza: L1 (H) = span {L1 (H)+ }.
def
• Los Hilbert-Schmit (HS): L2 (H) = {T ∈ K(H) : tr(T ∗ T ) < ∞}.
Queremos extender la traza a una función lineal tr : L1 (H) → C. Vamos por pasos:
Si B ∈ L1 (H) ∩ A(H) entonces B = k∈In αk Ak con los Ak ∈ L1 (H)+ y los αk ∈ R, porque
P
las partes imaginarias se cancelan. Luego definimos
! !
X (7.33) X X
tr B = αk tr Ak = tr αk Ak − tr −αk Ak ∈ R . (7.36)
k∈In αk ≥0 αk <0

La definición es buena (no depende de la CL elegida) porque si tenemos otra representación


B = j∈Im βj Cj (con los Cj ∈ L1 (H)+ y los βj ∈ R), entonces podemos despejar:
P

X X X X (7.33) X X
αk Ak + −βj Cj = βj C j + −αk Ak =⇒ αk tr Ak = βj tr Cj ,
αk ≥0 βj <0 βj ≥0 αk <0 k∈In j∈Im

porque todos los coeficientes de la izquierda son positivos. Observar que la fórmula (7.36)
hace que la tr sea R-lineal en L1 (H) ∩ A(H). Sigamos extendiendo:
El segundo paso es tomar un T ∈ L1 (H) y ahora la cosa es más fácil. Hay que notar que
L1 (H) = L1 (H)∗ , lo que se deduce directamente de su definición. Este hecho implica que

Re(T ) = T +T
2
∈ L1 (H) y lo mismo para Im(T ). Finalmente basta poner
tr T = tr Re(T ) + i tr Im(T ) .

227
Como la descomposición T = Re(T ) + i Im(T ) es única (ver 4.2.5), ni siquiera hay que
verificar la BD. Encima, como las flechas T 7→ Re(T ) y T 7→ Im(T ) ya eran R-lineales
y multiplicar por i permuta Re con Im, sale sin dificultad que nuestra traza extendida
tr : L1 (H) → C es C-lineal en todo L1 (H). Ahora que sabemos que lo es, podemos dar una
propiedad-definición mucho más satisfactoria: Si T ∈ L1 (H), entonces
X
tr T = hT ei , ei i para cualquier BON {ei : i ∈ I} de H . (7.37)
i∈I

En efecto, ambos términos son lineales en T , y la igualdad se cumple para los generadores
de L1 (H)+ . La Ec. (7.37) tiene dos consecuencias útiles: Si T ∈ L1 (H), entonces

tr T ∗ = tr T y tr T ≥ 0 siempre que T ∈ L1 (H) ∩ L(H)+ = L1 (H)+ . (7.38)

Con respecto a L2 (H), decı́amos que es un subespacio, pero hace falta probarlo. Para ello
sirve observar que dados S , T ∈ L(H), se cumple la siguiente desgualdad paralelográmica:

(S + T )∗ (S + T ) ≤ (S + T )∗ (S + T ) + (S − T )∗ (S − T ) = 2 (S ∗ S + T ∗ T ) . (7.39)

La prueba es tan solo distribuir y simplificar. Mirándola fijo uno descubre que ella muestra
que L2 (H) era nomás un subespacio. Por otro lado, usando la Prop. 7.6.2 (tr T ∗ T = tr T T ∗ )
vemos inmediatamente que L2 (H) = L2 (H)∗ . Para terminar este potpurrı́, veamos que
3
X
4T∗ S = ik (S + ik T )∗ (S + ik T ) para todo par S , T ∈ L(H) . (7.40)
k=0

Nuevamente la prueba consiste en distribuir y simplificar (un poco más). 4


Teorema 7.6.7. Sea H un EH. Entonces se tienen las siguientes propiedades:
1. Tanto L1 (H) como L2 (H) son ideales biláteros autoadjuntos de L(H).

2. Podemos caracterizar mejor a los traza: Dado T ∈ L(H) vale que

T ∈ L1 (H) ⇐⇒ |T | ∈ L1 (H)+ =⇒ L1 (H) = {T ∈ L(H) : tr |T | < ∞} . (7.41)


 

3. Dado T ∈ K(H), sea s(T ) = µ( |T | ) su sucesión de valores singulares (7.22). Luego

T ∈ L1 (H) ⇐⇒ s(T ) ∈ `1 (N) y T ∈ L2 (H) ⇐⇒ s(T ) ∈ `2 (N) . (7.42)

4. Podemos relacionar varios de estos espacios con una cadena de inclusiones:

LF (H) ⊆ L1 (H) ⊆ L2 (H) ⊆ K(H) , (7.43)

todas ellas estricas si dim H = ∞.


Demostración. Ya sabemos que ambos espacios son subespacios autoadjuntos.

228
1. Veamos que L1 (H) es ideal. Fijemos un T ∈ L1 (H)+ . En principio, la Prop. 7.6.2
asegura que para cualquier B ∈ L(H) se tiene que
 (7.31)  7.6.4
tr B ∗ T B = tr (B T 1/2 )∗ (B T 1/2 ) = tr T 1/2 B ∗ B T 1/2 ≤ kBk2 tr T ,
 
(7.44)
(6.39)
porque B ∗ B ≤ kBk2 I. Dados ahora otro A ∈ L(H), la Ec. (7.40) dice que
3
4 T A = 4 T 1/2 · T 1/2 A = ik (T 1/2 A + ik T 1/2 )∗ (T 1/2 A + ik T 1/2 )
P
k=0

3 (7.44)
ik (A + ik I )∗ T (A + ik I ) ∈ L1 (H) .
P
=
k=0

Pero como L1 (H)+ genera L1 (H) y L1 (H) = L1 (H)∗ (eso para que A∗ T ∈ L1 (H) ), lo
de arriba alcanza para convencerse de que L1 (H) es ideal bilátero.
Si ahora tenemos un S ∈ L2 (H) y un C ∈ L(H), lo que vimos de L1 (H) hace que

S ∈ L2 (H) ⇐⇒ S ∗ S ∈ L1 (H) =⇒ C ∗ S ∗ S C ∈ L1 (H) =⇒ S C ∈ L2 (H) .

Del hecho de que también L2 (H)∗ = L2 (H) sale que L2 (H) es ideal bilátero.

2. Si T = U |T | es la DP de un T ∈ L(H), entonces |T | = U ∗ T (Teo. 4.4.4). Como vimos


que L1 (H) es un ideal, eso dice que T ∈ L1 (H) ⇐⇒ |T | ∈ L1 (H).

3. La primera equivalencia de (7.42) de deduce de las Ec’s. (7.41) y (7.35), usando que
s(T ) = µ( |T | ). Para ver la otra se hace esta cuenta, basada en la Ec. (7.23):

T ∈ L2 (H) ⇐⇒ T ∗ T ∈ L1 (H)

(7.35) (7.23)
⇐⇒ s( T ∗ T ) = µ( |T |2 ) =

µk ( |T | )2 k∈N
∈ `1 (N)

⇐⇒ s(T ) = µ( |T | ) ∈ `2 (N) .

4. Si F ∈ LF (H), entonces |F | ∈ LF (H). Calculando su traza en una BON (finita) de


autovectores de |F | vemos que tiene que ser finita. Luego F ∈ L1 (H).
La inclusión L1 (H) ⊆ L2 (H) se deduce de (7.42), porque `1 (N) ⊆ `2 (N). En la
Prop. 7.6.5 (o en su misma Def.) ya se vió que L2 (H) ⊆ K(H). Finalmente, los
ejemplos para ver las inclusiones propias son evidentes usando (7.42). 
Ejercicio 7.6.8. Mostrar la siguiente concretización de la Ec. (7.42):
1. Dado T ∈ L1 (H) se cumple que tr |T | =
P
sn (T ) = ks(T )k1 .
n∈N

2. En cambio si T ∈ L2 (H), entonces kT k22 = tr T ∗ T = sn (T )2 = ks(T )k22 .


P
n∈N

229
Teorema 7.6.9. El espacio L2 (H) de operadores de Hilbert Schmit cumple lo siguiente:

1. Dados S , T ∈ L2 (H), se tiene que T ∗ S ∈ L1 (H).

2. La siguiente flecha define un producto interno en L2 (H):

L2 (H) × L2 (H) 3 (S , T ) 7−→ hS , T itr = tr T ∗ S .


def
(7.45)

3. Con ese PI, el espacio L2 (H) es un Hilbert. O sea que hay completitud con la norma
1/2 1/2
tr T ∗ T
def
kT k2 = hT , T itr = para T ∈ L2 (H) .

Demostración. El item 1 se deduce directamente de la Ec. (7.40). Del hecho de que la traza
es lineal en L1 (H) deducimos sin problemas que el h· , ·itr es sesquilineal. Es conjugadamente
simétrico y semidefinido positivo por la Ec. (7.38). Por ejemplo, dados S , T ∈ L2 (H),
(7.38)
hT , Sitr = tr S ∗ T = tr (T ∗ S)∗ = tr T ∗ S = hS , T itr .

El hecho de que sea definido positivo sale usando el item 3 de 7.6.4, donde se vió que
7.6.4
T ∈ L2 (H) \ {0} =⇒ kT k22 = hT , T itr = tr T ∗ T ≥ kT ∗ T k = kT k2 > 0 . (7.46)

Falta ver que L2 (H) es completo con la k · k2 . Fijemos una sucesión (Tn )n∈ N en L2 (H) que
sea de Cauchy en la k · k2 . Por la desigualdad k · k2 ≥ k · k vista en (7.46), podemos afirmar
k·k
que existe un T ∈ K(H) tal que Tn −−−→ T .
n→∞

Dado ε > 0 sea n0 tal que kTm − Tn k2 < ε para n , m ≥ n0 . Antes de seguir, fijemos
una proyección P ∈ LF (H) y un n ≥ n0 . En este caso concreto podemos afirmar que la
convergencia en la norma usual implica que k(Tm − Tn )P k2 −−−→ k(T − Tn )P k2 , porque
m→∞
gracias a P la traza se hace con una suma finita. Ahora sı́ podemos ver que

k(T − Tn )P k22 = lim k(T − Tn )P k22 = lim tr P (Tm − Tn )∗ (Tm − Tn ) P


 
m→∞ m→∞

= lim tr (Tm − Tn ) P (Tm − Tn )∗


 
m→∞

(7.38)
sup tr (Tm − Tn ) (Tm − Tn )∗ = sup k(Tm − Tn )k22 ≤ ε2 .
 

m≥n0 m≥n0

Como la acotación vale con n ≥ n0 para cualquier proyector P ∈ LF (H), lo podemos


agrandar hasta llegar a que k(T − Tn )k2 ≤ ε para todo n ≥ n0 . De esto deducimos que
T ∈ L2 (H) y que k(T − Tn )k2 −−−→ 0, ası́ que L2 (H) es un EH en toda regla. 
n→∞

Proposición 7.6.10. Sea H un EH. Se tienen las siguientes desigualdades:

230
1. Dado un M ∈ L2 (H) y cualquier A ∈ L(H) sabemos que A M ∈ L2 (H), pero además

kA M k2 ≤ kAk kM k2 . (7.47)

2. Similarmente, si T ∈ L1 (H) y A ∈ L(H) se tiene que



tr (A T ) ≤ tr |A T | ≤ kAk tr |T | . (7.48)

Demostración. Para probar la desigualdad (7.47) basta observar que

kA M k22 = tr (M ∗ A∗ A M ) ≤ tr M ∗ ( kA∗ Ak I ) M
 

= kA∗ Ak tr(M ∗ M ) = kAk2 kM k22 ,

porque A∗ A ≤ kA∗ Ak I, como habı́amos visto en (6.39). Veamos ahora que



tr S ≤ tr |S| para todo S ∈ L1 (H) , (7.49)

que es la (7.48) para A = I. Para ello hagamos S = U |S| la DP de S ∈ L1 (H). Observemos


que |S| = U ∗ S ∈ L1 (H). Luego |S|1/2 ∈ L2 (H), ya que k |S|1/2 k22 = tr |S| < ∞. Usando
Cauchy Schwarz para el PI de L2 (H), podemos hacer esta cuenta:
 

tr S = tr (U |S|1/2 ) |S|1/2 = |S|1/2 , (U |S|1/2 )∗
tr

C−S (7.47)
≤ kU |S|1/2 k2 k |S|1/2 k2 ≤ kU k k |S|1/2 k22 = tr |S| .

En un momento se usó que kB ∗ k2 = kBk2 para B ∈ L2 (H). Eso sale de la Ec. (7.31). Para
probar la (7.48) general recordemos que la Ec. (6.41) mostraba que |AT | ≤ kAk |T | como
operadores. Tomando traza deducimos que tr |A T | ≤ kAk tr |T |. Finalmente, aplicando la
Ec. (7.49) al operador S = A T sale que tr (A T ) ≤ tr |A T |. 
Proposición 7.6.11. La traza cumple su paradigmática propiedad

tr S T = tr T S (7.50)

en los dos casos en los que ya sabemos que tendrı́a sentido:

• Cuando T ∈ L1 (H) y ponemos cualquier S ∈ L(H).

• Cuamdo ambos S , T ∈ L2 (H).

Demostración. Como ahora sabemos que siempre vale la Ec. (7.37), la prueba es básicamente
la misma que la de la Prop. 7.6.2: Hacer una serie doble y cambiar el orden de las sumatorias.

231
El problema es que en el caso general los términos que hay que sumar no son positivos como
entonces. Ası́ que mejor aplicamos la fórmula (7.40) y recién ahı́ la Ec. (7.37):
3
(7.40) P
4 tr T ∗ S = ik tr (S + ik T )∗ (S + ik T )
 
k=0

(7.37) 3
ik tr (S + ik T )(S + ik T )∗
P  
=
k=0
(7.51)
3
ik tr (S ∗ + i−k T ∗ )∗ (S ∗ + i−k T ∗ )
P  
=
k=0

3  (7.40)
ik tr (T ∗ + ik S ∗ )∗ (T ∗ + ik S ∗ ) = 4 tr S T ∗ .
P 
=
k=0

Ojo que lo de arriba sólo tiene sentido cuando S y T ∈ L2 (H). Para el otro caso podemos
asumir que T ∈ L1 (H)+ , porque ellos generan. Entonces sabemos que T 1/2 ∈ L2 (H) y por
lo que probamos arriba podemos hacer la siguiente cuenta: Dado S ∈ L(H), vale que
 (7.51)   (7.51) 
tr S T = tr (S T 1/2 ) T 1/2 = tr (T 1/2 S) T 1/2 = tr T 1/2 (T 1/2 S) = tr T S . 
 

Teorema 7.6.12. La fórmula kT k1 = tr |T | define una norma en L1 (H) que lo hace un


espacio de Banach.
Demostración. Veamos que es una norma. Es claro que las constantes salen en módulo.
Usando el item 3 de 7.6.4 vemos que si T ∈ L1 (H) \ {0}, entonces
0 < kT k = k |T | k ≤ tr |T | = kT k1 ,
o sea que es positiva definida. La DT sale aı́: Si S + T = V |S + T | es su DP, entonces
(7.48)
4.4.4
kS + T k1 = tr |S + T | = tr V ∗ (S + T ) ≤ | tr V ∗ S| + | tr V ∗ T | ≤ tr |S| + tr |T | .
 

Ahora a laburar con la completitud. Es casi lo mismo que para L2 (H): Fijemos una sucesión
(Tn )n∈ N en L1 (H) que sea de Cauchy en la k · k1 . Por la desigualdad k · k1 ≥ k · k vista
k·k
recién, podemos afirmar que existe un T ∈ K(H) tal que Tn −−−→ T . Dado ε > 0 sea n0 tal
n→∞
que kTm − Tn k1 < ε para n , m ≥ n0 . Antes de seguir, fijemos una proyección P ∈ LF (H) y
un n ≥ n0 . Luego podemos afirmar que la convergencia en la norma usual implica que
(7.50)
tr P |Tm − Tn | = tr P |Tm − Tn | P −−−→ tr P |T − Tn | P ,
m→∞
porque P hace que la traza sea una suma finita, y porque el Cor. 6.6.7 aseguraba que
Tm −−−→ T =⇒ |Tm − Tn | −−−→ |T − Tn |. Luego, si n ≥ n0 tenemos que
m→∞ m→∞
(7.50) 
tr P |T − Tn | P = lim tr P |Tm − Tn | = lim tr |Tm − Tn |1/2 P |Tm − Tn |1/2
m→∞ m→∞

(7.38)
≤ sup tr |Tm − Tn | = sup k(Tm − Tn )k1 ≤ ε .
m≥n0 m≥n0

232
Como la acotación vale con n ≥ n0 para cualquier proyector P ∈ LF (H), lo podemos
agrandar hasta llegar a que k(T − Tn )k1 ≤ ε para todo n ≥ n0 . De esto deducimos que
T ∈ L1 (H) y que k(T − Tn )k1 −−−→ 0, ası́ que L1 (H) es un EB de ley. 
n→∞

Ejercicio 7.6.13. Recordemos la Ec. (7.43): LF (H) ⊆ L1 (H) ⊆ L2 (H) ⊆ K(H). Probar
que cada uno de ellos en denso en los más grandes con sus normas. En otras palabras, probar
que LF (H) es denso en los tres con las normas que les corresponden (1, 2 e ∞). 4

Para lo que nos falta hacer conviene tener como herramientas algunas cuentas más sobre los
tensorcitos x y ∈ LF (H) vistos en la Sección 4.6. En las demostraciones que se vienen
usaremos (sin citar ni aclarar) las múltiples propiedades ya probadas en la Prop. 4.6.4, ası́
que damos una versión retroactiva antes de seguir.
Repaso de la Prop. 4.6.4. Sea H un EH. Fijemos x , y ∈ H. Luego:

1. La norma: kx yk = kxk kyk.

2. El adjunto: (x y)∗ = y x.

3. El espectro: El único autovalor de x y que puede ser no nulo es λ1 = hx, yi.

4. Si A , B ∈ L(H), se tiene que A ◦ x = A x ∈ L(K , H). Luego

A · (x y) = (Ax) y and (x y) · B = x (B ∗ y) .

5. Dados v , w ∈ H, se tiene que (x y) · (v w) = hv, yi · x w .


x x 1
6. Si x 6= 0, el proyector Pspan{x} = kxk
kxk
= kxk2
x x . 

Ahora sı́ enunciamos las novedades:


Proposición 7.6.14. Sea H un EH. Dados x , y ∈ H se tiene que

1. El tensor x y ∈ L1 (H) y cumple que tr x y = hx , yi.


y
2. Su módulo (como operador) es |x y| = kxk kyk · y1 y1 , donde y1 = kyk
.

3. Por ello, su kx yk1 = tr |x y| = kxk kyk = kx yk.



4. Si dim H > 1, su espectro es σ (x y) = 0 , hx , yi .

5. Dados z , w ∈ H, se tiene que el PI de L2 (H) entre los tensores da


D E
x y, z w = hx , zi hw , yi . (7.52)
tr

Demostración.

233
x
1. Si x = 0 es trivial. Sinó, sea x1 = kxk . Como R(x y) = span {x1 }, podemos calcular
su traza empezando (y terminando) por x1 :


tr x y = x y (x1 ) , x1 = hx1 , yi hx , x1 i = hx1 , yi kxk = hx , yi .
1/2 1/2
2. |x y| = y x · x y = kxk2 y y = kxk kyk · (y1 y1 )1/2 = kxk kyk · y1 y1 .
3. Es porque tr y1 y1 = tr Pspan{y} = 1. La igualdad con kx yk se vió en la Prop. 4.6.4.
4. También se vió en la Prop. 4.6.4, agregando ahora el hecho de que x y es compacto.
5. Es cuestión de hacer la cuenta. Si nos armamos de paciencia vemos que
D E  
x y, z w = tr w z · x y = hx , zi tr w y = hx , zi hw , yi . 
tr

Teorema 7.6.15. Sea H un EH. Si B = {vi : i ∈ I} es un SON de H, entonces


def
B B = {vi vj : i , j ∈ I} es un SON de L2 (H) . (7.53)

Pero si B era una BON de H, entonces B B se constituye en una BON de L2 (H).


Demostración. La (7.53) es una consecuencia directa de la fórmula (7.52) (o sea el final de
lo de arriba). Para ver que B B genera todo L2 (H), basta ver que su ortogonal es trivial.
En efecto, si me dan un T ∈ L2 (H) y un par i , j ∈ I, podemos calcular
D E    
T , vi vj = tr vj vi · T = tr vj T ∗ vi = hvj , T ∗ vi i = hT vj , vi i ,
tr

Pero es bien fácil ver que si todos esos hT vj , vi i = 0, entonces T = 0. 


Observación 7.6.16. Recordemos que cuando H = L2 (X, µ) tenı́amos los operadores nu-
def
cleares Tk para los núcleos k ∈ K = L2 (X × X , µ × µ). Además, en el Ejem. 7.1.7 vimos
que si B = {φi : i ∈ I} es una BON de H, y dados i, j ∈ I definamos
φi ⊗ φj ∈ K por φi ⊗ φj (x, y) = φi (x) φj (y) para (x, y) ∈ X × X ,
def
entonces B ⊗ B = {φi ⊗ φj : i , j ∈ I} es una BON de K. Además mostramos que

Tφi ⊗φj = φi φj ∈ L2 (H ) para todo par i, j ∈ I ,

O sea que la flecha L2 (X × X , µ × µ) 3 k 7→ Tk ∈ L2 (H) manda una BON en otra BON (los
φi φj por el Teo. 7.6.15), por lo que es una isometrı́a entre esos dos EH’s. Esto se traduce
a que si H = L2 (X, µ), sus operadores de Hilbert Schmit coinciden con los nucleares Tk para
los núcleos k ∈ L2 (X × X , µ × µ), y que la norma 2 de ellos es igual a la kkk2 . 4
Teorema 7.6.17. Sea H un EH. Luego tenemos sendos isomorfismos isométricos

L1 (H) ∼
= K(H)∗ y L(H) ∼
= L1 (H)∗ (7.54)

implementados por la dualidad L(H) × L1 (H) 3 (S , T ) 7→ tr S T = tr T S.

234
Demostración. Recordemos de la Ec. (7.48) que | tr S T | ≤ kSk tr |T | para S ∈ L(H) y
T ∈ L1 (H) cualesquiera. Eso permite definir sendas flechas

L1 (H) 3 T 7→ ϕT ∈ K(H)∗ y L(H) 3 S 7→ φS ∈ L1 (H)∗ (7.55)

dadas por ϕT (S) = tr S T para S ∈ K(H) y φS (T ) = tr S T para T ∈ L1 (H). La desigualdad


(7.48) antes mencionada nos asegura que dados T ∈ L1 (H) y S ∈ L(H), se tiene que

ϕT ∈ K(H)∗ con kϕT k ≤ kT k1 y φS ∈ L1 (H)∗ con kφS k ≤ kSk .

Ahora viene el laburo: Dada una ϕ ∈ K(H)∗ , la podemos restringir a L2 (H) (recordemos que
L2 (H) ⊆ K(H) ). Nos queda una ϕ ∈ L2 (H)∗ y no se agranda su norma (porque k·k2 ≥ k·k).
Pero vimos que L2 (H) es un EH. Luego el TRR 3.3.1 nos provee de un T ∈ L2 (H) tal que

ϕ(S) = hS , T ∗ itr = tr T S = tr S T para todo S ∈ L2 (H) ,

Por otro lado, dado un proyector P ∈ LF (H) y haciendo T = U |T | su DP, vale que
tr P |T | = tr P U ∗ T = |ϕ(P U ∗ )| ≤ kϕk .
 

Como P es arbitraria, ya podemos asegurar que nuestro T ∈ L1 (H) con kT k1 = tr |T | ≤ kϕk.


Finalmente, como L2 (H) es denso en K(H), deducimos que ϕ = ϕT y que kϕT k ≥ kT k1 .
Esto muestra que la primera flecha de (7.55) es un isomorfismo isométrico sobre K(H)∗ .
A laburar sobre la otra. Sea φ ∈ L1 (H)∗ . El curro es definir la sesquilineal acotada
def 
B(x , y) = φ x y para x , y ∈ H .

La sesquilinealidad sale fácil, y es acotada por la constante kφk porque


 7.6.14
|B(x , y)| = |φ x y | ≤ kφk kx yk1 = kφk kxk kyk para x, y ∈ H .

La Prop. 4.1.2 (Lax-Milgram) nos produce un S ∈ L(H) tal que kSk ≤ kφk y
 7.6.14  
φ x y = B(x , y) = hS x , yi = tr S x y = φS x y para x, y ∈ H .

Finalmente, en 4.6.6 vimos que los x y generan LF (H), que a su vez es k · k1 -denso en
L1 (H). Luego lo de arriba dice que φ = φS y que kφS k ≥ kSk. Con ello hemos probado que
la otra flecha de (7.55) es un iso isométrico sobre L1 (H)∗ . 
Observación 7.6.18. Las dualidades de arriba son una especie de extención de las viejas
c∗0 = `1 y (`1 )∗ = `∞ . De hecho, fijando una BON (numerable) de H uno contruye operadores
diagonales y se aviva de que un Ma ∈ L(H) dado por una a = (an )n∈ N ∈ CN cumple que

Ma ∈ K(H) ⇐⇒ a ∈ c0 , Ma ∈ L1 (H) ⇐⇒ a ∈ `1 y Ma ∈ L(H) ⇐⇒ a ∈ `∞ .

Además es un lindo ejercicio verificar que las dualidades viejas coinciden con tr(Ma Mb ).
Otra manifestación de esta analogı́a se ve en aquel Ejer. 7.1.8. 4

235
Observación 7.6.19. Una consecuencia importante de que L(H) sea el dual de L1 (H)
(Teo. 7.6.17) es que le podemos aplicar Alaoglu para decir que la bola BL(H) es w∗ -compacta.
Claro que acá converger w∗ es traceando contra todo A ∈ L1 (H), lo que no parece fácil de
testear. Sin embargo, en la bola BL(H) hay una manera mucho más concreta de describir esa
topologı́a. Definamos la convergencia WOT, que habı́a aparecido en 5.9.22.
Definición 7.6.20. Fijemos una red T = (Ti )i∈ I y un T , todos en L(H). Decimos que
W.O.T.
Ti −−−→ T (se lee “Ti converge debilmente o WOT a T ”) si se cumple que
i∈I

hTi x , yi −−→ hT x , yi para todo par x, y∈H.


i∈ I

Esta convergencia proviene de la topologı́a WOT en L(H) dada por la familia de seminormas
Pxy (T ) = | hT x , yi | (para x , y ∈ H y T ∈ L(H) ), que lo hacen ELC. 4
Proposición 7.6.21. Sea H un EH. En la bola BL(H) (o en cualquier acotado de L(H) ) las
topologı́as WOT y w∗ de L(H) coinciden. Por lo tanto BL(H) es WOT compacta.
Proof. Por la Prop. 7.6.14 sabemos que para cualquier T ∈ L(H) valen las igualdades

hT x , yi = tr T x y = tr T (x y) para todo par x , y ∈ H .

Como todos los x y ∈ LF (H) ⊆ L1 (H) tenemos que la convergencia w∗ implica la WOT
en todo L(H), y por lo tanto también en BL(H) .
W.O.T.
Pero la misma igualdad asegura que si Ti −−−→ T , entonces tr Ti F −−→ tr T F para todo
i∈I i∈ I
operador F ∈ LF (H). Al fin y al cabo, en 4.6.6 se vió que tales F son suma de finitos
tensorcitos xk yk . Por otro lado LF (H) es k · k1 denso en L1 (H).
W.O.T.
Asumamos ahora que los Ti −−−→ T y que todos viven en BL(H) . Fijado un A ∈ L1 (H) y
i∈I
un ε > 0, tomemos un F ∈ LF (H) tal que kA − F k1 < ε. Luego

| tr (T − Ti ) A| ≤ | tr (T − Ti ) (A − F )| + | tr (T − Ti ) F |

(7.48)
≤ kT − Ti k kA − F k1 + | tr (T − Ti ) F |

≤ 2 ε + | tr (T − Ti ) F | < 3 ε si i ≥ cierto i0 (para F ) .

Entonces tr Ti A −−→ tr T A para todo operador A ∈ L1 (H). Ası́ que también vale que la
i∈ I
convergencia WOT implica la w∗ si nos quedamos en BL(H) , por lo que ambas topologı́as
coinciden allı́. La compacidad de BL(H) con la w∗ = WOT es Alaoglu. Listo. 
Ejercicio 7.6.22. Sea H un EH separable. Probar que

236
1. Si {xn : n ∈ N} es un denso en BH , entonces la fórmula
X 1
kT kW = h T xn , xm i para cada T ∈ L(H) ,
n,m∈N
2 n+m

cumple las siguientes propiedades:

(a) La serie converge. Más aún, kT kW ≤ kT k para todo T ∈ L(H).


(b) La flecha T 7→ kT kW es una norma en L(H).
k · kW
(c) Una red acotada Ti −−−→ T ∈ L(H) ⇐⇒ h Ti xn , xm i −−→ h T xn , xm i para
i∈I i∈ I
todo par de elementos xn , xm del denso.
(d) Esta norma produce, en la bola BL(H) , exactamente la topologı́a WOT.

2. Deducir toda sucesión acotada en L(H) tiene una subsucesión WOT-convergente.

Ojo con lo siguiente: Si suponemos que dim H = ∞ (sea o no separable), vale que

3. La norma k · kW no produce la WOT en todo L(H).

4. La w∗ (relativa al “predual” L1 (H) ) y la WOT no coinciden en todo L(H). 4

237
7.7 Ejercicios del Cap. 7 - Operadores compactos
Ejercicios aparecidos en el texto
7.7.1. Probar los detalles del Cor. 7.1.3: Sea H un EH. El conjunto K(H) de operadores compactos cumple:

1. Contiene a LF (H) i.e., todo rango finito es compacto.

2. Es un subespacio de L(H), o sea que suma de compactos es compacto.

3. Más aún, es un ideal bilátero. Esto agrega que si T ∈ K(H), entonces

A T B ∈ K(H) para todo par A , B ∈ L(H) .

4. Es cerrado, por lo que un lı́mite de compactos queda compacto.

5. Es cerrado por adjunción: T ∈ K(H) =⇒ T ∗ ∈ K(H).

6. Además vale que T ∈ K(H) ⇐⇒ |T | ∈ K(H) ⇐⇒ Re T e Im T ∈ K(H).

7. En cambio si hay un subespacio N ⊆ H y un ε > 0 tales que

dim N = ∞ y T ∈ L(H) cumple kT xk ≥ ε kxk para todo x∈N

(eso se abrevia “T es AI en N por ε”), entonces T ∈


/ K(H). 4

7.7.2. Sea H es un EH con dim H = ℵ0 . Fijemos B = {xn : n ∈ N} una BON de H.

1. Probar que, dado a = (an )n∈ N ∈ `∞ (N), existe un único operador

Ma , B ∈ L(H) tal que M a , B xn = a n xn para todo n∈N. (7.56)


P
Mostrar que él cumple que Ma , B x = n∈N an hx , xn i xn , para cada x ∈ H.

2. Probar que el tal Ma verifica las siguientes propiedades:

(a) Su norma es kMa , B k = kak∞ .


(b) Su adjunto es Ma∗ = Ma , por lo que Ma ∈ A(H) ⇐⇒ a ∈ RN .
(c) Además Ma ∈ L(H)+ ⇐⇒ a ∈ RN
+.
(d) El Ma ∈ Gl (H) ⇐⇒ ı́nf |an | > 0. Deducir de ello que su espectro σ(Ma ) es la clausura en C
n∈N
del conjunto {an : n ∈ N}.
(e) Caso compacto: Nuestro Ma , B ∈ K(H) ⇐⇒ a ∈ c0 .
(f) Además Ma , B ∈ L1 (H) ⇐⇒ a ∈ `1 (N) y Ma , B ∈ L2 (H) ⇐⇒ a ∈ `2 (N) .

3. Los operadores que admiten una representación de este tipo se llaman B-diagonalizables.
Probar que un T ∈ L(H) es B-diagonalizble ⇐⇒ su “matriz” en B es diagonal (se recupera el a ∈ `∞
de la diagonal) ⇐⇒ T conmuta con cada proyector Pxn = xn xn y cada T xn = an xn . 4

7.7.3. Sea H un EH con una BON B = {xn : n ∈ N}. Sea

DB = {M ∈ L(H) : M = Ma , B (el de (7.56) ) para algún a ∈ `∞ } .

1. Mostrar que DB ∩ K(H) = {Ma , B : a ∈ c0 } (propuesto en el Ejem. 7.7.2).

238
2. Probar que existe un EB ∈ L(L(H) ) que comprime a los B-diagonales:

(a) Es un proyector tal que EB2 = EB y kEB k = 1.


(b) Su rango es R(EB ) = DB , por lo que EB (M ) = M para todo M ∈ DB .
(c) Más aún, se tiene que DB (I) = I y si M ∈ DB y T ∈ L(H), entonces

EB (M T ) = M EB (T ) y EB (T M ) = EB (T ) M .

(d) Si T ∈ K(H) entonces EB (T ) ∈ K(H) i.e., la diagonal de un compacto está en c0 .

3. Probar que aunque K(H) v L(H), el subespacio K(H) no es COM en L(H).

Sug: Dado T ∈ L(H), definir dT = hT xn , xn i n∈N ∈ `∞ y poner EB (T ) = MdT , B . Por otro lado, si


hubiera un proyector acotado Q de L(H) sobre K(H), entonces EB ◦ Q D proyectarı́a al espacio DB ∼



B
= `∞
sobre DB ∩ K(H) ∼= c0 . Luego mirar el Ejem. 2.7.8. 4
def
7.7.4. Dado T ∈ K(H), probar que s1 (T ) = µ1 ( |T | ) = k |T | k = kT k. 4

Repaso del Teo. 7.4.8: Sea T ∈ K(H) \ LF (H). Luego existen dos SON’s :
B1 = {xk : k ∈ N}, que es BON de (ker T )⊥ y B2 = {zk : k ∈ N}, que es BON de R(T ) ,
tales que el operador T se representa como la serie (que converge en norma) :
X X
T = sk (T ) zk xk =⇒ T y = sk (T ) hy , xk i zk para todo y∈H. (7.57)
k∈N k∈N

De hecho B1 es una BON de autovectores para |T | y B2 lo es para |T ∗ |, donde ninguna de las dos contiene
generadores de los núcleos. Además vale que s(T ∗ ) = s(T ).
7.7.5. Probar que si T ∈ LF (H), entonces tiene una representación del tipo (7.57) pero con sumas finitas.
De paso mostrar que, si ahora T ∈ K(H) \ LF (H), truncando en (7.57) obtenemos una sucesión posta en
LF (H) que le converge a T . Posta significa que minimiza la distancia de T a los operadores del rango de
cada truncado. 4
7.7.6. Sea T ∈ K(H). Probar que ese T es diagonalizable (c.f. Ejer. 7.7.2) con respecto a alguna BON de
H si y sólo si T es normal. En tal caso vale que sk (T ) = |µk (T )| para todo k ∈ N (o hasta donde sea que
lleguen si T era rango finito), siempre que uno enumere los µk (T ) para que tengan módulos decrecientes (se
puede porque van hacia cero). 4
def −1

7.7.7. Sea T ∈ F (H) = PK(H) GCal (H) . Vı́a el Teo. 7.2.3 podemos definir su ı́ndice por

def
Ind T = α(T ) − β(T ) = dim ker T − dim ker T ∗ ∈ Z ,

Deducir del Teo. 7.2.3 las siguientes propiedades:

1. El grupo Gl (H) ⊆ F (H), y si G ∈ Gl (H) entonces Ind G = 0 − 0 = 0.


A partir de ahora asumamos que T ∈ F (H).

2. Llamemos PT = Pker T y QT = PT ∗ = Pker T ∗ . Luego Ind T = rk PT − rk QT .

3. Si M ∈ F (H), entonces M T y T M ∈ F (H).

4. Pero si G ∈ Gl (H) =⇒ Ind GT = Ind T G = Ind T (porque vale para sus α y β).

5. T ∗ ∈ F (H) y tiene su Ind T ∗ = −Ind T . Sale porque α(T ∗ ) = β(T ).

239
6. También T † ∈ F (H) y cumple que Ind T † = −Ind T .

7. Definamos Fn (H) = {S ∈ F (H) : Ind S = n} para cada n ∈ Z. Si H = `2 (N) y recordamos al shift


S ∈ L(H) unilateral hacia la derecha, luego

S ∈ F (H) , Ind S n = −n mientras que Ind (S ∗ )n = n para todo n∈N.

Por lo tanto Fn (H) 6= ∅ para todo n ∈ Z. Al menos cuando dim H = |N|. 4

7.7.8 (Alternativa de Fredholm). Si nos planteamos la ecuación T x = λ x + b


con la incógnita x y los datos b ∈ H , T ∈ K(H) y λ ∈ C \ {0} ,
probar que se tienen las dos posibilidades conocidas:

• O bien T − λ I ∈ Gl (H) por lo que hay solución única

x = (T − λ I)−1 b para todo b ∈ L(H) .

• O bien λ ∈ σ(T ) \ {0}, en cuyo caso tenemos la igualdad dim ker(λ I − T ) = dim R(λ I − T )⊥ < ∞,
que es parecido a los sistemas de ecaciones del álgebra lineal: La dimensión del espacio de soluciones
es finita, e igual a la del ortogonal del espacio de los b ∈ H para los que hay solución. 4

La mayor parte de los enunciados que siguen ya aparecieran en el viejo Ejer. 4.7.1. Lo nuevo va con ∗.
7.7.9. Sean H y K dos EH’s. Dados M ∈ L(H) y N ∈ L(K), sea

M ⊕ S ∈ L(H ⊕ K) dado por M ⊕ N (x , y) = (M x , N y) ∈ H ⊕ K

para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas:

1. Primero hay que verificar que efectivamente M ⊕ N ∈ L(H ⊕ K).

2. Más aún, se tiene que kM ⊕ N k = max{ kM k , kN k }.

3. * Si fijamos el N ∈ L(K), la flecha L(H) 3 M 7→ M ⊕ N es un hómeo entre

def
L(H) y L(H) ⊕ N = {M ⊕ N : M ∈ L(H)} ,

si a este le consideramos la topologı́a inducida de la de L(H ⊕ K). Más aún, las métricas coinciden.

4. * Por otra parte σ(M ⊕ N ) = σ(M ) ∪ σ(N ).

5. Entre estos operadores, las operaciones sumar, multiplicar, adjuntar e invertir (si se puede), se hacen
en cada coordenada.

6. R(M ⊕ B) = R(M ) ⊕ R(N ) ⊆ H ⊕ K, y es cerrado ⇐⇒ ambos rangos lo son.

7. ker(M ⊕ N ) = ker M ⊕ ker N v H ⊕ K.

8. Un operador cualquiera T ∈ L(H ⊕ K) es de estos diagonales ⇐⇒ conmuta con las proyecciones a


H y K. * En otras palabras, si H ⊕ {0} reduce a T .

9. * Nuestros M y N son compactos ⇐⇒ M ⊕ N ∈ K(H ⊕ K). Idem para rango finito.

240
10. * Además M y N son Fredholms ⇐⇒ M ⊕ N ∈ F (H ⊕ K). En tal caso vale que

α(M ⊕ N ) = α(M ) + α(N ) y β(M ⊕ N ) = β(M ) + β(N ) .

Finalmente, llegamos a que Ind (M ⊕ N ) = Ind (M ) + Ind (N ). 4

7.7.10. Probar que la función tr : L(H)+ → R+ ∪ {+∞} cumple algunas propiedades: Si A ∈ L(H)+
P
1. La tr A = i∈I hA ei , ei i, para cualquier BON {ei : i ∈ I} de H.

2. Si y ∈ H es unitario, entonces hA y , yi ≤ tr A. Deducir que kAk ≤ tr A.

3. La traza es monótona: A ≤ B =⇒ tr A ≤ tr B.

4. Si A es compacto (además de positivo), entonces su traza se puede calcular ası́:


X X
A= µk (A) xk xk =⇒ tr A = µk (A) , (7.58)
k∈N k∈N

donde los µk (A) son su sucesión decreciente de autovectores, como en la Ec. (7.21). 4

7.7.11. Mostrar la siguiente concretización de la Ec. (7.42):

sn (T ) = ks(T )k1 . Eso da que T ∈ L1 (H) ⇐⇒ s(T ) ∈ `1 .


P
1. Dado T ∈ K(H) se cumple que tr |T | =
n∈N

2. En cambio si T ∈ L2 (H), entonces kT k22 = tr T ∗ T = sn (T )2 = ks(T )k22 .


P
n∈N

7.7.12. Recordemos la Ec. (7.43): LF (H) ⊆ L1 (H) ⊆ L2 (H) ⊆ K(H). Probar que cada uno de ellos en
denso en los más grandes con sus normas. En otras palabras, probar que LF (H) es denso en los tres con las
normas que les corresponden (1, 2 e ∞). Se sugiere actualizar el Ejer. 7.7.5. 4
7.7.13. Sea H un EH separable. Probar que

1. Si {xn : n ∈ N} es un denso en BH , entonces la fórmula


X 1
kT kW = h T xn , xm i para cada T ∈ L(H) ,
2 n+m
n,m∈N

cumple las siguientes propiedades:

(a) La serie converge. Más aún, kT kW ≤ kT k para todo T ∈ L(H).


(b) La flecha T 7→ kT kW es una norma en L(H).
k · kW
(c) Una red acotada Ti −−−−→ T ∈ L(H) ⇐⇒ h Ti xn , xm i −−→ h T xn , xm i para todo par de
i∈I i∈ I
elementos xn , xm del denso.
(d) Esta norma produce, en la bola BL(H) , exactamente la topologı́a WOT.

2. Deducir toda sucesión acotada en L(H) tiene una subsucesión WOT-convergente.

Ojo con lo siguiente: Si suponemos que dim H = ∞ (sea o no separable), vale que

3. La norma k · kW no produce la WOT en todo L(H).

4. La w∗ (relativa al “predual” L1 (H) ) y la WOT no coinciden en todo L(H). 4

241
Ejercicios nuevos
7.7.14. Sea LF (H) el espacio de todos los operadores de rango finito definidos sobre el espacio de Hilbert
H. Demostrar que LF (H) es minimal en el sentido que no posee un ideal propio.
Sug: Demostrar primero que LF (H) interseca todo ideal no nulo de L(H). 4
7.7.15. Probar que todo operador T : H → H continuo desde (H , w) hacia (H , k · k ) pertenece a LF (H).
Recordar que los compactos lo son sólo desde la bola BH , que ahora vemos que es mucho menos pedir. 4

7.7.16. Sea k ∈ L2 [0, 1] × [0, 1] y sea Tk : L2 [0, 1] → L2 [0, 1] el operador definido por:
Z 1
Tk f (x) = k(x, y) f (y) dy para cada f ∈ L2 [0, 1] .
0

1. Probar que Tk ∈ L(L2 [0, 1] ). Más aún, demostrar que kKk ≤ kkk2 .
2. Probar que es compacto.
3. Encontrar condiciones sobre k de modo que K resulte autoadjunto. 4

El siguiente ejercicio es un ejemplo de un método más general utilizada para resolver ciertas ecuaciones
diferenciales ordinarias. Dicho método se lo conoce con el nombre de Strum-Liouville.
7.7.17. Consideremos la siguiente ecuación diferencial con condiciones de contorno:
u00 (x) = f (x)
u(0) = u(1) = 0,
donde f (x) es una función continua.
1. Encontrar dos soluciones de la ecuación homogenea u00 (x) = 0, u0 y u1 , tales que u0 (0) = u1 (1) = 1
y calcular el Wronskiano.
(Recordar que el Wronskiano W (x) = u00 (x)u1 (x) − u0 (x)u01 (x)).
2. Definir la función k(x, y) : [0, 1] × [0, 1] → R
3. ??? 4
Definición 7.7.18 (Weil). Sea A ∈ A(H). Diremos que λ ∈ σe (A), el espectro escencial de A, si existe un
SON {ψn : n ∈ N} ⊆ H talque k (A − λ IH )ψn k −−−−→ 0. 4
n→∞

7.7.19. Porbar las siguientes propiedades del espectro escencial:


1. Dados A , B ∈ A(H) tales que A − B es compacto, se tiene que σe (A) = σe (B).
2. Más aún, probar que σe (A) es el espectro del bajado de A al álgebra de Calkin Cal (H) = L(H)/K(H) .
3. Deducir de la definición y de la caracterización anterior que σ(A) ⊆ σe (A).
4. Dar una caracterización espacial tipo 7.7.18 del σe (T ) para los T ∈ L(H) no autoadjuntos. 4
7.7.20. Sea T ∈ K(H) un operador compacto normal. Probar que
1. Si x ∈ H es un autovector de T correspondiente al autovalor λ, entonces x es también un autovector
de T ∗ correspondiente al autovalor λ.
2. Los autovectores de T correspondientes a autovales distintos son ortogonales.
7.7.21. Sea T ∈ K(H) un operador compacto normal. Probar que
1. La apliciación x → hT x, xi, de BH a los complejos, es débilmente continua.
2. Existe un x ∈ BH tal que | hT x , xi | = kT k.
3. El x de 2 es un autovector de T correspondiente a un autovalor λ que satisface |λ| = kT k.

242
Bibliografı́a

Libros más recomendados:


[1] Pedersen - Analysis Now (GTM 118).

[2] Conway J. - A course in functional analysis (GTM 96, Springer, 1985)

[3] Douglas R. - Banach Algebra Techniques In Operator Theory, 2nd Ed. Ac. Press

[4] Andruchow E. y Corach G. - Notas de análisis funcional (Apunte en pdf).

[5] Reed y Simon - Methods of Math Physics Vol 1 (FA) - Ac. Press 1980.

[6] Nagy G., Real analysis, (Kansas State lecture notes, 2001).

[7] Rudin W. - Functional analysis

[8] Yosida, K. - Functional analysis (6ed., GMW 123, Springer, 1980)

Referncias Adicionales
[9] Kelley - General Topology (1955).

[10] Munkres J. Topology (2ed., PH, 2000).

[11] Rudin W., Fourier analysis on groups (Interscience, 1962).

[12] Rudin W. - Real and Complex Analysis. Tata-McGraw-Hill, 1974.

[13] Simmons G. Introduction to topology and modern analysis (ISPAM, MGH,


1963).

243
Parte II

Teorı́a Matricial de Operadores

244
Capı́tulo 8

Ángulos entre subespacios.

8.1 Preliminares y Notaciones


En lo que sigue trabajaremos en espacios de Hilbert de dimensión infinita. Por si algún
lector empieza por esta parte del texto, repasaremos a continuación algunas propiedades y
notaciones de la primera parte:

 Usaremos las letras H, K, H1 , H2 , etc, para denotar espacios de Hilbert (EH’s).

 Llamaremos L(H1 , H2 ) al espacio de operadores lineales acotados de H1 en H2 .

 Si H1 = H2 = H, escribiremos L(H) = L(H, H), que es una C-álgebra.

 Dado C ∈ L(H1 , H2 ), notaremos R(C) a su rango, y ker C o N (C) a su núcleo.

 Si A ∈ L(H1 , H2 ), su norma (de operadores) es


 
kAk = sup kAξk : ξ ∈ H1 , kξk = 1 = min C ≥ 0 : kAξk ≤ Ckξk , ξ ∈ H1 .

Con esta norma, L(H1 , H2 ) es un espacio de Banach (y L(H) un álgebra de Banach).

 Gl (H) denota al grupo (abierto) de operadores inversibles de L(H).

 Si A ∈ L(H), su espectro es

σ(A) = λ ∈ C : λI − A ∈
/ Gl (H) ,

que es compacto y no vacı́o.

 Si A ∈ L(H), su radio espectral y radio numérico son

ρ(A) = max |λ| : λ ∈ σ(A) = lim kAn k1/n y



w(A) = sup | hAξ, ξi | .
n→∞ kξk=1

Se tiene que ρ(A) ≤ w(A) ≤ kAk y las recı́procas no valen en general.

245
 Si A ∈ L(H1 , H2 ), su adjunto A∗ ∈ L(H2 , H1 ) es el único operador que cumple que

hAξ, ηiH2 = hξ, A∗ ηiH1 para todo ξ ∈ H1 , η ∈ H2 .

 A(H) = A ∈ L(H) : A∗ = A es el subespacio real de operadores autoadjuntos.




 U(H) = U ∈ Gl (H) : U −1 = U ∗ , el grupo unitario de H.





 L(H)+ = A ∈ L(H) : hAξ, ξi ≥ 0 para todo ξ ∈ H ⊆ A(H), el cono de los
operadores semidefinidos positivos.

 Notaremos Gl(H)+ = Gl (H) ∩ L(H)+ , los operadores positivos inversibles.

 Usaremos la notación S v H para denotar que S es un subespacio cerrado de H.

 Dado X ⊆ H, notaremos span {X} al subespacio generado por X.

 span {X} v H denotará a la clausura (en norma) de span {X}.

 Dados S, T v H, se escribe S + T = span {S ∪ T }. Noteremos S + T = S ⊕ T si la


suma es cerrada y S ∩ T = {0}. Si además S ⊆ T ⊥ , escribiremos S ⊕ T = S ⊥ T .

 En cambio, dada una familia {Si }i∈I de subespacios cerrados de H, llamaremos


( )
_ [
Si = span Si .
i∈I i∈I

Por otra parte, se usarán sin mayores explicaciones algunas propiedades usuales de los op-
eradores en un espacio de Hilbert H, como por ejemplo:

• Todas las propiedades de los operadores compactos (Cap. 7).

• Los teoremas de la imagen abierta, del gráfico cerrado, y de acotación uniforme.

• Existencia de raices cuadradas de operadores en L(H)+ .

• La descomposición polar (DP) A = U |A| para cualquier A ∈ L(H), donde |A| =


(A∗ A)1/2 y U : ker A⊥ → R(A) es una isometrı́a parcial. También la DP a derecha:
A = |A∗ |U , con el mismo U de antes.

• Si A ∈ L(H), entonces R(A∗ )⊥ = ker A y ker A∗ A = ker A.

• Si A ∈ L(H)+ , entonces R(A) ⊆ R(A1/2 ) ⊆ R(A).

• Las propiedades de proyectores oblı́cuos P(H) y ortogonales P(H). Por elemplo que,
si Q ∈ P(H) se tiene que Q ∈ L(H) y Q2 = Q,

1. R(Q) v H y además R(Q) ⊕ ker Q = H.

246
2. Q ∈ P(H) ⇐⇒ Q ∈ A(H) ⇐⇒ Q ≥ 0 ⇐⇒ kQk = 1 ⇐⇒ R(Q) = N (Q)⊥ .
3. Si S v H existe un único proyector ortogonal PS ∈ P(H) tal que R(PS ) = S.
4. Si S, T v H cumplen S ⊕ T = H (suma no necesariamente ortogonal), entonces
el proyector PS/T dado por PS/T (s + t) = s (si s ∈ S y t ∈ T ) es acotado.
• Propiedades básicas de la convergencia f uerte de operadores (SOT):
S.O.T. k·k
An −−−→ A si An x −−−→ Ax para todo x ∈ H .
n→∞ n→∞

En particular, que si la sucesión (An ) está en A(H) , es decreciente (resp. creciente) y


S.O.T.
acotada, entonces existe A ∈ A(H) tal que An −−−→ A. En este caso, al lı́mite se lo
n→∞
llama A = inf n An (resp. A = supn An ).
• Propiedades básicas de la convergencia débil de operadores (WOT):
W.O.T.
An −−−→ A si hAn x, yi −−−→ hAx, yi para todo par x, y ∈ H .
n→∞ n→∞

En particular, que las topologı́as WOT y w∗ (de L(H) pensado como el dual de L1 (H),
los operadores traza) coinciden en la bola cerrada BL(H) . Luego, por el Teorema de
Alaoglu, sabemos que L(H)1 es WOT compacta.
• También se usará que, si H es separable, entonces la topologı́a WOT de L(H) es
metrizable, por lo que será suficiente operar con sucesiones (en lugar de redes).
No se usará (salvo ocacionalmente, y con aclaraciones) el cálculo funcional boreliano y el
teorema espectral para operadores normales o autoajduntos. Sı́ usaremos el cálculo funcional
continuo (CFC) para esos operadores, pensado como lı́mite de polinomios en z y z (o en la
variable real x, en el caso autoadjunto) evaluados en el operador. Esto se usará, en particular,
para definir A1/2 o más generalmente At , si A ∈ L(H)+ y 0 < t ∈ R.

8.2 Ángulos
Es natural definir el ángulo entre dos subespacios N y M v H como el mı́nimo de los ángulos
entre pares de rectas, una en N y la otra en M. Sin embargo este método tiene problemas si
N ∩M = 6 {0}, porque no estarı́a bien que en ese caso el ángulo sea nulo. Para ello conviene
sacar a cada subespacio la intersección, y quedarse con sus complementos ortogonales

M N = M ∩ (M ∩ N )⊥ y N M = N ∩ (M ∩ N )⊥ .

Sugerimos dibujar dos planos en R3 y convencerse de que esta técnica (que deja tan solo
un par de rectas para elegir) da lo que uno intuitivamente definirı́a como ángulo entre esos
planos.
Las siguientes definiciones están bastante estandarizadas, aunque hay numerosas variaciones
menores en la literatura, y una infinidad de notaciones diferentes. Las propiedades de estos

247
ángulos son muy útiles en dimensión finita (entre otras razones por su relación con normas,
máximos y mı́nimos de matrices), pero es aún más relevante en el caso infinitodimensional,
donde puede pasar que N ∩ M = {0} pero el ángulo entre ellos sea nulo. Veremos que eso
significará que N + M 6v H.
Definición 8.2.1 (Friedrichs). Sean M, N v H.
1. Llamaremos M1 = {ξ ∈ M : kξk = 1}, la cáscara de BM .
 π
2. El ángulo entre M y N es el número θ ∈ 0, cuyo coseno está dado por
2
n o
c [ M , N ] = sup | hx, yi | : x ∈ (M N )1 , y ∈ (N M)1 .

Si M ⊆ N o N ⊆ M, ponemos c [ M , N ] = 0, como si fueran ortogonales.


3. El seno del ángulo entre N y M es s [ M , N ] = (1 − c [ M , N ])1/2 . 4
Observación 8.2.2. Es importante aclarar que, si bien es cierto que el ángulo entre M y
N es cero si y sólo si c [ M , N ] = 1, en este approach se está excluyendo de esa situación
el caso en que M = N , o más generalemte que uno esté contenido en el otro.
O sea que el decir que el ángulo es nulo sólo significará que se pueden ir encontrando pares
de vectores cada vez más alineados, uno en cada subespacio. Pero se excluye el tradicional
significado de tener ángulo cero (que es estar alineados exactamente).
Sin ir más lejos, veremos en seguida que basta que uno de los subespacios tenga dimensión
finita para que el ángulo NO PUEDA ser nulo. 4
Proposición 8.2.3. Sean M, N v H. Entonces
1. 0 ≤ c [ M , N ] ≤ 1.
2. c [ M , N ] = c [ N , M ].
3. c [ M , N ] = c [ M N , N ] = c [ M , N M ] = c [ M N , N M ].
4. c [ M , N ] = kPM PN − PM∩N k = kPM PN M k = kPM PN P(M∩N )⊥ k. En particular,

si M ∩ N = {0} , se tiene que c [ M , N ] = kPM PN k . (8.1)


Demostración. Los dos primeros enunciados se deducen fácilmente de las definiciones. El
coseno c [ M N , N ] se calcula con vectores
x ∈ (M N ) N = M N e y ∈ N (M N ) = N .
Observar que, si y = y1 + y2 ∈ N con y1 ∈ N M e y2 ∈ M ∩ N , entonces hx, yi = hx, y1 i.
Mirado con atención, esto prueba 3. Para probar 4, asumamos en principio que M∩N = {0}.
Observar que kPM PN k se realiza con vectores x ∈ N1 . Para un tal x, si PM x 6= 0, entonces
 
PM x
kPM PN xk = kPM xk = ,x ≤ c[M, N ] .
kPM xk

248
Esto prueba la desigualdad c [ M , N ] ≥ kPM PN k. Ahora bien, dados y ∈ M1 y x ∈ N1 ,
se tiene (por Cauchy-Schwarz) que

|hy, xi| = |hy, PM xi| ≤ kyk hPM x, PM xi1/2 = kPM PN xk ≤ kPM PN k ,

lo que prueba la desigualdad recı́proca. Veamos ahora el caso en que M ∩ N 6= {0}. Usando
3 y el caso anterior, sabemos que c [ M , N ] = c [ M , N M ] = kPM PN M k. Las otras
dos identidades se deducen de que PN M = PN − PN ∩M = PN (I − PN ∩M ). 
Observación 8.2.4. La igualdad c [ M , N ] = c [ M N , N ] tiene su lado bueno y su
lado malo. Lo bueno, como decı́amos antes, es que permite calcular ángulos entre pares
arbitrarios de subespacios cerrados, y siempre reducirse al caso en que éstos no se cortan.
Lo malo es que en general, cuando los subespacios son muy especı́ficos (núcleos, sumas, etc),
se hace dificultoso muchas veces calcular efectivamente M N (que es donde hay que hacer
los productos escalares, o calcular distancias como veremos enseguida).
Y además pasan cosas raras, poco intuibles. Un ejemplo de cosa rara es que es falso que
M ⊆ S =⇒ c [ M , N ] ≤ c [ S , N ], como uso supondrı́a si calcula los productos internos
sin tener cuidado. Sin ir más lejos, si S = N + M, entonces c [ S , N ] se hace cero, mientras
que c [ M , N ] era cualquier cosa. En general, al agrandar M puede surgir sorpresivamente
más intersección con N , lo que al ser restado puede generar problemas.
El uso de ángulos y sus propiedades, una vez sistematizadas, simplifica drásticamente muchas
demostraciones en diversos campos de la Teorı́a de operadores. Y al simplificar, permite
también conseguir resultados nuevos. Pero hay que ser cuidadoso, porque la intuición errada
que mencionamos más arriba suele generar excesos de opitimismo en las cuentas.
Un hecho sorprendente es que el subespacio M N que hay que usar para calcular c [ M , N ],
muchas veces coincide “mágicamente” con subespacios que tienen pleno sentido conceptual
en las aplicaciones, y esto hace que las complicaciones que uno teme desaparezcan, o más
bien hasta ayuden. Esto se irá viendo paulatinamente el las diversas aplicaciones que iremos
haciendo de esta teorı́a en los suscesivos capı́tulos de estas notas. 4

Ahora daremos caracterizaciones del s [ M , N ] en términos de distancias: Recordemos que


dados X, Y ⊆ H, su distancia se calcula como
n o
d (X, Y ) = inf kx − yk : x ∈ X e y ∈ Y .

Proposición 8.2.5. Sean M, N v H. Entonces

s [ M , N ] = d (M1 , N M) = d (N1 , M N ) = d ( (N M)1 , M) .

Si M ∩ N = {0}, tenemos que s [ M , N ] = d (M1 , N ) = d (N1 , M) y basta.

249
Demostración. Por la Prop. 8.2.3, podemos asumir que M ∩ N = {0}. Por la definición
del seno y la Prop. 8.2.3, se tiene que s [ M , N ]2 = 1 − kPM PN k2 . Por otro lado, como
d (x , N ) = kPN ⊥ xk (mostrarlo con un dibujo), para todo x ∈ H tenemos que
d (M1 , N )2 = inf{kPN ⊥ xk2 : x ∈ M1 } = inf{1 − kPN xk2 : x ∈ M1 }

= 1 − sup{kPN xk2 : x ∈ M1 } = 1 − kPN PM k2 = 1 − kPM PN k2 ,


lo que pruba la igualdad anunciada. 
Observación 8.2.6. Sean M, N v H. Supongamos que dim N < ∞. Entonces N1 es
compacta, y por lo tanto 0 < d (N1 , M N ) = s [ M , N ], o sea que c [ M , N ] < 1. El
Corolario de abajo dará una prueba alternativa del conocido resultado de que, en este caso,
M + N v H. Sin embargo, si ambos subespacios tienen dimensión infinita, bien puede pasar
que M y N tengan “ángulo nulo” aunque M ∩ N = {0} (ver el Ejem. 8.4.8).
Corolario 8.2.7. Dados M, N v H, las siguientes condiciones son equivalentes:
i. M + N v H.
ii. c [ M , N ] < 1.
iii. Existe c0 > 0 tal que, si x ∈ M e y ∈ N M, entonces kx + yk ≥ c0 kxk.
De hecho, la mejor constante para iii es c0 = s [ M , N ].
Demostración. Podemos suponer que M ∩ N = {0}, ya que M + N = M + (N M) y
c [ M , N ] = c [ M , N M ]. Observar que, por la Prop. 8.2.5,
def 
c0 = max c ≥ 0 : kx + yk ≥ ckxk para todo par x ∈ M, y ∈ N

= ı́nf kx + yk : x ∈ M1 , y ∈ N = d (M1 , N ) = s [ M , N ] .
Si c0 > 0, y nos dan un sucesión M + N 3 xn + yn −−−→ z ∈ M + N , tenemos que
n→∞

kxn − xm k ≤ c0−1 kxn + yn − xm − ym k −−−−→ 0 ,


n,m→∞

es decir que la sucesión (xn ) es de Cauchy. Como M v H, existe x ∈ M tal que xn −−−→ x.
n→∞
Por ello yn −−−→ z − x ∈ N . Entonces z ∈ M + N .
n→∞
Reciprocamente, si M ⊕ N v H, la poryección PM/N de M ⊕ N sobre M dada por
PM/N (x + y) = x , para x∈M e y∈N
es acotada (esto es el Cor. 2.7.2, que necesita que el dominio M ⊕ N v H para que sea
Banach). Por ende, podemos tomar c0 = kPM/N k−1 > 0. 
Corolario 8.2.8 (Ljance-Ptak). Sean M, N v H, tales que M ⊕ N = H. Tomemos la
proyección oblicua PM/N ∈ L(H) sobre M con ker PM/N = N . Luego
 −1/2  −1/2
kPM/N k = 1 − kPM PN k2 = 1 − c[M, N ] = s [ M , N ]−1 . (8.2)
Demostración. La fórmula (8.2) se deduce de la prueba anterior. Comparar con el Ejer. 2.7.3
en espacios de Banach. 

250
8.3 Seudoinversas
Definición 8.3.1. Dados A ∈ L(H1 , H2 ) y B ∈ L(H2 , H1 ), decimos que B es seudoinversa
de A si
ABA = A y BAB = B .
Llamaremos SI(A) = {B ∈ L(H2 , H1 ) : B es seudonversa de A}. 4
Teorema 8.3.2. Sea A ∈ L(H1 , H2 ).
1. Si B ∈ SI(A), entonces
(a) AB es un proyector (oblicuo) con R(AB) = R(A).
(b) BA es un proyector (oblicuo) con ker(BA) = ker A.
2. Se tiene que R(A) v H2 si y sólo si SI(A) 6= ∅.
3. En tal caso, para cada par de proyectores P ∈ P(H2 ), Q ∈ P(H1 ) tales que

R(P ) = R(A) y ker Q = ker A ,

existe un único B ∈ SI(A) tal que AB = P y BA = Q.


Demostración.
1. Sea B ∈ SI(A). Entonces

(BA)2 = BABA = BA y (AB)2 = ABAB = AB.

Es claro que R(AB) ⊆ R(A). Pero también R(A) = R(ABA) ⊆ R(AB). Por otra
parte, ker A ⊆ ker BA ⊆ ker ABA = ker A.
2. Si B ∈ SI(A), entonces R(A) = R(AB) v H2 , porque es la imagen de un proyector
(eso se vió en aquella Obs. 2.7.1). La recı́proca se deducirá del item 3, aplicado a los
proyectores P = PR(A) y Q = I − Pker A .
3. Si R(A) v H2 , y nos dan dos proyectores oblicuos P ∈ P(H2 ) y Q ∈ P(H1 ) tales que
R(P ) = R(A) y ker Q = ker A, llamemos S = ker P y T = R(Q) v H1 .

Nos queda la descomposición H1 = ker A ⊕ T , y por ende A T ∈ L(T , R(A) ) es
inversible. Llamemos B0 ∈ L(R(A) , T ) a su inversa, que es acotada por el TFI 2.3.4.
Definamos ahora el operador lineal

B : H2 = S ⊕ R(A) → ker A ⊕ T = H1 dado por B(x ⊕ y) = B0 y , (8.3)

para x ∈ S and y ∈ R(A). Observar que B ∈ L(H2 , H1 ). En efecto, tenemos que


kBk ≤ kB0 k kP k < ∞, ya que B(z) = B0 (P z) para todo z ∈ H2 .
Cálculos elementales muestran que este B ∈ SI(A), AB = P y BA = Q. Veamos
ahora la unicidad: Si C ∈ SI(A) también cumple que AC = P y CA = Q, entonces
podemos hacer C = C(AC) = CP = CAB = QB = BAB = B. 

251
Definición 8.3.3. Dado A ∈ L(H1 , H2 ) con rango cerrado, se llama A† ∈ L(H2 , H1 ) al
único elemento de SI(A) tal que A† A y AA† son proyectores autoadjuntos. A† es conocida
como la seudoinversa de Moore-Penrose de A. 4
Corolario 8.3.4. Dado T ∈ L(H1 , H2 ), se verifican:

1. R(T ) es cerrado si y sólo si R(T ∗ ) es cerrado.

2. SI(T ∗ ) = {B ∗ : B ∈ SI(T )}.

3. (T ∗ )† = (T † )∗ .

Demostración. La igualdad SI(T ∗ ) = {B ∗ : B ∈ SI(T )} se deduce directamente de la


definición de seudoinversa. Luego la primera parte es consequencia del Teorema 8.3.2. La
última, del hecho de que (T † )∗ verifica las condiciones de la definición de (T ∗ )† . 
La siguiente Proposición, cuya prueba es semi trivial, es interesante porque describe en qué
sentidos T † b es la mejor solución posible para la ecuación T x = b.
Proposición 8.3.5. Sea T ∈ L(H1 , H2 ) tal que R(T ) v H2 , y sea b ∈ H2 . Entonces el
vector x = T † b ∈ H1 cumple las siguientes condiciones:

1. Si b0 = T x, entonces kb − b0 k = d (b , R(T ) ), o sea que b0 = T x es lo más cerca de “b”


que se puede llegar a través de T .

2. El vector x es el más chico de los que van por T a b0 . O sea que



kxk = min kzk : z ∈ H1 y T z = b0 .

Demostración. Es otra manera de decir que T T † = PR(T ) y T † T = I − PN (T ) . 


Proposición 8.3.6. Sea T ∈ L(H1 , H2 ) tal que R(T ) v H2 . Entonces

kT † k = min{ kBk : B ∈ SI(T ) } .

Demostración. Sea B ∈ SI(T ). Dado y ∈ R(T ), sea x ∈ N (T )⊥ el único tal que T x = y.


Entonces x = T † T x = T † y. Pero también tenemos que y = T x = T BT x = T (By), y por lo
tanto By − x ∈ N (T ). Esto muestra, vı́a Pitágoras, que

kByk2 = kx + (By − x)k2 ≥ kxk2 = kT † yk2 .

Si me dan ahora un z ∈ H2 con kzk = 1, lo parto z = y + w con y ∈ R(T ) y w ∈ R(T )⊥ .


Entonces tengo que kyk ≤ 1 y que kT † yk ≤ kByk (por lo de arriba). Por lo tanto

kT † zk = kT † (T T † z)k = kT † yk ≤ kByk ≤ kBk kyk ≤ kBk .

Tomando supremo sobre tales z, me da que kT † k ≤ kBk. 

252
 
1 0
Observación 8.3.7. Sea Q = ∈ L(C2 ), que es un proyector oblicuo tal que
1 0  
⊥ † 1 0
N (Q) = R(Q ) = span {e1 }. Tomemos P = . Como P Q = P y QP = Q, se
0 0
tiene que P ∈ SI(Q), pero no es la seudoinversa de Moore-Penrose de T . Sin embargo,
1 = kP k es menor que la norma de cualquier otro proyector sobre span {e1 }. ¿Qué pasa?
Ejemplos 8.3.8.

1. Si A ∈ Gl(H), entonces SI(A) = {A−1 }. En particular, A† = A−1 .

2. Si A ∈ L(H1 , H2 ) es suryectivo, entonces SI(A) coincide con el conjunto de inversas


a derecha de A, porque si AB = I, entonces ABA = A y BAB = B. La recı́proca vale
por la Prop. 8.3.2. Es fácil ver además que A† = A∗ (AA∗ )−1 .

3. En cambio, si A es inyectivo y R(A) v H2 , se tiene que

SI(A) = {B ∈ L(H2 , H1 ) : BA = I} y A† = (A∗ A)−1 A∗ .

Esto se deduce de que A∗ es suryectivo.

4. Si U ∈ L(H) es una isometrı́a parcial (i.e., U es isométrico en (ker U )⊥ ), entonces se


tiene que U † = U ∗ .

5. Si A ∈ L(H) es normal
y R(A) v H, entonces A conmuta con A† . Más en detalle, si
llamamos A0 = A R(A) ∈ L(R(A) ), se tiene que A0 ∈ Gl (R(A) ) ,

A−1
   
A0 0 R(A) † 0 0 R(A)
A= y A = . (8.4)
0 0 ker A 0 0 ker A

6. Si A ∈ L(H) y S ∈ Gl(H), entonces

SI(SAS −1 ) = {SBS −1 : B ∈ SI(A)},

pero no es fácil averiguar quién es (SAS −1 )† (si es que existe).

7. Si A ∈ L(H) tiene R(A) v H, y V, W ∈ U(H), entonces (V AW )† = W ∗ A† V ∗ .

8. Si A ∈ Mn (C) es una matriz diagonal A = diag (x) para cierto x ∈ Cn , entonces


A† = diag x† , donde x† ∈ Cn esta dado por x†i = x−1 si xi 6= 0 o x†i = 0 si xi = 0.

i

9. Sea A ∈ Mn (C) con rk(A) = k. Si V, W ∈ U(n) verifican A = W ∗ Σ(A)V , entonces,

A† = V ∗ Σ(A)† W = V ∗ diag s1 (A)−1 , . . . , sk (A)−1 , 0, . . . , 0 W .




Esto se deduce de los dos items anteriores. 4

253
Dados A, B ∈ Gl (H), suele ser muy útil (sobre todo para hacer acotaciones) la identidad

A−1 − B −1 = A−1 (B − A)B −1 .

Con las seudoinversas de Moore Penrose no vale una fórmula tan linda, pero algo hay:
Proposición 8.3.9. Sean A, B ∈ A(H), ambos con rango cerrado. Entonces:

B † − A† = −B † (B − A)A† + (I − B † B)(B − A)(A† )2 + (B † )2 (B − A)(I − AA† ).

En particular, si R(B) ⊆ R(A),

B † − A† = −B † (B − A)A† + (I − B † B)(B − A)(A† )2 .

Demostración. Ejercicio. 

8.4 Módulo mı́nimo


Definición 8.4.1. Dado T ∈ L(H1 , H2 ), llamaremos módulo mı́nimo de T al número

γ(T ) = inf kT xk : x ∈ ker(T )⊥ , kxk = 1 .


def 
(8.5)

Cuando T = 0, usaremos la convención γ(T ) = ∞. 4


Proposición 8.4.2. Sea T ∈ L(H1 , H2 ).

1. Si T es inversible, se tiene que γ(T ) = kT −1 k−1 .

2. Si B ∈ L(H2 , H3 ) es inversible, entonces el γ(BT ) se acota por ambos lados:

kB −1 k−1 γ(T ) = γ(B)γ(T ) ≤ γ(BT ) ≤ kBkγ(T ) . (8.6)

Demostración. Si T es invertible, entonces N (T ) = {0} y, por definición,


 −1
γ(T ) = min{kT xk : kxk = 1} = max{ kyk : kT yk = 1}

 −1
−1
= max{ kT zk : kzk = 1} = kT −1 k−1 .

Por otro lado, si ahora B es el inversible, tenemos que N (BT ) = N (T ). Como N (B) = {0},
cualquiera sea el x ∈ N (T )⊥ = N (BT )⊥ (no importa donde caiga T x), tenemos que

γ(B)kT xk ≤ kBT xk ≤ kBk kT xk .

Tomando ı́nfimo en (N (T )⊥ )1 , obtenemos que γ(B)γ(T ) ≤ γ(BT ) ≤ kBkγ(T ). 


Proposición 8.4.3. Sea T ∈ L(H1 , H2 ). Entonces

254
1. Se tiene la equivalencia R(T ) v H2 ⇐⇒ γ(T ) > 0.

2. En tal caso, γ(T ) = γ(T ∗ ) = kT † k−1 .

Demostración. La primera parte es una cuenta usual de operadores, y se deja como ejercicio.
Pasa por ver que γ(T ) > 0 ⇐⇒ T |(ker T )⊥ es AI y recordar (2.25). Si ahora asumimos que
R(T ) v H2 y que T 6= 0, la construcción de (6.28) dice que

T † R(T ) : R(T ) → ker(T )⊥ es la inversa de T ker(T )⊥ : ker(T )⊥ → R(T ) .


Por lo tanto, la Prop. 8.4.2 nos asegura que


  −1
γ(T ) = γ T ker(T )⊥ = T † R(T ) .


Pero como ker T † = R(T )⊥ , tenemos que kT † R(T ) k = kT † k. Finalmente, el Cor. 8.3.4 dice
que (T ∗ )† = (T † )∗ , por lo que

γ(T ∗ ) = k(T ∗ )† k−1 = k(T † )∗ k−1 = kT † k−1 = γ(T ) ,

como querı́amos demostrar. 


Proposición 8.4.4. Sean A y B ∈ L(H)+ tales que 0 6= A ≤ B pero R(A) = R(B) v H.
Entonces γ(A) ≤ γ(B). Además se tiene que

R(A) v H =⇒ γ(A) = min λ ∈ σ(A) : λ 6= 0 . (8.7)

Demostración. El hecho de que S = R(A) = R(B) v H dice que S ⊥ = ker A = ker B y que
   
A0 0 S B0 0 S
A= , B= .
0 0 ker A 0 0 ker B

Además, se tiene que A0 ≤ B0 ambos en Gl(S)+ . Por el Cor. 6.6.3, podemos deducr que

0 < B0−1 ≤ A−1


0 =⇒ γ(A) = γ(A0 ) = kA−1
0 k
−1
≤ kB0−1 k−1 = γ(B0 ) = γ(B) .
(6.28) 
Pero σ(A0 ) = λ ∈ σ(A) : λ 6= 0 y kA−1 −1
 −1
0 k = ρ(A0 ) = máx λ : λ ∈ σ(A) \ {0} . Al
volver a invertir obtenemos la Ec. (8.7). 
Observación 8.4.5. Si no asumimos la hipótesis de que R(A) = R(B), en general es falso
que 0 ≤ A ≤ B =⇒ γ(A) ≤ γ(B). Sugerimos pensar un contraejemplo (deberı́a salir
rapidito, no vale A = 0). 4
Corolario 8.4.6. Sea T ∈ L(H1 , H2 ). Entonces

γ(T ) = γ( | T | ) = γ(T ∗ T )1/2 .

255
Demostración. Sea T = U | T | la DP de T . Recordemos que, como decı́a la Ec. (4.28),

kT xk = k | T | xk para todo x ∈ H1 =⇒ ker T = ker | T | .

Luego la igualdad γ(T ) = γ( | T | ) se deduce de las definiciones. Por otra parte, la Prop. 6.1.7
asegura que T ∗ T = | T |2 =⇒ σ(T ∗ T ) = σ( | T | )2 . Entonces, si R( | T | ) v H1 , podemos
deducir la igualdad γ(T ∗ T ) = γ( | T | )2 de la Ec. (8.7). En caso contrario ambos dan 0. 
Ejercicio 8.4.7.

1. Sea A ∈ A(H) que no es inversible. Usando (6.16) y la Prop. 6.5.8 probar que

R(A) v H ⇐⇒ el 0 ∈ σ(A) es punto aislado . (8.8)

2. Sea ahora T ∈ L(H) no inversible. Probar que



R(T ) v H ⇐⇒ 0 es aislado en σ( |T | . (8.9)

En realidad la Ec. (8.8) vale para todo T ∈ L(H) (sin pedir que T ∗ = T ). Pero la
prueba es difı́cil con las herramientas que tenemos acá. Probarlo para T normal. 4

Ejemplos 8.4.8. 1. Sea H = `2 (N) y T ∈ L(H) dado por


x2 xn
x ∈ `2 (N) .

T (x) = x1 , ,..., ,... , (8.10)
2 n
Es evidente que kT k = 1 y que ker T = {0}. Además, si {en }n∈N es la base canónica
de `2 (N), tenemos que
e 1
n
kT en k = = −−−→ 0 =⇒ γ(T ) = 0 .
n n n→∞
Por lo tanto R(T ) 6v `2 (N).

2. Tomemos los subespacios M = `2 (N) ⊕ {0} v `2 (N) ⊕ `2 (N) y

N = Gr(T ) = (x, T x) : x ∈ `2 (N) v `2 (N) ⊕ `2 (N) ,




donde T es el operador definido en (8.10). El hecho de que ker T = {0} dice que
M ∩ N = {0}. Por lo tanto,

s [ M , N ] = d (M1 , N ) = inf d ( (x, 0), Gr(T ) )


(x,0)∈M1

≤ inf k(0, T x)k = inf kT xk = γ(T ) = 0 .


(x,0)∈M1 x∈H1

Esto nos dice que c [ M , N ] = 1, y por ende M ⊕ N no es un subespacio cerrado,


aunque ambos subespacios son cerrados y se cortan solo en {0}. 4

256
Proposición 8.4.9. Sean M, N v H tales que PM⊥ PN 6= 0 (o sea N 6⊆ M). Entonces

γ(PM⊥ PN ) = s [ M , N ] .

Demostración. Llamemos R = M⊥ . Como ker(PR PN ) = N ⊥ ⊕ (N ∩ M), se tiene que

ker(PR PN )⊥ = N ∩ (N ∩ M)⊥ = N M.

Luego, por la Prop. 8.2.3 y la definición del módulo mı́nimo,

γ(PR PN ) = inf kPR xk = inf d (x, M) = d ( (N M)1 , M) = s [ M , N ] ,


x∈(N M)1 x∈(N M)1

donde su usa nuevamente que d (x, M) = kPM⊥ xk, para cualquier x ∈ H. 


El resultado anterior es interesante porque relaciona ajustadamente gamas y ángulos, pero
lo es más aún porque tiene las siguientes importantes consecuencias:
Proposición 8.4.10. Sean M, N v H. Entonces

c [ M , N ] = c M⊥ , N ⊥ .
 

Demostración. Sabemos, por la Prop. 8.4.3, que para cada T ∈ L(H) se verifica que γ(T ) =
γ(T ∗ ). Luego, aplicando la Prop. 8.4.9, nos queda que

s M⊥ , N ⊥ = γ(PM PN ⊥ ) = γ( (PM PN ⊥ )∗ ) = γ(PN ⊥ PM ) = s [ N , M ] = s [ M , N ] .


 

Por lo tanto, también c [ M , N ] = c M⊥ , N ⊥ . En los casos en que la Prop. 8.4.9 no se


 

puede aplicar (i.e. N ⊆ M o vive versa), el enunciado es trivial. 


Proposición 8.4.11. Sean A, B ∈ L(H) tales que R(A) y R(B) son cerrados. Entonces

R(AB) v H ⇐⇒ c [ ker A , R(B) ] < 1 .

Demostración.
Si AB = 0 es obvio. Sinó, llamemos M = ker A⊥ y N = R(B). Notar que
A M : M → R(A) v H. Luego, un subespacio S ⊆ M cumple que
es un iso, porque R(A)
S v M ⇐⇒ A M (S) v R(A) ⇐⇒ A M (S) v H. Por lo tanto,

R(AB) = A(N ) = A M (PM (N ) ) v H ⇐⇒ PM (N ) = R(PM B) = R(PM PN ) v M .

6 0 =⇒ PM (N ) 6= {0}),
Pero por la Prop. 8.4.9 (que se puede aplicar porque AB =

γ(PM PN ) = s M⊥ , N = s [ ker A , R(B) ] > 0


 
⇐⇒ c [ ker A , R(B) ] < 1 .

El resultado se sigue, ahora, de la Prop. 8.4.3. 


A continuación daremos una generalización de la Prop. 8.4.9, que será muy útil más adelante.
La prueba es parecida, aunque un poco más cuidadosa.

257
Proposición 8.4.12. Sean T ∈ L(H1 , H2 ) y M v H1 tales que T PM 6= 0. Entonces

γ(T ) s [ N (T ) , M ] ≤ γ(T PM ) ≤ kT k s [ N (T ) , M ] . (8.11)

Demostración. Observar que N (T PM ) = M⊥ ⊥ M ∩ N (T ). Luego

N (T PM )⊥ = M ∩ (M ∩ N (T ) )⊥ = M (M ∩ N (T ) ) = M N (T ) .

Por lo tanto, si x ∈ M N (T ) y kxk = 1, tenemos que

kT PM xk = kT xk = kT (PN (T )⊥ x)k

≥ γ(T )kPN (T )⊥ xk = γ(T ) d (x, N (T ) )

≥ γ(T ) s [ N (T ) , M ] ,
 
donde la última desigualdad se deduce que s [ N (T ) , M ] = d (M N (T ) )1 , N (T ) , como
asegura la Prop. 8.2.5. Tomando mı́nimo sobre los vectores unitarios de N (T PM )⊥ , deduci-
mos que
γ(T PM ) ≥ γ(T ) s [ N (T ) , M ] .
La otra desigualdad de (8.11) se deduce de que kT yk = kT PN (T )⊥ yk ≤ kT k kPN (T )⊥ yk para
todo y ∈ H1 , de que N (T PM ) = N (PN (T )⊥ PM ) y de la Prop. 8.4.9. 
Observación 8.4.13. Con las mismas ideas puede probarse la siguiente fórmula, que gen-
eraliza la Prop. 8.4.12: Dados A ∈ L(H2 , H3 ) y B ∈ L(H1 , H2 ) tales que AB 6= 0,

γ(A)γ(B) s [ ker A , R(B) ] ≤ γ(AB) ≤ kAk kBk s [ ker A , R(B) ] .

En particualr, si A y B son isometrı́as parciales, (o sea γ(A) = kAk = 1 = γ(B) = kBk),


entonces s [ ker A , R(B) ] = γ(AB). 4

Antes de leer el siguiente resultado, sugerimos hacer unos dibujos (no en este papel): Primero
dos rectas (por el origen) N y M en R2 . Luego agarrar un punto, e ir aplicándole sucesiva-
mente PN y PM . Se verá que uno se va acercando a cero, más despacito en tanto el ángulo
entre N y M sea más pequeño. Ahora, extrapolar este dibujo al caso en que N y M son dos
planos en R3 . Ahı́ adonde uno se acerca es a la recta N ∩ M, y moviéndose siempre dentro
de un plano ortogonal a ella. Ahora sı́, leamos la siguiente generalización (cuantitativa) de
sus dibujos:
Proposición 8.4.14. Sean P y Q dos proyectores ortogonales en P(H). Entonces

k(P Q)k − P ∧ Qk = c [ R(P ) , R(Q) ]2k−1 , para todo k∈N,

donde P ∧ Q es la proyección ortogonal sobre R(P ) ∩ R(Q). En particular,


k·k
(P Q)k −−−→ P ∧ Q ⇐⇒ c [ R(P ) , R(Q) ] < 1 .
k→∞

258
Demostración. Sean E = P − P ∧ Q = P (I − P ∧ Q) y F = Q − P ∧ Q. Observar que
I − P ∧ Q comnuta tanto con P como con Q (porque P ∧ Q lo hace). Luego,

k(P Q)k − P ∧ Qk2 = k(P Q)k (1 − P ∧ Q)k2 = k(EF )k k2


= k(F E)k (EF )k k = k(F EF )2k−1 k = kF EF k2k−1 .

Por otro lado, usando la Prop. 8.2.3 y el hecho de que R(E) ∩ R(F ) = {0}, se tiene que
kF EF k = kEF k2 = c [ R(E) , R(F ) ]2 = c [ R(P ) , R(Q) ]2 . Por lo tanto

k(P Q)k − P ∧ Qk2 = c [ R(P ) , R(Q) ]2(2k−1) ,

lo cual concluye la demostración. 


Ejercicio 8.4.15. Sean M, N v H tales que M ∩ N =
6 {0} y c [ M , N ] < 1. Supongamos
que tenemos un subespacio

VvN tal que V ∩ M = {0} pero V ⊕M=N +M .

Probar que entonces se tiene

s[M, N ] = s[M, N M] ≥ s[M, V ] .

Observar que N M es un tal V. Pero lo interesante es la desigualdad para otros V. Se


podrı́a refrasear el ejercicio como sigue: s [ M , N ] es el máximo de los senos entre M y los
suplementos de M en M + N que están contenidos en N .
Sug: Probar primero que si x ∈ N entonces, como N = N ∩ M ⊥ N M, se tiene que

x = PN ∩M x + PN M x ∈ PN M x + M =⇒ d (x , M) = d (PN M x , M) .

Luego usar la Prop. 8.2.5 para calcular los senos. También debe usarse que
PN M y
V1 3 y 7→ ∈ (N M)1 ,
kPN M yk

además de bien definida es biyectiva (sobre todo que es sobre). 4

259
Capı́tulo 9

Complementos de Schur de
operadores positivos

9.1 Factorización e inclusiones de rangos.

El siguiente resultado, extraido del trabajo [96] de R. Douglas de 1966, será de una her-
ramienta escencial en todo lo que sigue de estas notas, en las que se lo citará (muchı́simas
veces) como el Teorema de Douglas .
Teorema 9.1.1 (Douglas). Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ). Entonces las siguientes
condiciones son equivalentes:
1. R(A) ⊆ R(B).

2. Existe λ ∈ R+ tal que AA∗ ≤ λ BB ∗ .

3. Existe C ∈ L(H1 , H2 ) tal que A = BC.


En tal caso, exite un único

C ∈ L(H1 , H2 ) tal que A = BC y R(C) ⊆ R(B ∗ ) = ker B ⊥ .

Esta solución satisface, además, las siguentes propiedades:


i) ker C = ker A

ii) kCk2 = min{λ ∈ R+ : AA∗ ≤ λ BB ∗ }


Demostración.
3 ⇒ 1) Es claro.

3 ⇒ 2) Como todo D ∈ L(H3 )+ verifica que D ≤ kDkI, se tiene que

AA∗ = BCC ∗ B ∗ ≤ kCC ∗ kBB ∗ .

260
2 ⇒ 3) La condición AA∗ ≤ λBB ∗ es equivalente a que kA∗ xk ≤ λ1/2 kB ∗ xk para todo
x ∈ H3 . En particular, ker(B ∗ ) ⊆ ker(A∗ ). Por lo tanto, es correcto definir

T : R(B ∗ ) → R(A∗ ) dado por T (B ∗ x) = A∗ x para x ∈ H3 .

Es claro que T está bien definido y es lineal. Como kA∗ xk ≤ λ1/2 kB ∗ xk para todo
x ∈ H3 , deducimos que T es acotado (con kT k ≤ λ1/2 ). Extendemos T (manteniendo
su nombre) a R(B ∗ ) por continuidad y luego a todo H2 como cero en R(B ∗ )⊥ . Queda
que T ∈ L(H2 , H1 ), y sigue valiendo que kT k ≤ λ1/2 . Es claro que A∗ = T B ∗ , lo cual
muestra que el operador que estamos buscando es C = T ∗ ∈ L(H1 , H2 ). Notar que
este C que construimos cumple R(C) ⊆ ker T ⊥ ⊆ R(B ∗ ) = ker B ⊥ .

1 ⇒ 3) La condición R(A) ⊆ R(B) permite asegurar que para todo x ∈ H1 existe un único
y ∈ ker B ⊥ tal que Ax = By. Definamos C : H1 → H2 como Cx = y. Para ver que
C ∈ L(H1 , H2 ) basta verificar que su gráfico es cerrado. Sea (xn , yn )n∈N una sucesión
de puntos en el gráfico de C tal que xn −−−→ x e yn −−−→ y . Luego
n→∞ n→∞

Ax = lim Axn = lim Byn = By


n→∞ n→∞

es decir (x, y) pertenece al gráfico de C.

Es claro que la inclusión R(C) ⊆ R(B ∗ ) = ker B ⊥ identifica univocamente al operador C,


puesto que BC = A y B es inyectivo en ker B ⊥ . Observar que tanto el C construido en
(1 ⇒ 3) como el construido en (2 ⇒ 3) cumplen esa inclusión, y por ende coinciden.
Verifiquemos ahora este C satisface (i) y (ii). Como, A = BC, vemos que ker C ⊆ ker A.
Pero si x ∈ ker A, entonces el único y ∈ ker B ⊥ tal que By = Ax = 0 es y = 0, por lo que
Cx = 0 (el C de 1 ⇒ 3). Esto muestra que ker A ⊆ ker C.
Por otro lado, vimos en (2 ⇒ 3) que kCk = kT k ≤ λ1/2 , para todo λ tal que AA∗ ≤ λBB ∗ .
La otra desigualdad es clara, puesto que AA∗ = BCC ∗ B ∗ ≤ kCk2 BB ∗ . 
Corolario 9.1.2. Sea A ∈ L(H1 , H2 ). Entonces R(|A∗ |) = R(A).
Demostración. Dado que AA∗ = |A∗ |2 , usando la equivalencia entre (1) y (2) del Teo. 9.1.1
se tiene que R(|A∗ |) = R(A). 
Definición 9.1.3. Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ) tales que R(A) ⊆ R(B). Llamare-
mos solución reducida (o SR) de la ecuación A = BX al único operador C ∈ L(H1 , H2 )
tal que A = BC y R(C) ⊆ ker B ⊥ , que exhibe el Teo. 9.1.1. 4
Observación 9.1.4. Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ) tales que R(A) ⊆ R(B). Sea
P ∈ L(H2 ) la proyección ortogonal sobre ker B ⊥ . Entonces, para todo C ∈ L(H1 , H2 ) tal
que BC = A, se tiene que P C es la SR de la ecuación BX = A. En efecto, como BP = B
y R(P C) ⊆ R(P ), la prueba es inmediata. Observar que esto dice que la SR el la más chica
(en norma) de todas las soluciones de la ecuación BX = A (porque kP k ≤ 1). 4
Ejercicios 9.1.5. Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ).

261
1. Probar que
R(A) + R(B) = R( (AA∗ + BB ∗ )1/2 ) .

2. Supongmos que R(A) ⊆ R(B), sea C la SR de la ecuacón BX = A, y sea D otra


solución. Entonces
kCξk ≤ kDξk para todo ξ ∈ H1 .
En particular, kCk es mı́nima entre dichas soluciones.

3. Supongmos que R(A) ⊆ R(B) v H3 . Sea B † la seudoinversa de Moore-Penrose de B


(ver Def. 8.3.3). Entonces la SR de la ecuación BX = A es C = B † A.

4. Observar que B † es la SR de la ecuación BX = PR(B) .

5. Más generalmente, si P es un proyector (oblicuo) tal que R(P ) = R(B) y C es la SR


de BX = P , entonces C ∈ SI(B) y CB es un proyector ortogonal.

6. Usar lo anterior para dar otra prueba de la Prop. 8.3.6.

9.2 Operadores definidos positivos.


Proposición 9.2.1. Sea A ∈ L(H)+ . Entonces su raiz A1/2 cumple que
(4.27)
1. Núcleos: ker A = ker A1/2 .

2. Imágenes: R(A) ⊆ R(A1/2 ) ⊆ R(A).

3. Si R(A) 6v H (o sea no es cerrado), entonces R(A) 6= R(A1/2 ) 6= R(A).

Demostración. Los ı́tems 1 y 2 son inmediatos. Supongamos que R(A) = R(A1/2 ). Fijado
un x ∈ (ker A)⊥ , debe existir un y ∈ (ker A)⊥ tal que A1/2 x = A y = A1/2 (A1/2 y).
Como también A1/2 y ∈ R(A1/2 ) ⊆ (ker A)⊥ y A1/2 es mono allı́, deducimos que A1/2 y = x.
Pero esto implica que R(A1/2 ) = (ker A)⊥ v H. Como asumı́amos que R(A) = R(A1/2 ),
entonces también R(A) v H. 
Corolario 9.2.2. Sean A , B ∈ L(H)+ y S v H. Luego si

A≤B y R(B) ⊆ S =⇒ R(A) ⊆ S . (9.1)

Demostración. Apliquemos Douglas 9.1.1 a A1/2 y B 1/2 . Como A ≤ B deducimos que

R(A) ⊆ R(A1/2 ) ⊆ R(B 1/2 ) ⊆ S ,

donde el último ⊆ surge de que R(B 1/2 ) ⊆ R(B) ⊆ S, porque S era cerrado. 

262
Proposición 9.2.3. Sea S v H, y consideremos un operador

A B∗
 
S
M= ∈ L(H)+ .
B D S⊥

Entonces R(B) ⊆ R(D1/2 ) y R(B ∗ ) ⊆ R(A1/2 ).


Demostración. Como A ∈ L(S)+ , tenemos que A + IS ∈ Gl (S)+ . Con un pequeño abuso de
notación, llamemos (A + IS )−1 a su inversa en L(S). Por cuentas elementales tenemos que

A + IS B ∗ IS −(A + IS )−1 B ∗
   
IS 0
0 ≤
−B(A + IS )−1 IS ⊥ B D 0 IS ⊥
 
A + IS 0
= =⇒ B(A + IS )−1 B ∗ ≤ D .
0 D − B(A + IS )−1 B ∗

Por el Teo. 9.1.1, deducimos que R(B) = R(B(A + IS )−1/2 ) ⊆ R(D1/2 ). El hecho de que
R(B ∗ ) ⊆ R(A1/2 ) se prueba usando lo anterior para S ⊥ en ves de S. 
A B∗
 
S
Proposición 9.2.4. Sean S v H y M = ∈ L(H)+ . Luego, si
B D S⊥

C ∈ L(S, S ⊥ ) es la SR de B = D1/2 X =⇒ A ≥ C ∗ C en L(S) .

Más aún, para todo x ∈ S, existe una sucesión (yn )n∈N en S ⊥ tal que
    


x x
(A − C C) x , x = lim M , . (9.2)
n∈N yn yn

A − C ∗C 0
  ∗
C C B∗
 
Demostración. Obsevar que M = + . Recordemos que, por
0 0 B D
ser C la SR de B = D1/2 X, se tiene que R(C) ⊆ R(D1/2 ). Luego, para cada x ∈ S, existe
una sucesión (yn )n∈ N en S ⊥ tal que D1/2 yn −−−→ − Cx . Como
n→∞

C ∗C B∗ 0 C∗
    
0 0
= ,
B D 0 D1/2 C D1/2

podemos deducir que


 ∗
C C B∗
   
x x
= Cx + D1/2 yn , Cx + D1/2 yn −−−→ 0 .


,
B D yn yn n→∞

Por lo tanto la sucesión (yn )n∈N cumple lo pedido en la Ec. (9.2). 


? B∗
 
S
Ejercicio 9.2.5. Sea S v H. Consideremos la casimatriz M = . Supon-
B D S⊥
gamos que D ∈ L(S ⊥ )+ y R(B) ⊆ R(D1/2 ). Probar que se puede completar a la casimatriz
M en el lugar 1, 1 de tal modo que quede una matriz en L(H)+ . 4

263
El siguiente resultado ya fué visto para el caso de matrices. La prueba para operadores es
algo más complicada:
Corolario 9.2.6. Sea C ∈ L(H1 , H2 ). Luego

IH1 C ∗
 
kCk ≤ 1 ⇐⇒ M= ∈ L(H1 ⊕ H2 )+ .
C IH2

Demostración. La ida se prueba igual que en dimensión finita: si kCk ≤ 1, entonces para
todo z = (x , y) ∈ H1 ⊕ H2 se tiene que

hM z , zi = (x + C ∗ y , C x + y) , (x , y) = kxk2 + kyk2 + 2 Re hCx , yi .



Pero como 2 Re hCx , yi ≥ −2 | hCx , yi | ≥ −2 kxk kyk, deducimos que hM z , zi ≥ 0.


1/2
Para probar la recı́proca, observar que C misma es la SR de la ecuación IH2 X = C. Si
M ∈ L(H1 ⊕ H2 )+ , la Prop. 9.2.4 asegura que C ∗ C ≤ IH1 , o sea que kCk ≤ 1. 
A B∗
 
S
Teorema 9.2.7. Sea S v H, y sea M = ∈ L(H) . Entonces M ∈ L(H)+
B D S⊥
si y sólo si se verifican las siguientes condiciones:
1. A ∈ L(S)+ y D ∈ L(S ⊥ )+ .

2. Existe una contracción C ∈ L(S, S ⊥ ) tal que B = D1/2 CA1/2 .


Demostración. Si se cumplen las condiciones pedidas, vemos que

A B∗ IS C ∗
   1/2    1/2 
A 0 A 0
M= = ∈ L(H)+ ,
B D 0 D1/2 C IS ⊥ 0 D1/2

por el Cor. 9.2.6. Si asumimos que M ≥ 0, es claro que A ∈ L(S)+ y D ∈ L(S ⊥ )+ .


Sea C1 la SR de la ecuación D1/2 X = B (que existe por la Prop. 9.2.3). Por la Prop. 9.2.4
se tiene que C1∗ C1 ≤ A. Luego tomemos C2 la SR de la ecuación A1/2 X = C1∗ .
Veamos que C = C2∗ cumple lo pedido. En efecto, kCk = kC ∗ k = kC2 k ≤ 1, porque A acota
a C1∗ C1 con constante 1 (ver ii del Teorema de Douglas). Finalmente,

B = D1/2 C1 = D1/2 C2∗ A1/2 = D1/2 C A1/2 . 

Observación 9.2.8. En las condiciones del Teorema anterior, la contracción C no está, en


general, unı́vocamente determinada. Pero sus únicos grados de libertad dependen de los
núcleos de A y D. Por ejemplo, si A > 0 y D > 0, entonces la única solución posible
es C0 = D−1/2 BA−1/2 . La soluciuón C0 obtenida en la prueba del Teorema (tomando
dos veces soluciones reducidas) es mı́nima en varios sentidos, y puede caracterizarse por
propiedades de núcleo e imagen, o bien obtenerse a partir de cualquier solución C de la
ecuación B = D1/2 XA1/2 , tomando C0 = P CQ, donde P y Q son los proyectores ortogonales
sobre ker D⊥ y ker A⊥ , respectivamente (ver la Obs. 9.1.4). 4

264
Corolario 9.2.9. Sean A ∈ L(H)+ y B ∈ A(H) . Entonces
 
A B
M= ≥ 0 en L(H ⊕ H) ⇐⇒ −A ≤ B ≤ A en L(H) .
B A

En particular, si B ∈ L(H)+ , lo anterior equivale a que B ≤ A.


Demostración. Si la matriz M es positiva, por el Teo. 9.2.7 sabemos que existe una con-
tracción C ∈ L(H) tal que A1/2 CA1/2 = B. Necesitarı́amos usar que C ∈ A(H), lo que no
es claro que sea cierto. Para safar, consideremos D = P CP , donde P = PR(A1/2 ) ∈ P(H).
Este D cumple la misma ecuación (porque P A1/2 = A1/2 P = A1/2 ). Sigue cumpliendo que
kDk ≤ 1. Pero ahora sı́ vale que A1/2 D A1/2 = B ∈ A(H) =⇒ D ∈ A(H) . En efecto,
basta testear que hD x , xi ∈ R para todo x ∈ R(P ) (donde opera D). Pero podemos usar
que R(A1/2 ) es denso en R(P ) y que A1/2 D A1/2 ∈ A(H). Ahora sı́ podemos hacer esto:
D=D∗
kDk ≤ 1 =⇒ −I ≤ D ≤ I =⇒ −A ≤ A1/2 DA1/2 = B ≤ A .

Para ver la recı́proca, la cuenta saldrı́a joya su uno pudiera “dividir” por A1/2 . Para safar
esta vez, tomemos An = A + n1 I ∈ Gl (H)+ (para cada n ∈ N). Luego

−An ≤ −A ≤ B ≤ A ≤ An =⇒ −I ≤ A−1/2
n B An−1/2 ≤ I =⇒ kAn−1/2 B A−1/2
n k≤1.
−1/2 −1/2
Ahora les podemos aplicar a todos ellos el Teo. 9.2.7 con Cn = An B An y nos queda
 
An B 1
0≤ =M+ IH⊕H para todo n ∈ N =⇒ M ∈ L(H ⊕ H)+ ,
B An n

como querı́amos demostrar. 

9.3 Shorted de un operador.


Definición y propiedades básicas
Comenzaremos con el siguiente resultado originalmente obtenido por Krein, y redescubierto
varios años después por Anderson-Trapp [87], el cual dará origen a la definición de Shorted
de un operador. La prueba que daremos se basa en un trabajo posterior de Pekarev [108].
Teorema 9.3.1. Sea A ∈ L(H)+ y S v H. Entonces el conjunto
def
M(A, S) = {D ∈ L(H)+ : D ≤ A y R(D) ⊆ S} (9.3)

posee un elemento máximo en el orden usual de A(H) .

265
Demostración. Sean M = A−1/2 (S) y T = A1/2 PM A1/2 . Claramente T ∈ M(A, S). Por
otra parte, si D ∈ M(A, S), en particular D ≤ A. Por el Teorema de Douglas 9.1.1 (con
constante λ = 1), debe existir una contracción C ∈ L(H) tal que D1/2 = A1/2 C.
Ahora bien, tenemos que A1/2 (R(C) ) = R(D1/2 ) ⊆ R(D) ⊆ S =⇒ R(C) ⊆ M. Esto nos
asegura que PM C = C. Usando que C C ∗ ≤ I, podemos deducir que C C ∗ ≤ PM . Luego

D = A1/2 C C ∗ A1/2 ≤ A1/2 PM A1/2 = T ,

lo cual muestra que nuestro T = max M(A, S). 

Definición 9.3.2. Sean A ∈ L(H)+ y S v H. Llamaremos shorted de A al subespacio S,


y lo notaremos SC (A , S), al máximo del conjunto M(A, S). 4

En la siguiente proposición, recopilamos una serie de resultados más o menos inmediatos a


partir de la definición del shorted y de la demostración del Teo. 9.3.1.
Proposición 9.3.3. Sean A ∈ L(H)+ y S v H. Entonces:

1. Demás está decir que SC (A , S) ≤ A y que R SC (A , S) ⊆ S.

2. Para todo α ∈ R+ , se tiene que SC (α A , S) = α SC (A , S).

3. Si B ∈ L(H)+ cumple que A ≤ B, entonces

M(A , S) ⊆ M(B , S) y por lo tanto SC (A , S) ≤ SC (B , S) .

4. Si S ⊆ T v H, entonces M(A , S) ⊆ M(A , T ) y SC (A , S) ≤ SC (A , T ).


 
5. Como el R SC (A , S) ⊆ S, tenemos que SC SC (A , S) , S = SC (A , S).
1/2
6. SC (A2 , S) ≤ SC (A , S) .

7. Si denotamos por M = A−1/2 (S), se tiene la fórmula

SC (A , S) = A1/2 PM A1/2 . (9.4)

Demostración. Los items 1 - 5 se deducen de la definición y el 7 de la prueba del Teo. 9.3.1.


El 6 usa el Teorema de Löwner (Prop. 6.6.4): Como tomar raı́ces cuadradas preserva el orden,
tenemos que D ∈ M(A2 , S) =⇒ D1/2 ∈ M(A , S), porque el R(D1/2 ) no puede salirse de
1/2
S. En particular nos queda que SC (A2 , S) ∈ M(A , S). 
Como x2 no es MOP, siguiente resultado es más fuerte que el item 6 de la Prop. 9.3.3:
Proposición 9.3.4. Sean A ∈ L(H)+ y S v H. Entonces, SC (A2 , S) ≤ SC (A , S)2 .

266
Demostración. Denotemos por M = A−1/2 (S) y N = A−1 (S). Consideremos los proyectores
sobre ellos: PM , PN ∈ P(H). Observar que A1/2 (N ) ⊆ M. Por lo tanto, se tiene que

(I − PM ) A1/2 PN = 0 =⇒ PN A1/2 (I − PM ) = 0 .

En particular PN A1/2 = PN A1/2 PM . Fijado un vector x ∈ H, nos queda que

hA1/2 PN A1/2 x , xi = hPN A1/2 x , PN A1/2 xi = kPN A1/2 xk2 = kPN A1/2 PM xk2

≤ kA1/2 PM xk2 = hPM A PM x , xi .

Luego A1/2 PN A1/2 ≤ PM A PM . Conjugando con A1/2 nos queda que


 (9.4) (9.4)
SC A2 , S = A PN A ≤ A1/2 PM A PM A1/2 = ( A1/2 PM A1/2 )2 = SC (A , S)2 . 

Proposición 9.3.5. Sean A ∈ L(H)+ y S, T v H. Entonces



SC SC (A , S) , T = SC (A , S ∩ T ) . (9.5)

Demostración. Consideremos los conjuntos

M(A , S ∩ T ) = {D ∈ L(H)+ : D ≤ A y R(D) ⊆ S ∩ T } y

= {D ∈ L(H)+ : D ≤ SC (A , T )

M SC (A , T ) , S y R(D) ⊆ S} .

Probaremos que estos conjuntos son iguales y por ende sus máximos, que son los dos shorted’s
de (9.5) también lo serán. Sea D ∈ M(A , S ∩ T ). Luego tenemos que

R(D) ⊆ T ∩ S ⊆ T D ≤ A =⇒ D ≤ SC (A , T ) y R(D) ⊆ S .
y

Eso nos dice que D ∈ M SC (A , T ) , S . Recı́procamente, si asumimos que
 (9.1) 
D ∈ M SC (A , T ) , S =⇒ D ≤ SC (A , T ) =⇒ R(D) ⊆ R SC (A , T ) ⊆T .

Por lo tanto ya sabemos que R(D) ⊆ S ∩ T . Como además D ≤ SC (A , T ) ≤ A, llegamos


a lo que querı́amos: D ∈ M(A, S ∩ T ). 

9.4 Rango y Núcleo de los operadores shorted.


Proposición 9.4.1. Dados A ∈ L(H)+ y S v H, se tiene la igualdad

R SC (A , S)1/2 = R(A1/2 ) ∩ S .

(9.6)

267
Demostración. Sea M = A−1/2 (S). Observar que, volviendo y yendo queda que

R(A1/2 ) ∩ S = A1/2 A−1/2 (S) = A(M) = R(A1/2 PM ) .




Luego, por el Cor. 9.1.2 (decı́a que R(B ∗ ) = R( |B| ) ), sale lo anunciado:

R(A1/2 ) ∩ S = R(A1/2 PM ) = R |PM A1/2 |

 (9.4)
= R SC (A , S)1/2 .
1/2 1/2 1/2

= R (A PM A )

Corolario 9.4.2. Sean A ∈ L(H)+ y S v H. Entonces

R(A) ∩ S ⊆ R SC (A , S) ⊆ R(A1/2 ) ∩ S .


1/2 
Demostración. En la Prop. 9.4.1 (aplicada a A2 ) vimos que R(A) ∩ S = R SC (A2 , S) .
2 2
Por otro lado, la Prop. 9.3.4 dice que SC (A , S) ≤ SC (A , S) . A partir de ello, el Teo. de
1/2 
Douglas 9.1.1 nos asegura que R(A) ∩ S = R(SC (A2 , S) ) ⊆ R SC (A , S) .
 (9.6)
La otra inclusión se sigue de que R SC (A , S) ⊆ R SC (A , S)1/2 = R(A1/2 ) ∩ S. 


El siguiente lema será de utilidad en muchas cuentas futuras:


Lema 9.4.3. Sean B ∈ L(H)+ y N v H. Luego se tiene la igualdad

B −1 ( N ⊥ ) = B ( N )⊥ (9.7)

Demostración. Dado un y ∈ H se tiene que hB x , yi = 0 para todo x ∈ N si y sólo si


hx , B yi = 0 para todo x ∈ N . Si se mira bien, eso es (9.7). 
Por comodidad notacional, para un X ⊆ H cuyo nombre sea muy largo, de ahora en más
algunas veces escribiremos c l (X) en vez de X para denotar a su clausura.
Proposición 9.4.4. Sean A ∈ L(H)+ , S v H y M = A−1/2 (S). Entonces

1. c l ker A + S ⊥ ⊆ ker SC (A , S) = A−1/2 (M⊥ ).




2. ker SC (A , S) = ker A + S ⊥ ⇐⇒ A1/2 (S ⊥ ) es cerrado en R(A1/2 ).

Demostración.

1. Por un lado, usando la Prop. 9.4.1 se tiene


(4.27)
c l ker A + S ⊥ ⊆ (R(A1/2 ) ∩ S)⊥ = ker SC (A , S)1/2 = ker SC (A , S) .


(9.4)
Por el otro, como SC (A , S) = A1/2 PM A1/2 , vemos que
(4.27)
ker SC (A , S) = ker (A1/2 PM A1/2 ) = ker (PM A1/2 ) = A−1/2 (M⊥ ) .

268
 ⊥ (9.7)

= A−1/2 (S) = M, se tiene c l A1/2 (S ⊥ ) = M⊥ . Luego
1/2

2. Dado que A (S )

?
A1/2 (S ⊥ ) v R(A1/2 ) ⇐⇒ M⊥ ∩ R(A1/2 ) = A1/2 (S ⊥ ) .
?
Pero como ambos viven dentro de R(A1/2 ), la igualdad = equivale a que

A−1/2 (?)
ker SC (A , S) = A−1/2 (M⊥ ) A−1/2 A1/2 (S ⊥ ) = ker A + S ⊥ .

= 

EL shorted es la mayor “parte” de un A ∈ L(H)+ que trabaja dentro de un S v H. Dimos


bastante información sobre quien es y cuales son su imagen y su núcleo. Estudiemos ahora
lo que le “sobra”, que se suele llamar la S-compresión de A.
Definición 9.4.5. Sean A ∈ L(H)+ y S v H. Al operador
def
AS = A − SC (A , S) ∈ L(H)+

lo llamaremos la S-compresión de A. 4
Proposición 9.4.6. Sean A ∈ L(H)+ y S v H. Entonces

R(AS 1/2 ) ∩ S = {0} y ker AS = A−1 (S) .

Demostración. Supongamos que nos dan un x ∈ R(AS 1/2 ) ∩ S. Consideremos el proyector


P = Px = x x ∈ P(H). Como R(P ) ⊆ R(AS 1/2 ), por el Teorema de Douglas 9.1.1,

existe λ > 0 tal que λP ≤ AS = A − SC (A , S) =⇒ λP + SC (A , S) ≤ A .

Pero al asumir que x ∈ S nos queda que λP + SC (A , S) ∈ M(A , S) y le gana al shorted.


Luego P debe ser nulo y x era el 0, como anunciábamos.
Por otro lado, si M = A−1/2 (S), entonces por la Prop. 9.3.3,

SC (A , S) = A1/2 PM A1/2 =⇒ AS = A1/2 (I − PM )A1/2 .

Luego el ker AS = ker (I − PM ) A1/2 = A−1/2 (M) = A−1/2 A−1/2 (S) = A−1 (S).



9.5 Otras caracterizaciones del Shorted.


Teorema 9.5.1 (Ando - Descomposición de Lebesgue). Sean A ∈ L(H)+ y S v H. Entonces
existen únicos F y G ∈ L(H)+ tales que:

A=F +G , R(F 1/2 ) ⊆ S y R(G1/2 ) ∩ S = {0} . (9.8)

Más aun, ellos no son otros que F = SC (A , S) y G = AS .

269
Demostración. La definición del shorted y la Prop. 9.4.6 nos dicen que si elegimos los oper-
adores F = SC (A , S) y G = AS , ellos cumplen las condiciones de (9.8).
Supongamos ahora que nos dan otro par F y G ∈ L(H)+ que también las satisfacen. Luego
F ∈M(A , S) def
R(F ) ⊆ R(F 1/2 ) ⊆ S y F ≤A =⇒ B = SC (A , S) − F ∈ L(H)+ .

Entonces escribamos a G = A − F = AS + B ≥ B. Luego tenemos que

R(B 1/2 ) ⊆ S y por Douglas 9.1.1 R(B 1/2 ) ⊆ R(G1/2 ) .

Como R(G1/2 ) ∩ S = {0} queda que B = 0 y SC (A , S) = F . 


A B∗
 
S
Teorema 9.5.2. Sean S v H y M = ∈ L(H)+ . Llamemos C ∈ L(S, S ⊥ )
B D S⊥
a la SR de la ecuación B = D1/2 X (que existe por la Prop. 9.2.3). Entonces

A − C ∗C 0
 
SC (M , S) = .
0 0

Demostración. Podemos partir a M usando a la solución C del siguiente modo:

A B∗ A − C ∗C 0 0 C∗
      
0 0
M= = + =F +G .
B D 0 0 0 D1/2 C D1/2

Para mostrar que F = SC (M , S) bastarı́a verificar que F y G están en las condiciones del
Teo. 9.5.1. Vamos por partes. Es claro que G ≥ 0. Por el Cor. 9.1.2, se tiene que

0 C∗
 
1/2
R(G ) = R .
0 D1/2

0 C∗ C∗ y
      
x z
Ahora bien, si 1/2 = 1/2 = ∈ R(G1/2 ) ∩ S, entonces D1/2 y = 0.
0 D y D y 0
Pero observemos que ker(D1/2 ) ⊆ ker(C ∗ ), porque C es la SR de B = D1/2 X. Luego también
z = C ∗ y = 0, y llegamos a que R(G1/2 ) ∩ S = {0}. Por otro lado, la Prop. 9.2.4 nos asegura
que F ≥ 0 y el hecho de que R(F 1/2 ) ⊆ S sale mirando su matriz. 
A B∗
 
S
Corolario 9.5.3. Sean S v H y M = ∈ L(H)+ . Supongamos ahora que
B D S⊥
R(D) v H. Entonces tenemos esta nueva descripción del shorted:

A B∗ A − B ∗ D† B 0
    
SC ,S = .
B D 0 0

Demostración. Sale porque la SR de la ecuación B = D1/2 X es (D1/2 )† B = (D† )1/2 B . 

270
? B∗
 
S
Ejercicio 9.5.4. Sea S v H. Recorderemos la casimatriz M = del
B D S⊥
Ejer. 9.1.5. Consideremos ahora el conjunto de bloques 1,1 adecuados:
X B∗
 
+
∈ L(H)+ .

P(M , S) = X ∈ L(S) :
B D
El Ejer. 9.1.5 decı́a que P(M , S) 6= ∅ ⇐⇒ R(B) ⊆ R(D1/2 ). Este ejercio consiste en
probar que, en tal caso, existe X0 = min P(M , S) y además identificarlo. 4

Alguien dijo que en un problema de aproximación, todo máximo de algo puede también ser
descrito como un mı́nimo. Eso pasa con las normas de operadores (supremo en la bola, pero
mı́nimo de las cotas superiores). Ahora veremos dos caracterizaciones del shorted (definido
como un máximo) que se obtienen tomando ı́nfimos adecuados:
Proposición 9.5.5. Sean M ∈ L(H)+ y S v H. Dado x ∈ S, se tiene que
           
x x x x ⊥
SC (M , S) 0 , 0 = inf M y , y : y∈S . (9.9)

Demostración. Observar que para todo y ∈ S ⊥ se debe cumplir que


              
def x x x x x x
m = SC (M , S) , = SC (M , S) , ≤ M , ,
0 0 y y y y
por lo que m es una cota inferior. Pero escribiendo a M como una matriz 2 × 2, el Teo. 9.5.2
y la Ec. (9.2) de la Prop. 9.2.4, aseguran que m debe ser el ı́nfimo, porque hay una sucesión
(yn )n∈ N en S ⊥ que aproxima el valor de h SC (M , S) x , xi. 
Teorema 9.5.6. Sean A ∈ L(H)+ y S v H. Consideremos el conjunto
N (A, S) = {Q A Q∗ : Q ∈ P(H) y R(Q) = S} .
Entonces SC (A , S) = ı́nf N (A, S), con respecto al orden usual de A(H).
Demostración. Llamemos PS (H) = {Q ∈ P(H) : R(Q) = S}. En el Ejer.  4.5.9 se afirmaba
I B S
que dado un Q ∈ PS (H), debe existir un B ∈ L(S ⊥ , S) tal que Q = (sale
0 0 S⊥
usando que PS Q = Q) . Luego, dado y = x + z ∈ S ⊕ S ⊥ = H, se tiene que
         
∗ ∗ x ∗ x x x
h Q A Q y , yi = A Q ,Q = A , . (9.10)
z z B∗ x B∗ x
 
⊥ I B
Observar que cualquier B ∈ L(S , S) produce un Q = ∈ PS (H). Luego los
0 0
valores w = B ∗ x recorren todo S ⊥ . Usando la Prop. 9.5.5 y la Ec. (9.10) deducimos que
    
∗ x x
inf h QAQ y , yi = inf A ,
Q∈PS w∈S ⊥ w w
    
(9.9) x x
= SC (A , S) , = h SC (A , S) y , yi ,
0 0

271
para todo y = x + z ∈ S ⊕ S ⊥ = H. Luego SC (A , S) = inf N (A, S), en el sentido de que
es cota inferior y debe ser mayor que todas las otras cotas. 

9.6 Convergencia.
SOT
Proposición 9.6.1. Sean {An }n∈N una sucesión en L(H)+ tal que An & A y {Sn }n∈N una
n→∞
sucesión decreciente de subespacios cerrados de H. Entonces

SOT \
SC (An , Sn ) & SC (A , S) , donde S= Sn .
n→∞
n=1

Demostración. Llamemos Bn = SC (An , Sn ) para cada n ∈ N. Por la Prop. 9.3.3, nuestra


sucesión {Bn }n∈N es decreciente en L(H)+ . Usando el Ejer. 5.9.24, debe tener un lı́mite
(ı́nfimo) en la topologı́a fuerte de operadores SOT, al cual denotaremos B ∈ L(H)+ .
Como SC (A , S) ≤ Bn ≤ A para todo n ∈ N, nos queda que SC (A , S) ≤ B ≤ A. Luego
bastarı́a verificar que R(B) ⊆ S para que B ∈ M(A, S), porque ello nos darı́a la otra
desigualdad B ≤ SC (A , S). Para convencernos de que R(B) ⊆ S, usemos Douglas 9.1.1:
 (9.6)
B ≤ Bn =⇒ R(B) ⊆ R(B 1/2 ) ⊆ R Bn1/2 = R(A1/2
n ) ∩ Sn ⊆ Sn ,


\
para todo n ∈ N. Ası́ que R(B) ⊆ Sn = S. 
n=1

La Prop. 9.6.1 mata dos pájaros de un tiro. Para entenderla mejor veamos dos casos parti-
culares que son interesantes en sı́ mismos:
Corolario 9.6.2. Trabajaremos en H que es un EH.
SOT
1. Sea S v H. Si nos dan una sucesión {An }n∈N en L(H)+ tal que An & A, vale que
n→∞

SOT
SC (An , S) & SC (A , S) .
n→∞

2. Si ahora fijamos el operador A ∈ L(H)+ y tenemos una sucesión decreciente {Sn }n∈N
de subespacios cerrados de H, ahı́ nos queda que

SOT \
SC (A , Sn ) & SC (A , S) , donde S= Sn .
n→∞
n=1

Demostración. Es la Prop. 9.6.1 fijando cada una de las variables. 


Ahora buscaremos condiciones suficientes para garantizar la convergencia en norma.

272
Lema 9.6.3. Sean A ∈ Gl(H)+ y S v H. Entonces
k·k
SC (A + εI , S) −−−→
+
SC (A , S) .
ε→0

Demostración. Dado ε > 0, llamemos λε = 1 + εkA−1 k. Como I ≤ kA−1 kA, deducimos que
A + εI ≤ λε A y por ende SC (A + εI , S) ≤ λε SC (A , S). Por lo tanto,
k·k
SC (A , S) ≤ SC (A + εI , S) ≤ λε SC (A , S) −−−→
+
SC (A , S) ,
ε→0

por lo que SC (A + εI , S) converge ensanguchadamente a SC (A , S). 


Teorema 9.6.4. Sean A ∈ Gl(H)+ y (An )n∈N una sucesión en Gl(H)+ tal que
k·k
An −−−→ A y An ≥ A para todo n∈N.
n→∞

Entonces, para todo S v H, se cumple que


k·k
SC (An , S) −−−→ SC (A , S) .
n→∞

Demostración. Observar que An = A + (An − A) ≤ A + kAn − Ak I para todo n ∈ N. Si


abreviamos εn = kAn − Ak −−−→ 0, por el Lema anterior se tiene que
n→∞

kSC (An , S) − SC (A , S) k ≤ kSC (A + εn I , S) − SC (A , S) k −−−→ 0 ,


n→∞

Ej.
donde el ≤ vale porque en general 0 ≤ B ≤ C =⇒ kBk ≤ kCk. Y usamos que cada An ≥ A
para que lo de adentro de las normas sea siempre positivo. 

9.7 La ecuación X = A − B ∗X −1B.


Definición 9.7.1. Sean A ∈ A(H) y B ∈ L(H). Dado n ∈ N, llamaremos
 
A B∗ 0 . . . 0
 B
 A B∗ . . . 0  
Zn (A, B) =  ... .. .. .. ..  ∈ A(Hn+1 ) .

. . . . 
. . . B A B∗ 
 
 0
0 ... 0 B A
Si A = I, escribiremos Zn (B) en lugar de Zn (I, B). 4
Observación 9.7.2. Sean a ∈ R∗+ y b ∈ C. Supongamos que Zn (a, b) > 0 para todo n ∈ N.
dn
Llamemos d0 = a, dn = det Zn (a, b) y xn = , n ∈ N. Es fácil ver, desarrollando por las
dn−1
primeras columnas, que se tiene la fórmula recursiva
dn+1 dn−1
dn+1 = a dn − |b|2 dn−1 =⇒ xn+1 = = a − |b|2 = a − |b|2 x−1
n , n∈N.
dn dn

273
2 2
Como x1 = a −|b|a
≤ a = x0 , uno muestra recursivamente que (xn )n∈N es un sucesión
decreciente. Por lo tanto, su lı́mite x debe cumplir

0<x y x = a − |b|2 x−1 = a − b x−1 b .

Veremos que una condición de este tipo es necesaria y suficiente para la positividad de las
matrices Zn (A, B), incluso en el caso de operadores. Tal ecuación serı́a

X = A − B ∗ X −1 B (todos en L(H), pero A y X en L(H)+ ) .

Esta ecuación es interesante en sı́ misma, dado que tiene aplicaciones en teorı́a de circuitos
eléctricos. Para evitar pedir que nadie sea inversible, se la puede mejorar usando operadores
shorted, usando la fórmula (9.11) del siguiente Teorema. Si X > 0, el Cor. 9.5.3 dice que
(9.11) es equivalente a la ecuación anterior. 4
Teorema 9.7.3. Sean A ∈ L(H)+ y B ∈ L(H). Son equivalentes:

1. Existe X ∈ L(H)+ tal que

A B∗ A B∗
      
+ X 0
∈ L(H ⊕ H) y SC , H ⊕ {0} = . (9.11)
B X B X 0 0

B∗
 
 + A−Y
2. El conjunto M (A, B) = Y ∈ L(H) : ≥ 0 6= ∅.
B Y

3. Para todo n ∈ N, Zn (A, B) ∈ L(Hn+1 )+ .

En tal caso, existe X = max M (A, B), y es una de las soluciones de la Ec. (9.11).
Demostración. Si existe un X que cumpla la Ec. (9.11), entonces X ∈ M (A, B) 6= ∅.
Supongamos ahora que existe Y ∈ M (A, B). Tenemos que

A − Y B∗ A B∗
   
0 ≤ Y ≤ A por lo que 0 ≤ ≤ = Z2 (A, B) .
B Y B A

Análogamente,

B∗ 0 B∗ 0
     
A−Y 0 0 0 A−Y
∗ 
0≤  B Y 0 + 0 A−Y
  B =  B A B ∗  ≤ Z3 (A, B) .
0 0 0 0 B Y 0 B Y

Inductivamente, uno prueba que Zn (A, B) ≥ 0 para todo n ∈ N.


Veamos ahora que 3 → 1: Notemos X0 = A y Xn = SC (Zn (A, B) , H ⊕ {0n }), para cada
n ∈ N. Pensamos a todos los Xn como con operadores en L(H)+ (dado que sólo operan
en la primera cordenada de Hn+1 ). Llamemos Bn = (B, 0n−1 ) ∈ L(H)n , pensado como

274
una columna, o bien Bn = (0n−1 , B) ∈ L(H)n , como vector fila. Entonces, si tomamos
Z0 (A, B) = A, se tienen las igualdades
Bn∗
 
 ∗
 A 0
A Bn+1
Zn+1 (A, B) = =  Bn Zn−1 (A, B) Bn∗  para todo n ∈ N .
Bn+1 Zn (A, B)
0 Bn A
Por la Prop. 9.5.5, para todo x ∈ H y todo n ∈ N,
Bn∗
      
A x x n
hXn x, xi = inf , :y∈H
Bn Zn−1 (A, B) y y
* 
Bn∗
    +
 A 0 x x 
∗  n
≥ inf  Bn Zn−1 (A, B) Bn y , y
   : (y, z) ∈ H ⊕ H
0 Bn A z z
 
= hXn+1 x, xi ,
es decir que la sucesión Xn es decreciente. Al tomar el ı́nfimo sobre y ∈ Hn de la ecuación
anterior, si escribimos y = (y1 , y2 ) ∈ H ⊕ Hn−1 nos queda
hXn x, xi = hAx, xi + inf {2 Re hBx, y1 i + hZn−1 (A, B)y, yi} .
y=(y1 ,y2 )∈Hn

Si fijamos y1 ∈ H y movemos y2 ∈ Hn−1 , obtenemos


    
y1 y1
inf Zn−1 (A, B) , = hXn−1 y1 , y1 i .
y2 ∈Hn−1 y2 y2
Tomando ahora ı́nfimo sobre y1 ∈ H, llegamos a que, para todo x ∈ H y n ∈ N,
A B∗
     
x x
hXn x, xi = inf , : y1 ∈ H .
B Xn−1 y1 y1
Aplicando nuevamente la Prop. 9.5.5, esto se reescribe como
A B∗ A B∗
      
Xn 0
≥ 0 y SC , H ⊕ {0} = , (9.12)
B Xn−1 B Xn−1 0 0
para todo n ∈ N. Tomemos X el lı́mite para n → ∞ de los Xn (que existe, al menos en la
topologı́a fuerte de operadores,
 por ser la sucesión decreciente). Luego, mirando el lı́mite en

A B
la Ec. (9.12), obtenemos que ≥ 0. Por la Prop. 9.6.1, deducimos que X verifica
B X
la fórmula (9.11). Finalmente, observar que X ∈ M (A, B) y, si Y ∈ M (A, B), entonces
Y ≤ A = X0 . Si hubiéramos obtenido que Y ≤ Xn−1 , para cada x ∈ H tendrı́amos que
A B∗ A B∗
     
Y 0
≤ ≤ =⇒ Y ≤ Xn ,
0 0 B Y B Xn−1
por la Ec. (9.12) y la Def. 9.3.2 de operador shorted. Tomando ı́nfimo, llegamos a que Y ≤ X.


275
Observación 9.7.4. El operador X construido en la prueba del Teo. 9.7.3 se puede obtener
recursivamente por la siguiente receta, usando la fórmula (9.12): Tomar X0 = A y, para
n ∈ N, tomar
A B∗
    
Xn+1 0
= SC , H ⊕ {0} .
0 0 B Xn
S.O.T.
Luego Xn ≥ 0 para todo n ∈ N y Xn −−−→ X decrecientemente. 4
n→∞

Observación 9.7.5. Una variación: Fijemos cualquier Y0 ∈ M (A, B). Como

A B∗ A B∗
    
≥ 0 podemos definir Y1 = SC , H ⊕ {0} ,
B Y0 B Y0

pensado en L(H)+ (sin los tres ceros). Del hecho de que Y0 ∈ M (A, B), deducimos que

A B∗
   
Y0 0
≤ =⇒ Y0 ≤ Y1 y
0 0 B Y0

A − Y1 B ∗ A − Y1 B ∗
   
0≤ ≤ =⇒ Y1 ∈ M (A, B) .
B Y0 B Y1
A B∗
  
Definiendo recursivamente Yn+1 = SC , H ⊕ {0} , obtenemos una sucesión
B Yn
creciente en M (A, B) cuyo supremo Y debe cumplir la Ec. (9.11). En principio no se sabe
si la solución Y es la misma del proceso anterior (o del que resulte de empezar con otro
elemento de M (A, B) ).
En efecto, la solución X de la Ec. (9.11) no es necesariamente única, como lo muestra
el caso unidimensional, donde la ecuación x = a − x−1 |b|2 puede producir dos soluciones
positivas: si b 6= 0,
p
−1 2 2 2 a ± a2 − 4|b|2
x = a − x |b| ⇐⇒ x − ax + |b| = 0 ⇐⇒ x= ,
2
siempre que 2|b| ≤ a. Esta condición, que es entonces equivalente al hecho de que Zn (a, b) ≥ 0
para todo n ∈ N, se generalizará a operadores (usando el radio numérico en lugar del módulo)
en el Cor. 10.3.6. 4
Observación 9.7.6. Si en el Teo. 9.7.3 se toman sistemáticamente operadores shorted sobre
el subespacio {0} ⊕ H (es decir, que se trabaja en el lugar 2, 2 de las matrices en cuestión),
se obtiene, bajo las mismas hipótesis (los Zn (A, B) ≥ 0), un operador X2 que es solución de
la Ec. (9.11) con B cambiado por B ∗ . Además,

B∗
   
+ Z
X2 = max Z ∈ L(H) : ≥ 0 = min M (A, B) ,
B A−Z

276
dado que la aplicación Z 7→ A − Z = Y manda el conjunto del medio sobre M (A, B), e
invierte el orden. En dim H = 1, se tiene que, si 0 < 2|b| ≤ a y 0 < y < a,
 
a−y b
≥ 0 ⇐⇒ (a − y)y ≥ |b|2 ⇐⇒ y 2 − ay + |b|2 ≤ 0
b y
p p
a − a2 − 4|b|2 a + a2 − 4|b|2
⇐⇒ ≤y≤ .
2 2
Por lo tanto, el mı́nimo y el máximo de M (a, b) son las soluciones de la Ec. (9.11) para
A = a y B = b. Esto sucede porque b es “normal” y porque x y b conmutan. En general,
las ecuaciones
X = A − B ∗ X −1 B y X = A − BX −1 B ∗
no tienen por que tener las mismas soluciones. Pero si B = B ∗ , sı́ sabemos que X2 = A − X
y es otra solución de la Ec. (9.11). 4
Corolario 9.7.7. Sean A ∈ L(H)+ y B ∈ A(H) . Entonces se cumplen las condiciones del
Teo. 9.7.3 si y sólo si
 
A/2 B A A
A/2 ∈ M (A, B) ⇐⇒ ≥ 0 ⇐⇒ − ≤ B ≤ .
B A/2 2 2

X + (A − X)
Demostración. Observar que M (A, B) es convexo, y = A/2. Luego la primera
2
equivalencia se sigue de la Obs. 9.7.6. La última ecuación equivale a la del medio por el
Cor. 9.2.9. 
Nota: Los resultados de esta sección están basados en los trabajos de Ando [92] y Anderson-
Morley-Trapp [88].

9.8 Ejercicios
A11 A∗21
 
n S
Ejercicio 9.8.1. Sean S v C , y A = ∈ Mn (C)+ .
A21 A22 S⊥

1. R(SC (A , S)) = R(A) ∩ S y N (SC (A , S)) = N (A) + S ⊥ .

2. Si A ∈ Gl (n)+ , entonces también SC (A , S) > 0 (pensado en L(S) ). Más aún, si

(A−1 )11 (A−1 )12


 
A =−1
, entonces (A−1 )11 = SC (A , S)−1 .
(A−1 )21 (A−1 )22

3. Dados A, B ∈ L(H)+ tales que A ≤ B, notemos

[A, B] = {X ∈ L(H)+ : A ≤ X ≤ B} .

Observar que [A, B] es convexo. Probar que

277
a. Los puntos extremales de [0, I] son los proyectores autoadjuntos de L(H).
b. Si A ∈ Gl (H)+ , entonces ext([0, A]) = {SC (A , S) : S v H }, que incluyen a
0 = SC (A , {0}) y A = SC (A , H).

4. Si f : [0, +∞) → R es una función monótona de operadores tal que f (0) ≤ 0, entonces,
f (SC (A , S)) ≤ SC (f (A) , S) .
( )
det A
5. La sucesión 1/m es decreciente, y
det (Am )nn m∈N

det A
µn (A) ≤ lim 1/m .
m→∞
det (Am )nn

278
Capı́tulo 10

Rango y Radio Numéricos

10.1 Definiciones y propiedades básicas


Definición 10.1.1. Sea A ∈ L(H).

1. El Rango numérico de A es el conjunto

W (A) = {hAx, xi : x ∈ H, kxk = 1 } .

2. Recordemos que el radio numérico de A se define como

w(A) = max |λ| = max{ |hAx, xi| : x ∈ H, kxk = 1 }


λ∈W (A)

y que define una norma en L(H) (si el cuerpo es C). 4

Propiedades elementales de W (A) y w(A):


1. Sea A ∈ L(H). Se cumplen las siguientes desigualdades:

ρ(A) ≤ w(A) ≤ kAk .

La segunda se deduce de Cauchy-Schwarz. La primera es fácil para matrices. Para


operadores se necesita usar la fórmula (10.1) de un poco más abajo.
 
0 0
2. Tomando A = , se ve que las desiguadades pueden ser estrictas. En efecto, es
2 0
claro que ρ(A) = 0 y kAksp = 2. Por otra parte, como la función

f : {z ∈ C : |z| ≤ 1} → R dada por f (z) = 2|z| (1 − |z|2 )1/2

alcanza el máximo f (z) = 1 cuando |z|2 = 1/2, podemos deducir que w(A) = 1.

3. Dado B ∈ L(H) se cumple que W (A + B) ⊆ W (A) + W (B).

279
4. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A).

5. Si U ∈ U(H), entonces W (U AU ∗ ) = W (A) y w(U AU ∗ ) = w(A).

6. Si dim H < ∞, entonces W (A) es compacto (por serlo la cáscara de la bola unidad de
H). Esto falla cuando dim H = ∞, donde W (A) puede no ser cerrado, aunque sı́ pasa
que W (A) es compacto. 4

Proposición 10.1.2. Sea A ∈ L(H). Entonces

σ (A) ⊆ W (A) . (10.1)

Demostración. Si λ es autovalor de A, es claro que λ = hAx, xi ∈ W (A) para cualquier


autovector unitario x asociado a λ . Si λ ∈ σ (A) pero ker(A − λI) = {0}, se tienen dos
posibilidades:

1. γ(A − λI) = 0, con lo que se consigue una sucesión {xn } de vectores unitarios tales
que k(A − λI)xn k −−−→ 0, por lo que hAxn , xn i −−−→ λ .
n→∞ n→∞

2. R(A − λI) es cerrado, pero no todo H. En tal caso, existe un vector unitario x ∈
R(A − λI)⊥ . Luego h(A − λI)x, xi = 0, por lo que hAx, xi = λ . 

Observar que los únicos λ ∈ σ (A) pueden no pertenecer a W (A) son aquellos en los que
A − λI es inyectivo con rango denso. Por lo tanto, si dim H < ∞ se tiene directamente que
σ (A) ⊆ W (A).
Ejemplo 10.1.3. Sea A el operador definido en el Ejemplo 8.4.8. Recordar que, para todo
en
n ∈ N, Aen = , donde {en : n ∈ N} es una BON de H. Como A es compacto (o porque
n
γ(A) = 0), se tiene que A ∈/ Gl (H), por lo que 0 ∈ σ (A).
Es fácil ver que A ∈ L(H)+ y que ker A = {0}. Por lo tanto 0 ∈
/ W (A). En efecto, si
1/2 2 1/2 1/2
hAx, xi = kA xk = 0, debe cumplirse que Ax = A (A x) = 0. Observar que, para
todo n ∈ N, 1/n ∈ W (A), por lo que sı́ se cumple que 0 ∈ W (A). 4

Es un hecho standard de la teorı́a de operadores en espacios de Hilbert el que, si A es


normal, entonces
ρ(A) = w(A) = kAk .
Veremos que, en ese caso, W (A) = conv [σ (A)].

10.2 El Teorema de Hausdorff Töeplitz


El Teorema de Hausdorff Töeplitz dice que, para todo A ∈ L(H), se cumple que W (A) es
convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta
probarlo para matrices en M2 (C) (esto lo veremos en la prueba del Teorema). Pero aún
entre ellas, necesitamos dos reducciones especiales:

280
Lema 10.2.1. Dada A ∈ M2 (C), existe U ∈ U(2) tal que,
 
∗ c a trA
B = U AU = , con c = .
b c 2

tr A
Demostración. Cambiando A por A − I, podemos suponer que tr A = 0 y tratar de
2
hacer que la diagonal de B sea nula. Si σ(A) = {0}, esto es fácil (por el Teorema de Schur).
Sinó, σ(A) = {λ, −λ} con λ 6= 0. Sean x1 y x2 autovectores unitarios asociados a λ y
−λ, respectivamente. Tomemos la curva x(t) = eit x1 + x2 , para t ∈ [0, 2π]. Observar que
x(t) 6= 0, por que x1 y x2 son LI. Entonces,

hAx(t), x(t)i = λ − λ + eit hAx1 , x2 i + e−it hAx2 , x1 i

= λeit hx1 , x2 i − λe−it hx2 , x1 i = 2iλ Im (eit hx1 , x2 i) .

Eligiendo t0 ∈ [0, 2π] tal que eit0 hx1 , x2 i ∈ R, tenemos que hAx(t0 ), x(t0 )i = 0, con x(t0 ) 6= 0.
Normalizando a x(t0 ), completando a una BON de C2 , y tomando U ∈ U(2) tal que tenga
a esa BON en sus columnas, obtenemos
 
∗ 0 a
B = U AU = , con a, b ∈ C ,
b 0

donde B22 = 0 porque B11 = 0 = tr B. 


Lema 10.2.2. Dada B ∈ M2 (C) con diagonal nula, existen V ∈ U(2) y w ∈ C con |w| = 1
tales que,  
∗ 0 a
w · V BV = , con a≥0 y b≥0.
b 0
   
0 a u 0
Demostración. Si B = , tomando V = ∈ U(2) y w ∈ C con |w| = 1,
b 0 0 1
tenemos que  
∗ 0 wu a
w · V B1 V = .
wu b 0
i i
Si a = eiθ1 |a| y b = eiθ2 |b|, tomando u = e 2 (θ2 −θ1 ) y w = e 2 (θ2 +θ1 ) , se obtiene que
 
∗ 0 |a|
w · V B1 V = ,
|b| 0

como deseábamos. 

281
Teorema 10.2.3 (Hausdorff-Töeplitz). Sea A ∈ L(H). Entonces W (A) es convexo.
Demostración. Sean α, β ∈ W (A) distintos, y sean x, y ∈ H unitarios tales que hAx, xi = α
y hAy, yi = β. Tomemos B0 = {v1 , v2 } una BON de S = span {x, y}. Consideremos la
compresión AS ∈ L(S). La matriz de AS en la base B0 es B = (hAvj , vi i)i,j∈I2 ∈ M2 (C).
Dado z = (z1 , z2 ) ∈ C2 , se tiene que

w = z1 v1 + z2 v2 ∈ S , kwk = kzk2 y hBz, zi = hAw, wi ,

por lo que α, β ∈ W (B) y, para probar que las combinaciones convexas de α y β están en
W (A), basta verificar que están en W (B). En otras parabras, alcanza con probar el teorema
en el caso de que A ∈ M2 (C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que
 
0 a
A= , con a≥0 y b≥0,
b 0

puesto que W (C + λI) = W (C) + λ y W (u · V CV ∗ ) = u · W (C) para cualquier C ∈ M2 (C),


λ ∈ C, V ∈ U(2) y u ∈ C con |u| = 1. Obervar que los cambios inducidos por las
reducciones anteriores (translaciones y rotaciones) no perturban el hecho de que W (A) sea
convexo. Veremos que en este caso,
n  o
W (A) = t (a + b) cos θ + i(a − b) sin θ : t ∈ [0, 1/2] y θ ∈ [0, 2π] , (10.2)

que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto


convexa. En efecto, dado z ∈ C2 con kzk = 1, como

hAz, zi = Aeiα z, eiα z




para todo α ∈ R ,

podemos suponer que z = (t, (1 − t2 )1/2 eiθ ) para t ∈ [0, 1] y θ ∈ [0, 2π]. En tal caso, cuentas
elementales muestran que

hAz, zi = t(1 − t2 ) (a + b) cos θ + i(a − b) sin θ .


 

Observar que los números t(1−t2 ) recorren el intervalo [0, 1/2] cuando t ∈ [0, 1]. Esto prueba
la fórmula (10.2). 
Corolario 10.2.4. Sea A ∈ L(H).

1. En general se cumple que conv [σ (A) ] ⊆ W (A).

2. Si A es normal, entonces conv [σ (A) ] = W (A).

3. Si dim H < ∞, los resultados anteriores valen sin tomar clausura.

Demostración. La inclusión σ (A) ⊆ W (A) ya fué vista en la Prop. 10.1.2. Pero por el
Teo. 10.2.3, sabemos que esa incusón arrastra a la cápsula convexa. Si A es normal, pro-
baremos la inclusión recı́proca sólo en el caso de que dim H = n < ∞. Sea {x1 , . . . , xn } una

282
BON de H formada por autovectores de A asociados a sus autovalores λ1 , . . . , λn . Si x ∈ H
tiene kxk = 1, entonces
* n n
+ n
X X X
hAx, xi = A hx, xk i xk , hx, xk i xk = | hx, xk i |2 λk ∈ conv [σ (A) ] ,
k=1 k=1 k=1
Pn
porque k=1 | hx, xk i |2 = kxk2 = 1. Por lo tanto W (A) ⊆ conv [σ (A)]. 
Observación 10.2.5. El caso general (dim H = ∞) del Corolario anterior, sale por un
argumento similar (integrando o aproximando con sumas finitas), pero usando el Teorema
Espectral para operadores normales, que está más allá de los requerimientos pedidos a un
lector tı́pico de este trabajo. Se propone como ejercicio para el lector que lo conozca. 4
Definición 10.2.6. 1. Dados dos espacios de Hilbert H y K, notamos

H ⊕ K = {(x, y) : x ∈ H , y ∈ K} ,

que es un espacio de Hilbert con el producto h(x1 , y1 ), (x2 , y2 )i = hx1 , x2 i + hy1 , y2 i.

2. Dados A ∈ L(H) y B ∈ L(K), se define el operador

A ⊕ B ∈ L(H ⊕ K) dado por A ⊕ B(x, y) = (Ax, By), (x, y) ∈ H ⊕ K .

3. Matricialmente tenemos que


 
def A 0 H
A⊕B = ∈ L(H ⊕ K) .
0 B K

4. En forma similar se definen sumas directas de muchos espacios de Hilbert y de muchos


operadores en ellos. 4
Corolario 10.2.7. Sean A ∈ L(H) y B ∈ L(K). Entonces

W (A ⊕ B) = conv [W (A) ∪ W (A) ] y w(A ⊕ B) = max{w(A), w(B)} . (10.3)

Idem con muchos bloques diagonales.


Demostración. La inclusión W (A) ∪ W (A) ⊆ W (A ⊕ B) se testea inmediatamente usando
vectores con una cordenada nula. Por el Teorema 10.2.3, esto arrastra a la cápsula convexa
de W (A) ∪ W (A). Recı́procamente, dados x ∈ H e y ∈ K no nulos tales que k(x, y)k2 =
kxk2 + kyk2 = 1, tenemos que

hA ⊕ B(x, y), (x, y) i = hAx, xi + hBy, yi


   
2 x x 2 y y
= kxk A , + kyk B , ,
kxk kxk kyk kyk

quien claramente pertenece a conv [W (A) ∪ W (A) ]. 

283
Corolario 10.2.8. Sea A ∈ Mn (C). Entonces existe U ∈ U(n) tal que, si B = U ∗ AU , luego
tr A
Bii = para todo i ∈ In .
n
tr A
Demostración. Cambiando A por A − , lo que debemos probar es que, si tr A = 0,
n
entonces podemos conseguir U ∈ U(n) tal que la diagonal de U ∗ AU sea nula. Lo probaremos
por inducción en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si
n > 2, aplicando el Cor. 10.2.4 obtenemos que
tr A
0= ∈ conv [σ (A)] ⊆ W (A) .
n
Luego existe un vector unitario x ∈ Cn tal que hAx, xi = 0. Completando {x} a una BON
de Cn que lo tenga como primer elemento, y tomando U1 ∈ U(n) la matriz con esa BON en
sus columnas, obtenemos que
 
∗ 0 ∗ 1
C = U1 AU1 = ,
∗ D n−1

porque C11 = hAx, xi = 0. Como D ∈ Mn−1 (C) cumple que tr D = 0, podemos aplicar
la hipótesis inductiva y encontrar V ∈ U(n − 1) tal que la diagonal de V ∗ DV sea nula.
Definiendo U2 = 1 ⊕ V ∈ U(n) y U = U1 U2 ∈ U(n), se ve que
     
∗ ∗ 1 0 0 ∗ 1 0 0 ∗V
U AU = U2 CU2 = = ,
0 V∗ ∗ D 0 V V ∗ ∗ V ∗ DV

que tiene la diagonal nula. 


Observación 10.2.9. Sea W ⊆ C un conjunto convexo compacto, y sea z0 ∈
/ W . Entonces
existe un único w0 ∈ W tal que

d(z0 , W ) = |z0 − w0 | = d > 0 .

El tal w0 existe (y es único) por la teorı́a usual de espacios de Hilbert, usando que W es
convexo y cerrado. Más aún, si x = z0 − w0 , entonces Re (w0 x) + d = Re (z0 x) y

Re (zx) ≤ Re (w0 x) para todo z∈W .

Esto se deduce de que w0 es la proyección ortogonal de z0 sobre W , y de que el producto


escalar en C pensado como R2 es la parte real del producto escalar usual. Observar que la
recta {z ∈ C : Re [(z − w0 )x] = 0} es ortogonal a z0 − w0 y pasa por w0 . 4
Teorema 10.2.10. Sea A ∈ L(H). Entonces
n o
W (A) = z ∈ C : |z − λ| ≤ w(A − λI) para todo λ∈C
n o
= z ∈ C : |z − λ| ≤ kA − λIk para todo λ∈C .

284

Demostración.
 Notemos W = W (A), X = z ∈ C : |z − λ| ≤ w(A − λI) , λ ∈ C e
Y = z ∈ C : |z − λ| ≤ kA − λIk , λ ∈ C . Es claro, por las definiciones, que X ⊆ Y .
Usando que W (A) − λ = W (A − λI), es fácil ver que W ⊆ X. En lo que sigue probaremos
que Y ⊆ W : Supongamos que z0 ∈ / W , y sea w0 la proyección ortogonal de z0 sobre W
(como en la Obs. 10.2.9). Sean

d = |z0 − w0 | = D(z0 , W ) > 0 , y B = e−iθ (A − w0 I) ,

donde z0 − w0 = eiθ d. Luego WB = W (B) = e−iθ (W (A) − w0 ) y, si

YB = z ∈ C : |z − λ| ≤ kB − λIk , λ ∈ C , entonces YB = e−iθ (Y − w0 ) .




/ Y , alcanza probar que d = e−iθ (z0 − w0 ) ∈


Por lo tanto, para ver que z0 ∈ / YB . Observar que,
−iθ
como la función x 7→ e (x − w0 ) preserva distancias, la proyección de d a WB es, ahora,
e−iθ (w0 − w0 ) = 0. Además, como d = d − 0 > 0, si z ∈ WB ,

Re (z d ) = d Re z ≤ 0 =⇒ Re z ≤ 0 ,

por la Obs. 10.2.9. Ahora, si kxk = 1 y m ∈ N, entonces

k(B + mI)xk2 = (B + mI)x , (B + mI)x



= kBxk2 + m2 + 2m Re hBx, xi
≤ kBk2 + m2 ,

porque hBx, xi ∈ WB . Es decir que kB + mIk ≤ (kBk2 + m2 )1/2 . Es fácil ver que (kBk2 +
m2 )1/2 − m −−−→ 0. Por lo tanto, debe existir m ∈ N tal que
m→∞

kB + mIk − m ≤ (kBk2 + m2 )1/2 − m < d .

En otras palabras, para ese m se tiene que kB + mIk < d + m = |d + m|, por lo que d ∈/ YB
y entonces z0 ∈
/ Y . Resumiendo, vimos que si z0 ∈
/ W , entonces z0 ∈
/ Y , o sea que Y ⊆ W .


10.3 Caracterizaciones del radio numérico


Vaeamos una aplicación directa del Teo. 6.1.4:
Proposición 10.3.1. Sea A ∈ L(H). Entonces:
P∞
1. kA − Ik < 1 implica que A ∈ Gl (H) y A−1 = n=0 (I − A)n

2. Si B ∈ Gl (H) y kB − Ak ≤ kB −1 k−1 , entonces, A ∈ Gl (H).

Demostración. Ejercicio.
Lema 10.3.2. Sea A ∈ L(H) tal que w(A) ≤ 1. Sea z ∈ C con |z| < 1. Entonces

285
1. σ (A) ⊆ {λ ∈ C : kλk ≤ 1}.

2. I − zA ∈ Gl (H).

3. Re(I − zA) ≥ 0 y Re(I − zA)−1 ≥ 0.

4. Se tiene le expresión en serie de potencias


∞ ∞
−1
X z n An X z n A∗n
Re(I − zA) =I+ + , (10.4)
k=1
2 k=1
2

con convergencia en norma, para |z| < 1.


Demostración. Lo primero sale porque ρ(A) ≤ w(A) ≤ 1. Además, si z 6= 0, entonces
I − zA = z(z −1 I − A) ∈ Gl (H), porque |z −1 | > 1, o sea que z −1 ∈
/ σ (A). Como w(zA) ≤
w(A) ≤ 1,

hRe(zA)x, xi = Re hzAx, xi ≤ | hzAx, xi | ≤ kxk2 para todo x∈H.

Esto muestra que Re(I − zA) ≥ 0. Dado y ∈ H, tomando x = (I − zA)−1 y,

y, Re(I − zA)−1 y = Re y, (I − zA)−1 y = hRe(I − zA)x, xi ≥ 0 ,




ası́ que también Re(I − zA)−1 ≥ 0. La fórmula (10.4) se deduce de las igualdades
∞ ∞
−1 ∗
X X
−1 n n
z n (A∗ )n ,
 
(I − zA) = z A y (I − zA) =
k=0 k=0

que valen para todo |z| < 1 (aunque kAk pueda ser mayor que 1) porque son ciertas para
|z| < kAk−1 por la Prop. 10.3.1, y siguen valiendo hasta el mayor disco donde se pueda
calcular la función analı́tica z 7→ (I − zA)−1 , que sabemos que no es menos que |z| < 1 por
lo visto en el item 2. 
Lema 10.3.3. Sea Sea T ∈ L(H) tal que w(T ) ≤ 1. Entonces, para todo n ∈ N,
 
2I T∗ 0 ... 0
T  1 
 T 2I T ∗ . . . 0  
Zn =  ... .. .. .. ..  ∈ L(Hn+1 )+ .

. . . . 
2 2 
. . . T 2I T ∗ 

 0
0 . . . 0 T 2I

Demostración. Como w(T ) ≤ 1, por el Lema 10.3.2 sabemos que Re(I −zT )−1 ≥ 0 y tenemos
la expresión en serie (10.4), para |z| < 1. Por lo tanto, si llamamos Q(r, θ) = Re(I −reiθ T )−1 ,
para r ∈ [0, 1) y θ ∈ [0, 2π], tenemos que

1 X k  ikθ k 
Q(r, θ) = I + r e T + e−ikθ (T ∗ )k ≥ 0 .
2 k=1

286
n
X
Tomemos (h0 , . . . , hn ) ∈ H n+1
. Si llamamos h(θ) = hs eis θ , tenemos que
s=0
Z 2π
1
0 ≤ h Q(r, θ) h(θ) , h(θ) i dθ
2π 0
n
X 1 X s−j
s−j 1 X
khk k2 + rj−s (T ∗ )j−s hj , hs ,


= r T hj , hs +
k=0
2 0≤j<s≤n 2 0≤s<j≤n

pues sólo sobreviven a la integral los términos ei(k+j−s)θ T k hj , hs donde k + j − s = 0, y lo



mismo para T ∗ . Como esto vale para todo r < 1, haciendo r → 1− obtenemos
n
X 1 X
1 X

khk k2 + T s−j hj , hs + (T ∗ )j−s hj , hs



0 ≤
k=0
2 0≤j<s≤n
2 0≤s<j≤n
    
2I T ∗ (T ∗ )2 . . . (T ∗ )n h0 h0
*  T 2I T∗ ... (T ∗ )n−1  h1   h1 +
1  .. ... ... ..
 ..   .. 
= .  ,  .  .
    
2  n−1
 . . 
 T ... T 2I T∗
 ..   .. 
 .   . 
Tn ... T2 T 2I hn hn

Si llamamos Wn (T ) a la matriz de arriba (con el 1/2), cuentas elementales muestran

I T ∗ . . . (T ∗ )n
   
I 0 ... 0
.. ..
 0 I . .  T I ... 0 
  
0 ≤ Wn (T ) =  . . Z (−T /2) ..  .
 
n . . .. ...
 .. . . . . . T ∗   ..
 
. 
0 ... 0 I Tn ... T I

Como las matrices que conjugan son inversibles (triangulares con I’s en la diagonal), de-
ducimos que Zn (−T /2) ≥ 0. Como w(−T ) = w(T ) ≤ 1, también Zn (T /2) ≥ 0, para todo
n ∈ N. 
El siguiente resultado fué probado por T. Ando en [92]:
Teorema 10.3.4 (Ando 1973). Sea A ∈ L(H). Son equivalentes:
1. w(A) ≤ 1.

2. Para todo θ ∈ [0, 2π) se tiene que Re(eiθ A) ≤ I.

3. Se cumple que Zn (A/2) ≥ 0 para todo n ∈ N (ver Def. 9.7.1).

4. Existe X ∈ L(H)+ tal que

A∗ /2 A∗ /2
    
I I
≥0 y SC , H ⊕ {0} =X .
A/2 X A/2 X

287
A∗ /2
 
+ I −Y
5. Existe Y ∈ L(H) tal que ∈ L(H ⊕ H)+ .
A/2 Y

6. Existen C ∈ L(H) e Y ∈ L(H)+ tales que Y ≤ I,

kCk ≤ 2 y (I − Y )1/2 C Y 1/2 = A .

I + L A∗
 
7. Existe L ∈ A(H) tal que ∈ L(H ⊕ H)+ .
A I −L
Demostración. La equivalencia entre las condiciones 1 y 2 es bien fácil.

1 → 3 Es el Lema 10.3.3.

3 ↔ 4 ↔ 5 Es el Teo. 9.7.3.

5 ↔ 6 Es el Teo. 9.2.7.
I − Y A∗ /2
 
5 → 7 Supongamos que ≥ 0. Si llamamos L = I − 2Y ∈ A(H), se tiene que
A/2 Y
I + L = 2(I − Y ) y I − L = 2Y . Por lo tanto,

I + L A∗ I − Y A∗ /2
   
=2 ≥0.
A I −L A/2 Y

7 → 2 Dado x ∈ H, sea y = −eiθ x. Luego, si L cumple la condición 7 ,


  2      
2
x −L −A x x


2kxk = y ≥ , = 2 Re(e A) x, x . (10.5)

−A L y y

Luego Re(eiθ A) ≤ I. 

Corolario 10.3.5. Dado A ∈ L(H),


   
L A 2n
w(A) = min max x, x : x ∈ C , kxk = 1 .
L∈A(H) A∗ −L

Demostración. Se puede asumir que w(A) = 1, porque las dos cantidades dependen ho-
mogéneamente de A. En ese caso, la igualdad se deduce de la fórmula (10.5), con algunos
retoques. 
Corolario 10.3.6. Sean A ∈ L(H)+ y B ∈ L(H). Son equivalentes:

1. Existe X ∈ L(H)+ tal que

A B∗ A B∗
      
+ X 0
∈ L(H ⊕ H) y SC , H ⊕ {0} = .
B X B X 0 0

288
2. Para todo n ∈ N, Zn (A, B) ∈ L(Hn+1 )+ .
1
3. Existe C ∈ L(H) tal que A1/2 CA1/2 = B y w(C) ≤ .
2
Demostración. En el Teo. 9.7.3 se muestra la equivalencia 1 ↔ 2. Llamemos
 
A1/2 0 ... 0
 0 A1/2 . . . 0  1/2 n +
A(n) =  .. ..  = A ⊗ In ∈ L(H ) , n ∈ N .
 
. . . .
 . . . . 
0 ... 0 A1/2
La relación entre las condiciónes 2 y 3 se ve a través de la fórmula
Zn (A, B) = A(n+1) Zn (C)A(n+1) para todo n∈N, (10.6)
y el hecho de que Zn (C) ≥ 0 para todo n ∈ N si y sólo si w(2 C) ≤ 1, por el Teo. 10.3.4.
Esto muestra 3 → 2. Recı́procamente, si Z1 (A, B) ≥ 0, el Teo. 9.2.7 dice que existe una
contracción C ∈ L(H) tal que A1/2 CA1/2 = B, y la Ec. (10.6) tiene sentido. Si P ∈ L(H) es
el proyector ortogonal sobre R(A1/2 ), entonces P CP sirve tanto como C. Luego podemos
asumir que C = P CP . En tal caso, si Zn (A, B) ≥ 0, la Ec. (10.6) dice que hZn (C)y, yi ≥ 0
para y en un denso del subespacio invariante R(P ) n+1 , mientras que en (R(P )n+1 )⊥ =
(ker A)n+1 , el operador Zn (C) actua como la identidad. Podemos concluir que Zn (C) ≥ 0, y
por ende w(C) ≤ 1/2. 
Observación 10.3.7. Dado A ∈ L(H), w(A) ≤ 1 si y sólo si existe un espacio se Hilbert
K ⊇ H y U ∈ U(K) tal que, si P ∈ L(K) es la proyección ortogonal sobre H, entonces
An x = 2P U n x , para todo x∈H y n∈N.
Esto es algo más difı́cil que lo anterior, pero puede deducirse de los Lemas 10.3.2 y 10.3.3 (en
particular del hecho de que las matrices Wn (T ) sean positivas). Recientemente, Chi-Kwong
Li y H. Woerdeman plantearon una conjetura que intenta generalizar estos resultados (en
particular el Cor. 10.3.5), en términos del k-ésimo radio numérico
( k )
X
wk (A) = sup |hAxj , xj i| : {x1 , . . . , xk } es un sistema ortonormal .
j=1

Al parecer, la conjetura está aún sin resolver. 4

10.4 Comparación con NUI’s


Proposición 10.4.1. Sea A ∈ L(H). Entonces
1
kAk ≤ w(A) ≤ kAk .
2
Admás, las constantes 1 y 1/2 son óptimas para la desigualdad anterior.

289
Demostración. Tomemos partes real e imaginaria: A = Re A + i Im A. Luego

w(A) ≤ kAk ≤ k Re Ak + k Im Ak = w(Re A) + w(Im A) ≤ 2 · w(A) ,

donde la última desigualdad se deduce de que W (Re A) = {Re z : z ∈ W (A)}, por lo que
w(Re A) ≤ w(A), y lo mismo para Im A. La optimalidad de las constantes 1 y 1/2 se ve
tomando las matrices E11 y 2E21 . 
Proposición 10.4.2 (Marcus-Sandy 1985). Sea A ∈ Mn (C). Entonces
n n
1X X
si (A) ≤ w(A) ≤ si (A) = kAk1 .
n i=1 i=1

Admás, las constantes 1 y 1/n son óptimas para la desigualdad anterior.


Demostración. Tomemos la descomposición polar A = U |A|, con U ∈ U(n). Conjugando
con otra matriz unitaria (lo que no cambia ni w(A) ni kAk1 ), podemos suponer que que U es
diagonal. Pongamos U = diag (w1 , . . . wn ), con |wi | = 1, i ∈ In . Veremos que, en este caso,
n
1X
el número si (A) es superado por alguno de los módulos de los elementos diagonales de
n i=1
A. En efecto, si notamos {e1 , . . . , en } a la base canónica de Cn , y llamamos P = |A|, dado
k ∈ In tenemos que

|Akk | = | hAek , ek i | = | hU P ek , ek i | = | hP ek , U ∗ ek i | = |wk hP ek , ek i | = |Pkk | = Pkk ,

donde la última igualdad surge de que P ∈ Mn (C)+ . Por otra parte,


n
X n
X
Pkk = tr P = tr |A| = si (A) .
k=1 i=1

Por ende, debe existir algún k ∈ In tal que


n
1X
si (A) ≤ Pkk = | hAek , ek i | ≤ w(A) .
n i=1

Para ver que las constantes 1 y 1/n son óptimas, tomar las matrices E11 e I. 
   
0 0 0 1
Definición 10.4.3. Llamemos A = ∈ M2 (C) y V = ∈ U(2). Dado
2 0 1 0
n ∈ N, si n = 2m consideremos las matrices diagonales de bloques
m
X
Cn = A ⊕ A ⊕ · · · ⊕ A = 2E2k,2k−1 ∈ Mn (C) y
k=1

m
X
Un = V ⊕ V ⊕ · · · ⊕ V = E2k,2k−1 + E2k−1,2k ∈ U(n) .
k=1

290
Si n = 2m + 1 e I1 denota a la “matriz” [ 1 ] ∈ M1 (C),
m
X
Cn = A ⊕ · · · ⊕ A ⊕ I1 = En,n + 2E2k,2k−1 ∈ Mn (C) y
k=1

m
X
Un = V ⊕ · · · ⊕ V ⊕ I1 = En,n + E2k,2k−1 + E2k−1,2k ∈ U(n) .
k=1

Observar que, como w(A) = w(I1 ) = 1, la Ec. (10.3) asegura que w(Cn ) = 1 para todo
n ∈ N. 4

Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [100] para calcular, para
N una NUI fija en Mn (C), las mejores constantes m y M tales que

m · N (T ) ≤ w(T ) ≤ M · N (T ) para todo T ∈ Mn (C) .

Proposición 10.4.4 (Johnson-Li 1988). Sea N una NUI en Mn (C). Luego

N (Cn )−1 N (T ) ≤ w(T ) ≤ N (E11 )−1 N (T ) para toda T ∈ Mn (C) .

Además, las constantes N (Cn )−1 y N (E11 )−1 son óptimas.


Demostración. Fijemos T ∈ Mn (C). Si T = 0, el resultado es claro. Si no, sea A =
w(T )−1 T , que tiene w(A) = 1. Por las Proposiciones 10.4.1 y 10.4.2, si s(A) = (s1 , . . . , sn ),
se tiene que
Xn
1 ≤ s1 ≤ 2 y n ≥ sk .
k=1

Observar que s(E11 ) = e1 y s(Cn ) = vn , donde


m

 X


 (2, . . . , 2, 0, . . . , 0) = 2ek si n = 2m

k=1


vn = (10.7)

 Xm

(2, . . . , 2, 1, 0, . . . , 0) = 2ek + em+1 si n = 2m + 1 .



k=1

Por lo tanto, s(E11 ) ≺w s(A) ≺w s(Cn ). Como N es una NUI, el Teorema de Ky Fan
(Teorema 3.3.8 del Libro 1) dice que que

N (T )
N (E11 ) ≤ N (A) = ≤ N (Cn ) .
w(T )

Invirtiendo y multiplicando por N (T ), se obtienen las desigualdades buscadas. Tomando


T = Cn y T = E11 y observando que w(Cn ) = w(E11 ) = 1, podemos deducir que las
constantes dadas son óptimas. 

291
Proposición 10.4.5. Sea N es una NUI en Mn (C). Entonces

w(T ) ≤ N (T ) , ∀ T ∈ Mn (C) =⇒ kT ksp ≤ N (T ) , ∀ T ∈ Mn (C) .

Demostración. Observar que kT ksp = k |T | ksp = w(|T |) ≤ N (|T |) = N (T ). 

El siguiente teorema es el contenido del paper de T. Ando [93]:


Teorema 10.4.6 (Ando 2005). Si definimos la norma
 
kT ksp kT k1
N0 (T ) = max , para T ∈ Mn (C) ,
2 n

se tiene que

1. N0 es una NUI.

2. N0 (T ) ≤ w(T ) para todo T ∈ Mn (C).

3. N0 es la mayor NUI en Mn (C) tal que N (T ) ≤ w(T ) para todo T ∈ Mn (C). Es


decir, si N es una NUI en Mn (C),

N (T ) ≤ w(T ) , ∀ T ∈ Mn (C) =⇒ N (T ) ≤ N0 (T ) , ∀ T ∈ Mn (C) .

Demostración. Los dos primeros items son claros de lo anterior. Fijemos T ∈ Mn (C).
Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir
que T = Σ(T ) = diag (s1 (T ), . . . , sn (T )). Más aún, supongamos que
n s (T ) 1 X n o
1
N0 (T ) = max , si (T ) = 1 .
2 n i=1

En este caso deberı́amos probar que N (T ) ≤ 1. Las desigualdades resultantes de la igualdad


anterior implican que s(T ) ≺w vn , donde vn es el vector definido en la Ec. (10.7). Tomemos
Cn y Un las matrices de la Def. 10.4.3. Notar que Un Cn = Bn , donde

Bn = diag (2, 0, 2, 0, . . . , 2, 0) o bien Bn = diag (2, 0, 2, 0, . . . , 2, 0, 1) .

Observar que s(B) = vn . Luego, como s(T ) ≺w vn = s(Bn ) y N es una NUI, el Teorema de
Ky Fan (Teorema 3.3.8 del Libro 1) nos dice que que N (T ) ≤ N (Bn ), con lo que bastarı́a
probar que N (Bn ) ≤ 1. Por otra parte, en la Def. 10.4.3 se ve que w(Cn ) = 1 para todo
n ∈ N. Como U ∈ U(n) y N es una NUI, tenemos que

N (T ) ≤ N (Bn ) = N (Un Cn ) = N (Cn ) ≤ w(Cn ) = 1 = N0 (T ) .

Observar que recién al final usamos la hipótesis sobre N . 

292
Capı́tulo 11

Normas unitariamente invariantes


para operadores compactos

Sea H un espacio de Hilbert separable, y L(H) el álgebra de operadores lineales acotados


que operan en en H. Denotaremos por

• L0 (H) al ideal de operadores compactos,

• Gl (H) al grupo de operadores invertibles,

• A(H) al subespacio (real) de operadores heritianos,

• L(H)+ al conjunto de operadores semidefinidos positivos (de ahora en más, llamaremos


positivos a estos operadores),

• U(H) al grupo unitario, y

• Gl(H)+ = L(H)+ ∩ Gl (H) al conjunto de operdores definidos positivos (o sea positivos


e invertibles).

Dado A ∈ L(H), R(A) denota la imagen de A, ker A el núcleo de A,

σ(A) = {λ ∈ C : a − λI ∈
/ Gl (H)}

el espectro de A, A∗ el adjunto de A, |A| = (A∗ A)1/2 el módulo de A, ρ(A) el radio espectral


A, y kAk notma de A en L(H). Dado un subespacio cerrado S de H, notaremos por PS a
la proyección ortogonal sobre S.
Cuando dim H = n < ∞ identificaremos H con Cn , L(H) con Mn (C), y usaremos las
siguientes notaciones: H(n) por A(H), Mn (C)+ por L(H)+ , U(n) por U(H), y Gl (n) por
Gl (H).

293
11.1 Normas unitariamente invariantes
Una norma |k · |k en Mn (C) era unitariamente invariante si |kU AU ∗ |k = |kA |k para toda
A ∈ Mn (C) y U ∈ U(n). La noción de norma unitariamente invariante puede extenderse a
operadores en espacios de Hilbert. Para verlo, empecemos con algunas definiciones básicas:
Sea A ∈ L0 (H). Luego también |A| ∈ L0 (H). Notaremos por s(A) = (sk (A))k∈N
a la sucesión de autovalores de |A|, tomados con multiplicidad y en orden decreciente. Si
dim R(A) = n < ∞, pondremos sk (A) = 0 para k > n. Los números sk (A) se llaman también
valores singulares de A. Notar que, por el Teorema espectral para operadores compactos,
existe un sistema ortonormal {xn }n∈N de autovectores de |A| asociados a la sucesión s(A).
Si notamos A = U |A| la descomposición polar de A, entonces U es isométrico en R(|A|).
Luego el sistema {yn }n∈N = {U xn }n∈N es también ortonormal. Para ellos vale una versión
infinitodimensional de la descomposición en valores singulares:
X X
A = U |A| = U sn (A) xn ⊗ xn = sn (A) yn ⊗ xn .
n∈N n∈N

En otras palabras, X
Az = sn (A)hz, xn iyn , z∈H.
n∈N
Pm
Observar que los operadores Am = n=1 sn (A) yn ⊗ xn tienen rango finito, puesto que
s(Am ) = (s1 (A), . . . , sm (A), 0, . . . ). Pero tienen la interesante propiedad de que

s(A − Am ) = (sm+1 (A), sm+2 (A), . . . ) , m∈N. (11.1)

Repaso de matrices
Recordemos los siguientes nociones y resultados de matrices (ver capı́tulo 3 del Libro I):
Definición 11.1.1. Una norma |k · |k en Mn (C) se dice que es una norma unitariamente
invariante (NUI) , si cumple que

|kU AV |k = |kA |k

para toda A ∈ Mn (C) y U, V ∈ U(n). Notar que, en tal caso, |kA |k = |kΣ(A) |k. 4
Definición 11.1.2. Dada una norma N (·) unitariamente invariante, se define la función
gN : Rn → R como gN (x1 , . . . , xn ) = N (diag (x1 , . . . , xn )). 4
Proposición 11.1.3. Sea N una NUI. Entonces:

1. gN es una norma en Rn .

2. gN (x1 , . . . , xn ) = gN (|x1 |, . . . , |xn |).

3. gN (x1 , . . . , xn ) = gN (xσ(1) , . . . , xσ(n) ).

294
Observación 11.1.4. Una función f : Rn → R que cumple los ı́tems 1, 2 y 3 de la
Proposición anterior se denomina gauge simétrica. 4
Proposición 11.1.5. Si g es una función gauge simetrica, entonces, g es monótona, es decir,
si |xi | ≤ |yi | para todo i ∈ {1, . . . , n}, entonces, g(x) ≤ g(y).

Sucesiones de números
Denotaremos C0 al conjunto de sucesiones complejas a = (an )n∈N tales que an −−−→ 0.
n→∞
Consideremos CF ⊆ C0 , el conjunto de sucesiones a ∈ C0 con finitas entradas no nulas. Dada
a ∈ C0 , notaremos |a| = (|an |)n∈N ∈ C0 . Para cada n ∈ N, llamaremos Pn : C0 → CF a la
función dada por Pn (a) = (a1 , . . . , an , 0, . . . ). En forma similar a las nociones definidas en
el caso finitodimensional en la Proposición 11.1.3, definiremos funciones gauge simétricas en
CF y C0 , y normas unitariamente invariantes en L0 (H):
Definición 11.1.6.

1. Una función gauge simétrica (o norma simétrica) es una función g : CF → R que


verifica las siguientes condiciones:

• g es una norma en CF .
• g(a) = g(|a|) para todo a ∈ CF , y
• g es invariante por permutaciones.

Decimos que g está normalizada si g(e1 ) = 1.

2. Si g es una norma simétrica, se tiene que, para toda a ∈ C0 , la sucesión g(Pn (a)) is
creciente. Redefinimos

g : C0 → R+ ∪ {∞} vı́a g(a) = lim g(Pn (a)) .


n→∞

A partir de ahora, llamaremos normas simétricas a estas extensiones a C0 . Como en la


Prop. 11.1.5, puede verse que las normas simétricas son monótonas, i.e., g(|a|) ≤ g(|b|)
si a, b ∈ C0 verifican que |ak | ≤ |bk | para todo k ∈ N.

3. Una norma unitariamente invariante in L0 (H) es una función

|k · |k : L0 (H) → R+ ∪ {∞} , dada por |kA |k = g(s(A) ), A ∈ L0 (H) ,

donde g es una norma simétrica en C0 . La norma se dice normalizada if g lo está. 4

Observación 11.1.7. Se sabe (ver, por ejemplo, el libro de Simon [109]) que, si

I = {A ∈ L0 (H) : |kA |k < ∞} , entonces

295
1. Para todo ε > 0 y T ∈ I, existe un operador de rango finito S (i.e., dim R(S) < ∞)
tal que |kT − S |k < ε. En efecto, basta encontrar, para cada n ∈ N, operadores Sn
tales que s(Sn ) = Pn (s(T )) y s(T − Sn ) = (sn+1 (T ), sn+2 (T ), . . . ). Tales operadores se
pueden obtener aplicando las observaciones anteriores a la fórmula (11.1). Este hecho
es clave, porque con los resultados conocidos para matrices, uno puede deducir las
siguientes propiedades:

2. Si A ∈ L(H) tiene rango finito, luego A ∈ I, ya que s(A) ∈ CF . Si dim R(A) = 1,


entonces |kA |k = s1 (A)g(e1 ) = g(e1 )kAk.

3. Dados A ∈ L0 (H) y B ∈ I tales que


k
X k
X
def
kAk(k) = sj (A) ≤ sj (B) = kBk(k) para todo k ∈ N,
j=1 j=1

entonces A ∈ I y |kA |k ≤ |kB |k.

4. Para cualrquier A ∈ I y cualquier proyección P ∈ L(H), se tiene que

|kP AP |k ≤ |kP AP + (I − P )A(I − P ) |k ≤ |kA |k .

5. I es un ideal autoadjunto de L(H). Más aún, si B ∈ I, luego |kB |k = |kB ∗ |k, y

|kAB |k ≤ kAk |kB |k para todo A ∈ L(H) .

6. (I, |k · |k) es un espacio de Banach. En particular, |k · |k es una norma en I.


The most known examples of norma unitariamente invariante s are the Schatten p-norms
defined by |kA |kp = tr(|A|p )1/p , for 1 ≤ p ≤ ∞, and the Ky-Fan norms k · k(k) , k ∈ N. The
usual norm, which coincides with k · k(1) y |k · |k∞ when restricted to L0 (H), is also unitary
invariant. 4
Proposición 11.1.8. Let N be an norma unitariamente invariante |k · |k on an ideal I ⊆
L(H). Let {PF }F ∈F be a increasing net of projections in L(H)+ which converges strongly
to the identity. Then

N (PF T PF ) −−−→ N (T ) para todo T ∈I .


F ∈F

Demostración. By Remark 11.1.7, para todo ε > 0, there exists a finite rank operator S tal
que N (T − S) < ε. On the other hand, para todo A ∈ I y every projección P ∈ L(H), it
holds that N (P AP ) ≤ N (A). In particular, N (PF (T − S)PF ) < ε para todo F ∈ F. Hence,
we can assume that dim R(T ) = n < ∞.
En tal caso, also dim R(PF T PF ) ≤ n, F ∈ F. entonces sm (T ) = sm (PF T PF ) = 0 para todo
m > n y F ∈ F. The symmetric norm g associated with N is a norm on Rn (completing
the n-tuples with zeros) and, in Rn , all norms are equivalent. Hence, in order to show the

296
Proposition, it suffices to verify that sk (PF T PF ) −−−→ sk (T ) para todo 1 ≤ k ≤ n. It is
F ∈F
known (see [94] III.6.6) that, para todo k ∈ N,

k
X Xk
kT k(k) = sj (T ) = max hT xj , yj i ,


j=1 j=1

where the maximum is taken over all orthonormal systems {x1 , . . . , xk }, {y1 , . . . , yk } in H.
Note that hPF T PF x, yi = hT PF x, PF yi −−−→ hT x, yi para todo x, y ∈ H. On the other
F ∈F
hand, by Remark 11.1.7, the net kPF T PF k(k) is increasing, because the norm k · k(k is
unitary invariant, and PG T PG = PG (PF T PF )PG , for F, G ∈ F, G ≤ F . So, we can deduce
that kPF T PF k(k) −−−→ kT k(k) para todo k ∈ N. Por lo tanto
F ∈F

sk (PF T PF ) = kPF T PF k(k) − kPF T PF k(k−1) −−−→ kT k(k) − kT k(k−1) = sk (T ),


F ∈F

para todo 1 ≤ k ≤ n. 
Observación 11.1.9. Let |k · |k be a unitary invariant norm defined on a norm ideal I ⊆
L(H). The space L(H ⊕ H) can be identified with the algebra of block 2 × 2 matrices with
entries in L(H), denoted by L(H)2×2 . Denote by I2 the ideal of L(H⊕H) associated with the
same norm |k · |k (i.e., by using the same symmetric norm g). Then, the following properties
are esasy to see:

1. Let A ∈ L0 (H), y define A1 ∈ L0 (H ⊕ H) as any of the following matrices


   
0 A 0 0
A1 = or .
0 0 0 A

Then s(A1 ) = s(A), |kA1 |k = |kA |k, y A1 ∈ I2 si y sólo si A ∈ I.


2×2
2. Under the mentioned identification, I2 = I . 4

297
Capı́tulo 12

Productos escalares torcidos

12.1 Proyectores A-autoadjuntos y compatibilidad


Cada A ∈ L(H)+ produce una forma sesquilineal acotada (y no negativa)
h , iA : H × H → C dada por hξ, ηiA = hAξ, ηi , ξ, η ∈ H .
Este semiproducto escalar induce la noción de A-orthogonalidad. Es fácil ver que el sube-
spacio A-orthogonal de un S v H es
S ⊥A = {ξ : hAξ, ηi = 0 ∀η ∈ S } = A−1 (S ⊥ ) = A(S)⊥ .
def

Dado T ∈ L(H), un operador W ∈ L(H) es un A-adjunto de T si


hT ξ, ηiA = hξ, W ηiA , ξ, η ∈ H .
Puede verificarse inmediatamente que esto equivale a que T ∗ A = AW . Por el Teo. 9.1.1, la
existencia de un A-adjunto para T equivale a que R(T ∗ A) ⊆ R(A).
Ejercicio 12.1.1. Sean A ∈ L(H)+ y Q ∈ L(H) un proyector (i.e. Q2 = Q). Entonces Q
tiene un A-adjunto si y sólo si
R(A) = R(A) ∩ N (Q∗ ) ⊕ R(A) ∩ R(Q∗ ) = R(A) ∩ N (Q)⊥ ⊕ R(A) ∩ R(Q)⊥ . (12.1)
Observar que esto es bastante restrictivo, dado que solo permite adjuntar descomposiciones
de H asociadas (vı́a tomar ortogonales) a otras que también descompongan al R(A). 4
El Ejercicio anterior muestra que en general un T ∈ L(H) puede no tener A-adjuntos. Por
otro lado, si N (A) 6= {0}, puede suceder que un T ∈ L(H) tengo muchos A-adjuntos. No
seguiremos con este tema, porque nos concentraremos en las proyecciones A-autoadjuntas.
Antes de empezar a desarrollar la teorı́a, comentaremos que la mayor parte de los resultados
de este Capı́tulo pueden generalizarse al caso en que A = A∗ pero no es positivo. En algunos
casos se puede hacer en forma directa, e otros es bastante más difı́cil que el caso A ∈ L(H)+ .
Sobre este tema se investiga actualmente, utilizando recursos de la teorı́a de espacios de
Krein. Sin embargo, en este trabajo nos restrigiremos al caso positivo, dejando algunas
generalizaciones para los ejercicios.

298
Definición 12.1.2. Dado un espacio de Hilbert H, llamaremos

Q = Q(H) = {Q ∈ L(H) : Q2 = Q} y P = P(H) = {P ∈ Q : P ∗ = P }

a los conjuntos de proyecciones (obicuas) y de proyecciones ortogonales. Fijado S v H,


llamaremos
   
I X S ⊥
QS = {Q ∈ Q : R(Q) = S} = Q = : X ∈ L(S , S) ,
0 0 S⊥

a la variedad afı́n de proyectores sobre S. Observar que QS ∩ P = {PS }. 4


Definición 12.1.3. Dado A ∈ L(H)+ , llamaremos

PA = {Q ∈ Q : Q∗ A = AQ} ,

al conjunto de proyectores A-autoadjuntos. Para cada S v H, notaremos

P(A, S) = QS ∩ PA = {Q ∈ Q : R(Q) = S, AQ = Q∗ A}

a la clase de proyectores A-autoadjuntos con rango S, que serán nuestro principal objeto de
estudio en este capı́tulo. Diremos que el par (A, S) es compatible si P(A, S) 6= ∅. 4

En los siguientes capı́tulos tenderemos que hacer muchas cuentas con subespacios: sumas,
restas, contraimágenes, sus ortogonales, y otras yerbas. Muchas de esas cuentas son ele-
mentales (hay que probar las dos inclusiones, y salen), pero como esos pasos se mezclan con
otras cuentas y a veces las notaciones confunden, agregaremos ahora un ejercicio para ir
familiarizándose con (y en lo posible memorizando) el tipo de igualdades que luego usaremos
hasta el cansancio:
Ejercicios 12.1.4. Sean S, T , M v H. Recordemos que se usa la notación

S T = S ∩ (S ∩ T )⊥ .

1. Cuidado: en general no vale que S T = S ∩ T ⊥ (buscar ejemplo).


⊥ ⊥
= S ⊥ ∩ T ⊥ mientras que S ∩ T = c l S⊥ + T ⊥ .

2. S + T

3. Si S ⊕ T = H, entonces no siempre vale que

(M ∩ S) ⊕ (M ∩ T ) dé todo M.

Pero la igualdad sı́ vale cuando S ⊆ M o T ⊆ M.

4. Si S ∩ T = {0}, S + T v H y además T ⊆ M, entonces


 
S ⊕T ∩M= S ∩M ⊕T .

299
5. Supongamos que S ⊆ T ⊥ , y nos preguntamos cómo calcular S ⊥ T M. En general


es un bolonqui. Pero se tiene que, si también M ⊆ T ⊥ , entonces


  
S ⊥ T ∩ M = S ∩ M =⇒ S ⊥ T M = S M ⊥ T .

6. Dado Q ∈ Q , se tiene que Q−1 (S) = N (Q) ⊕ R(Q) ∩ S .





7. Dados A ∈ L(H) y Q ∈ Q , tenemos que ker AQ = N (Q) ⊕ R(Q) ∩ ker A . 4

La herramienta escencial que usaremos para estudiar la compatibilidad, y por lo tanto para
exhibir proyectores adecuados, será el Teorema de Douglas 9.1.1. Veremos a continuación
una versión particular de dicho Teorema, que involucra (y produce) proyectores oblicuos:
Lema 12.1.5. Sean A ∈ L(H) y Q ∈ Q con R(Q) = S y ker Q = T . Entonces
   
1. R(QA) ⊆ R(A) si y sólo si R(A) = R(A) ∩ S ⊕ R(A) ∩ T .

2. En tal caso, si D ∈ L(H) es la SR de la ecuación AX = QA, entonces también D ∈ Q.

Además, se tiene que R(D) = A−1 (S) ker A y ker D = A−1 (T ) .


Demostración.

1. Si R(QA) ⊆ R(A), entonces R(QA) ⊆ R(A) ∩ S. Entonces, si ξ ∈ R(A), nos sale que

ξ − Qξ ∈ R(I − Q) ∩ R(A) = R(A) ∩ T .

La recı́proca es obvia.

2. Obervar que AD2 = QAD = Q2 A = QA. Encima vale que

R(D2 ) ⊆ R(D) ⊆ (ker A)⊥ .

Entonces D2 es también una SR de la ecuación AX = QA. Por la unicidad que asegura


el Teo. 9.1.1, tiene que valer que D2 = D, i.e. D ∈ Q. Su
 rango y núcleo se calculan
−1
usando el item 1, dado que ker D = ker QA y A A (S) = R(A) ∩ S. 

El problema que trataremos en principio, será el de dar caracterizaciones de la compatibilidad


de un par (A, S), y de describir y calcular a los elementos de P(A, S), si es que hay. Antes
de ello, daremos la siguiente caracterización de los elementos de PA , muy similar al caso
usual (A = I):
Proposición 12.1.6. Sean A ∈ L(H)+ y Q ∈ Q. Entonces las siguientes condiciones son
equivalentes:

1. Q ∈ PA , o sea que Q∗ A = AQ.

2. ker Q ⊆ R(Q)⊥A .

300
3. Q es una A-contracción, i.e. hQξ, QξiA ≤ hξ, ξiA para todo ξ ∈ H.

Demostración. Llamemos S = R(Q). Recordar que R(Q)⊥A = A−1 (S ⊥ ).


1 → 2: Si Q ∈ PA , para todo par ξ, η ∈ H se tiene que

hAη, Qξi = hQ∗ Aη, ξi = hAQη, ξi = hQη, Aξi . (12.2)

Entonces Qξ = 0 implica que Aξ ∈ S ⊥ (porque η es cualquiera), por lo que ker Q ⊆ A−1 (S ⊥ ).


2 → 3: Supongamos que ker Q ⊆ A−1 (S ⊥ ). Dado ξ ∈ H, escribamos

ξ =η+ρ , donde η = Qξ ∈ S y ρ = (I − Q)ξ ∈ ker Q ⊆ A−1 (S ⊥ ) .

Entonces hAρ, ηi = hρ, Aηi = 0 y nos queda que

hAξ, ξi = hAη, ηi + hAρ, ρi ≥ hAη, ηi = hQ∗ AQ ξ, ξi =⇒ Q∗ AQ ≤ A .

Finalmente, observar que la condición 3 es equivalente a que Q∗ AQ ≤ A.


3 → 1: Supongamos que Q∗ AQ ≤ A. Por el Teo. 9.1.1, si D es la SR de la ecuación
A1/2 X = Q∗ A1/2 , se tiene que kDk ≤ 1 y, por el Lema 12.1.5, que D2 = D. Ambas
condiciones aseguran que D∗ = D, o sea D ∈ P. Pero como Q∗ A = A1/2 DA1/2 , podemos
concluir que Q∗ A = AQ. 
Corolario 12.1.7. Sean A ∈ L(H)+ y S v H. Entonces las siguientes condiciones son
equivalentes:

1. El par (A, S) es compatible.

2. S + S ⊥A = S + A−1 (S ⊥ ) = H.

Demostración. Por la Prop. 12.1.6, si Q ∈ P(A, S), entonces ker Q ⊆ S ⊥A . Luego

H = R(Q) ⊕ ker Q ⊆ S + S ⊥A .

Por otra parte, si S + S ⊥A = H, entonces debe existir algún Q ∈ QS tal que N (Q) ⊆ S ⊥A .
Por la Prop. 12.1.6, un tal Q ∈ P(A, S). 

12.2 Caracterizaciones de la compatibilidad


Ahora veremos caracterizaciones de la compatibilidad en términos de la matriz de A. Antes
fijemos las notaciones: Sean A ∈ L(H)+ y S v H. Llamaremos P = PS y escribiremos la
representación matricial de A con las letras
 
a b S
A= ∗ .
b c S⊥

301
Proposición 12.2.1. Sean A ∈ L(H)+ y S v H. Entonces las siguientes condiciones son
equivalentes:
1. El par (A, S) es compatible.
2. R(P A) = R(P AP ) o, equivalentemente, R(b) ⊆ R(a).
3. La ecuación ax = b tiene solución.
 
I y S
En tal caso, todo Q ∈ P(A, S) tiene la forma Q = , donde ay = b.
0 0 S⊥
Demostración. Recordar que, salvo tres ceros, a = P AP y b = P A(1 − P ).
2 ↔ 3: Aplicar el Teo. 9.1.1 y observar que R(P A) = R(a) + R(b).
 
⊥ ⊥ I y
1 ↔ 3: Pensemos que a ∈ L(S) y b ∈ L(S , S). Si y ∈ L(S , S) sea Q = ∈ PS .
0 0
Entonces
      
a b I y a ay ∗ ∗ a b
AQ = = y Q A = (AQ) = .
b∗ c 0 0 b∗ b∗ y y a y∗b

Pero las tres igualdades resultantes a que AQ = Q∗ A (o sea que Q ∈ P(A, S) ) equivalen a
que ay = b (porque en tal caso y ∗ b = y ∗ ay ≥ 0). 
Ejemplo 12.2.2. Sea A ∈ L(H)+ y consideremos
   1/2   1/2 
A A1/2 A 0 A I
M= = ∈ L(H ⊕ H)+ .
A1/2 I I 0 0 0

Si S = H ⊕ {0}, la Prop. 9.2.1 nos asegura que el par (M, S) es compatible si y sólo si
R(A) v H. 4
Observación 12.2.3. Sean A ∈ L(H)+ , S v H y P = PS . Entonces
 
a b
1. Si R(P AP ) v H, el par (A, S) es compatible. En efecto, si A = , por la
b∗ c
Prop. 9.2.3 se tiene que R(b) ⊆ R(a1/2 ). Pero como R(P AP ) = R(a) v H, entonces
R(a1/2 ) = R(a). Por la Prop. 12.2.1, (A, S) es compatible. En particular:
2. Si dim H < ∞, entonces todo par (A, S) es compatible.
3. Idem si dim S < ∞.
4. Si A ∈ Gl(H)+ , sabemos que R(P AP ) = S, por lo que seguro (A, S) es compatible.
En este caso, la única proyección PA,S sobre S que es A-autoadjunta está determinada
por las siguientes fórmulas (ver [110])
!−1
−1
 
I a b
PA,S = = P (1+P −A−1 P A)−1 = P AP +(1−P )A(1−P ) P A. (12.3)
0 0

302
Cabe observar que, es este caso, (H, h·, ·iA ) es un espacio de Hilbert isomorfo al H
normal (el producto interno nuevo es equivalente al viejo). Por ello no debe sorprender
que haya siempre un único projector ortogonal sobre cada subespacio cerrado S (y que
los subespacios cerrados sean los mismos). 4
Definición
 12.2.4.
 Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible.
a b
Si A = , sea d ∈ L(S ⊥ , S) la SR de la ecuacuión ax = b. Fijaremos entonces al
b∗ c
proyector PA,S ∈ P(A, S) dado por
 
def 1 d S
PA,S = .
0 0 S⊥
Teorema 12.2.5. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible.
Notaremos N = A−1 (S ⊥ ) ∩ S = S ⊥A ∩ S. Entonces se tiene que:
1. N = ker a = ker A ∩ S.
2. PA,S ∈ P(A, S) y N (PA,S ) = A−1 (S ⊥ ) N .
3. P(A, S) tiene un sólo elemento (que será PA,S ) si y sólo si si y sólo si N = {0} si y
sólo si S ⊕ A−1 (S ⊥ ) = H.
4. P(A, S) es una variedad afı́n y puede parametrizarse a través de
P(A, S) = PA,S + L(S ⊥ , N ) ,
donde pensamos a L(S ⊥ , N ) como un subespacio de L(H). Una versión matricial de
esta parametrización serı́a:
 
1 0 d S N
P(A, S) 3 Q = PA,S + z =  0 1 z  N , para z ∈ L(S ⊥ , N ) , (12.4)
0 0 0 S⊥
con las notaciones de la Def. 12.2.4.
5. PA,S tiene norma mı́nima en P(A, S):
kPA,S k = min{ kQk : Q ∈ P(A, S)} . (12.5)
Sin embargo, PA,S no es en general el único Q ∈ P(A, S) que realiza la norma mı́nima.
Demostración.
1. Sea ξ ∈ S. Luego Aξ = aξ + b∗ ξ. Recordemos que aξ ∈ S y b∗ ξ ∈ S ⊥ . Por tanto,
Aξ ∈ S ⊥ si y sólo si ξ ∈ ker a. Por otro lado, si ξ ∈ N , entonces
kA1/2 ξk = hAξ, ξikA1/2 ξk = 0 .
Por ello Aξ = 0. Es evidente que ker A ⊆ A−1 (S ⊥ ), asi que tenemos demostrada la
igualdad N = ker a = ker A ∩ S.

303
2. Como ya vimos, PA,S ∈ P(A, S) por la Prop. 12.2.1. Además, por la Prop. 12.1.6,
ker PA,S ⊆ A−1 (S ⊥ ). Pero como S ⊕ (A−1 (S ⊥ ) N ) = H, bastarı́a ver que ker PA,S ⊆
N ⊥ . Sea ξ ∈ ker PA,S y pongamos ξ = ξ1 + ξ2 , con ξ1 ∈ S y ξ2 ∈ S ⊥ . Entonces
0 = PA,S ξ = ξ1 + dξ2 . Ahora pordemos ver que

η ∈ N =⇒ hξ, ηi = hξ1 , ηi = −hdξ2 , ηi = 0 ,

porque R(d) ⊆ R(a) = (ker a)⊥ = N ⊥ , por ser d la SR de ax = b.

3. Por la Prop. 12.1.6, si Q ∈ QS , Q ∈ P(A, S) si y sólo si ker Q ⊆ A−1 (S ⊥ ).

4. Tenemos que ver que cada Q ∈ P(A, S) se escribe en forma única como

Q = PA,S + z , con z ∈ L(S ⊥ , N ).


   
a b 1 y
Si A = ,Q= con y ∈ L(S ⊥ , S) y si d ∈ L(S ⊥ , S) es la SR de la
b∗ c 0 0
ecuación ax = b, entonces

Q ∈ P(A, S) ⇐⇒ ay = b ⇐⇒ a(y − d) = 0 .

Por lo tanto, si z = y − d ∈ L(S ⊥ , S), entonces

Q ∈ P(A, S) ⇐⇒ Q = PA,S + z y R(z) ⊆ ker a = N .

Con respecto a la representación matricial, observar que el Teo. 9.1.1 asegura que

R(d) ⊆ R(a) = (ker a)⊥ ∩ S = S N .

5. Si Q ∈ P(A, S) tiene la matriz de la Ec. (12.4), entonces

0 0 d 2
 
 0 0 z  = 1 + kd∗ d + z ∗ zk2 ≥ 1 + kd∗ dk2 = 1 + kdk2 = kPA,S k2 .

kQk2 = 1 +

0 0 0

Veamos un ejemplo donde no es la única: Sea d ∈ L(S ⊥ , S) tal que

kdk = 1 , R(d) = R(d) 6= S y ker d 6= {0} .

Entonces la matriz
dd∗ d
   
PR(d) d
A= ≥ ≥0.
d∗ 1 d∗ 1
Tenemos que N = ker A ∩ S = S R(d) y que d es la SR de PR(d) x = d. Sea
z ∈ L(ker d, N ) tal que 0 < kzk ≤ √
1. Entonces Q = PA,S + z como en (12.4) cumple
que Q ∈ P(A, S), kQk = kPA,S k = 2 y Q 6= PA,S . 

304
12.3 Complementos de Schur
Recordemos que, si A ∈ L(H)+ y S v H, entonces el Teo. 9.5.6 dice que

SC A , S ⊥ = inf{R∗ AR : R ∈ Q, ker R = S } .


En general el ı́nfimo no es un mı́nimo. Por otro lado, por el Cor. 9.4.2,


1/2
R(A) ∩ S ⊥ ⊆ R(SC A , S ⊥ ) ⊆ R(SC A , S ⊥ ) = R(A1/2 ) ∩ S ⊥ .


Aquı́, la primera inclusión puede ser estricta. Veremos que lo que no pasa en general sı́ pasa
cuando el par (A, S) es compatible:
Proposición 12.3.1. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea
E ∈ P(A, S) y notemos Q = 1 − E. Entonces
1. SC A , S ⊥ = AQ = Q∗ AQ.


2. SC A , S ⊥ = min{R∗ AR : R ∈ Q, ker R = S} y el mı́nimo se alcanza en esos Q.




3. R(SC A , S ⊥ ) = R(A) ∩ S ⊥ .


4. ker SC A , S ⊥ = ker A + S.


Demostración.
1. En principio, podemos ver que 0 ≤ AQ = Q∗ AQ ≤ A, por la Prop. 12.1.6, y además

R(AQ) = R(Q∗ A) ⊆ R(Q∗ ) = ker Q⊥ = S ⊥ .

Esto dice que AQ ∈ M(A, S ⊥ ), el conjunto definido en (9.3), de quien SC A , S ⊥ es




el máximo. Por otro lado, dado X ∈ M(A, S ⊥ ), como ker Q = S, tenemos que
   
0 0 S 0 y S
X= ⊥ y Q=I −E = ⊥ =⇒ XQ = X = Q∗ X .
0 x S 0 I S

Por lo tanto, X = Q∗ XQ ≤ Q∗ AQ = AQ.

2. Por el item 1, Q∗ AQ = SC A , S ⊥ y ker Q = S. Entonces el mı́nimo se alcanza en Q




por el Teo. 9.5.6.

3. Notar que SC A , S ⊥ = AQ implica que R(SC A , S ⊥ ) ⊆ R(A) ∩ S ⊥ . La otra


 

inclusión vale siempre por el Cor. 9.4.2

4. Como Q es un proyector y ker Q = S, se ve fácilmente que

ker SC A , S ⊥ = ker AQ = ker Q ⊕ R(Q) ∩ ker A ⊆ S + ker A .


 

La otra inclusión vale siempre por la Prop. 9.4.4. 

305
Corolario 12.3.2. Sean A ∈ L(H)+ y S v H. Entonces las siguientes condiciones son
equivalentes:
1. El par (A, S) es compatible.

2. El conjunto {S ∗ AS : S ∈ Q, ker S = S} alcanza el mı́nimo en alguna proyección R.

3. Existe R ∈ Q tal que ker R = S y R∗ AR ≤ A.


Demostración. 1 → 2: Aplicar la Prop. 12.3.1.
2 → 3: Se deduce del Teo. 9.5.6.
3 → 1: Por la Prop. 12.1.6, cualquier R ∈ Q tal que R∗ AR ≤ A cumple que AR = R∗ A.
Si también ker R = S, entonces 1 − R ∈ P(A, S) 
Observación 12.3.3. Recién vimos que una condición semejante al item 2 de la Prop. 12.3.1
es suficiente para que valga la compatibilidad. Observar que tal condición dice que el op-
erador SC A , S ⊥ tiene una buena conducta en términos de su computabilidad. A contin-
uación mostraremos que juntando los items 3 y 4, que tambien hablan de buenas porpiedades
del operador shorted, conseguimos otra caracterización de la compatibilidad. Pero antes
veamos un resultado intermedio, que es interesante en sı́ mismo. 4
Lema 12.3.4. Sean A ∈ L(H)+ y S v H tales que R SC A , S ⊥
 
⊆ R(A). Denotemos

ker SC A , S = T . Entonces
1. SC A , T ⊥ = SC A , S ⊥ .
 

2. El par (A, T ) es compatible.


Demostración. Observar que SC A , T ⊥ ≤ SC A , S ⊥ por la Prop. 9.3.3, ya que
 

T ⊥ = R SC (A , S ⊥ ) ⊆ S ⊥ .



∈ M(A, T ⊥ ) (el conjunto definido

Pero esto mismo dice que SC A , S   en (9.3) ), por lo
⊥ ⊥ ⊥
 
que SC A , S ≤ SC A , T . Por otra parte, como R SC A , S ⊆ R(A), existe la


solución reducida Q de la ecuación AX = SC A , S . Por lo tanto, se tiene que

ker Q = ker SC A , S ⊥ = T y AQ = SC A , S ⊥ = Q∗ A .
 

Para poder concluir que 1 − Q ∈ P(A, T ), alcanzarı́a mostrar que Q ∈ Q. Veamos primero
que, si L = A−1/2 (S ⊥ ) = A1/2 (S)⊥ , entonces Q es la SR de la ecuación A1/2 X = PL A1/2 (lo
que, de paso, muestra que R(PL A1/2 ) ⊆ R(A1/2 ) ). Por la Prop. 9.3.3,

SC A , S ⊥ = A1/2 PL A1/2 A1/2 (A1/2 Q − PL A1/2 ) = 0 .



=⇒

Luego, para todo ξ ∈ H, se tiene que PL A1/2 ξ = A1/2 Qξ + η para algún η ∈ ker A1/2 . Por lo
tanto, como ker A1/2 = R(A1/2 )⊥ ⊆ A1/2 (S)⊥ = L, se tiene que

kηk2 = hPL A1/2 ξ, ηi − hA1/2 Qξ, ηi = hA1/2 ξ, PL ηi = hA1/2 ξ, ηi = 0.

306
Llegamos a que A1/2 Q = PL A1/2 . Pero, por otra parte, como Q era la SR de la ecuación
AX = SC A , S ⊥ , tenemos que

R(Q) ⊆ (ker A)⊥ = (ker A1/2 )⊥ .

Por lo tanto, Q también debe ser la SR de A1/2 X = PL A1/2 . Finalmente, como PL ∈ P,


podemos aplicar el Lema 12.1.5, y concluir que Q ∈ Q. Entonces 1 − Q ∈ P(A, T ) 6= ∅. 
Teorema 12.3.5. Sean A ∈ L(H)+ y S v H. Entonces (A, S) es compatible si y sólo si

R SC A , S ⊥ = R(A) ∩ S ⊥ y ker SC A , S ⊥ = ker A + S .


 


= R(A) ∩ S ⊥

Demostración. La ida fue vista en la Proposición 12.3.1. Si R SC A , S


y ker SC A , S = ker A + S = T , sabemos, por la Proposición 12.3.4, que el par (A, T ) es
compatible, o sea que T + A−1 (T ⊥ ) = S + ker A + A−1 (T ⊥ ) = H. Pero

ker A ⊆ A−1 (S ⊥ ) y además T ⊥ ⊆ S ⊥ =⇒ A−1 (T ⊥ ) ⊆ A−1 (S ⊥ ) ,

por lo que S + A−1 (S ⊥ ) ⊇ S + ker A + A−1 (T ⊥ ) = H. Entonces (A, S) es compatible. 


Corolario 12.3.6. Sean A ∈ L(H)+ y S v H. Notemos Q = PS ⊥ . Entonces el par (A, S)
es compatible si y sólo si

S⊥ ⊆ R A + λ Q

para algún (y en tal caso para todo) λ > 0 . (12.6)

Demostración. La Prop. 12.2.1 asegura que el hecho de que (A, S) sea compatible sólo
depende de la primera fila P A de A (es decir, de a y b). Por ello podemos cambiar libremente

A por Aλ = A + λ Q , para cualquier λ > 0 ,

y la compatibilidad con S ni se entera. Además es fácil ver (por las definiciones) que

SC Aλ , S ⊥ = SC A , S ⊥ + λ Q ≥ λ Q , para todo λ > 0 .


 

Si ahora uno aplica el Teo. 12.3.5 a Aλ , se



 tiene que (Aλ , S) es compatible

si y sólo si se
verifica la Ec. (12.6), porque SC Aλ , S es estrictamente positivo en S . Recordar que,
respecto de los núcleos, la inclusión a testear es ker SC Aλ , S ⊥ ⊆ ker Aλ +S. Pero ahora es


automática, porque ker SC Aλ , S ⊥ = S (y porque, si vale (12.6), ker Aλ = R(Aλ )⊥ ⊆ S).




Compresiones
Recordemos la Def. 9.4.5 de la S-compresión de A y sus propiedades:
Observación 12.3.7. Sean A ∈ L(H)+ y S v H. El operador
def
AS = A − SC (A , S) ∈ L(H)+

307
se llama la S-compresión de A. En la Prop. 9.4.6 se vió que

R(AS 1/2 ) ∩ S = {0} y ker AS = A−1 (S) .

Si llamamos M = A−1/2 (S ⊥ ) = A1/2 (S)⊥ , entonces por la Prop. 9.3.3,

SC A , S ⊥ = A1/2 PM A1/2 =⇒ AS ⊥ = A1/2 (I − PM )A1/2 .




Por lo tanto, como (I − PM ) es la identidad en A1/2 (S), se tiene que

A(S) ⊆ R(AS ⊥ ) ⊆ A1/2 (M⊥ ) ⊆ A(S) , (12.7)


⊥
donde la última inclusión se sigue de que M⊥ = A1/2 (S)⊥ = A1/2 (S) (y de que A1/2
es continua). Pero por la Prop. 12.3.1, si (A, S) es compatible, entonces AS ⊥ = AQ, para
cualquier proyector Q ∈ P(A, S). En tal caso, tenemos que R(AS ⊥ ) = A(S) . En la siguiente
Proposición veremos que esta igualdad en realidad caracteriza la compatibilidad. 4
Proposición 12.3.8. Sean A ∈ L(H)+ y S v H. Entonces

el par (A, S) es compatible si y sólo si R(AS ⊥ ) = A(S) .

Demostración. Si (A, S) es compatible entonces por lo mencionado más arriba, sabemos


que R(AS ⊥) = A(S). Recı́procamente, supongamos  que R(AS ⊥ ) ⊆ A(S). Luego, como
SC A , S ⊥ = A − AS ⊥ , vemos que R SC A , S ⊥ ⊆ R(A). Por otro lado, si

ξ ∈ ker SC A , S ⊥

entonces Aξ = AS ⊥ ξ ∈ A(S) .

Si Aξ = Aη con

 η ∈ S, entonces ξ = (ξ − η) + η ∈ ker A + S. Hemos probado que
ker SC A , S ⊆ ker A + S. Por el Teo. 12.3.5, deducimos que (A, S) es compatible. 

12.4 El caso R(A) v H


Cuando el rango de A es cerrado, es más fácil caracterizar la compatibilidad. Primero veamos
una condición suficiente en general, que luego veremos que es necesaria si R(A) v H.
Proposición 12.4.1. Sean A ∈ L(H)+ , S v H y P = PS . Entonces

R(P AP ) v H =⇒ (A, S) es compatible

Demostración. Ver la Obs. 12.2.3. 


La mayorı́a de las condiciones del siguiente Teorema se sabe que son equivalentes entre sı́
por los resultados del Capı́tulo 1. Sin embargo las incluimos todas para enfatizar.
Teorema 12.4.2. Sean A ∈ L(H)+ , S v H y P = PS . Supongamos que R(A) v H.
Entonces las siguientes condiciones son equivalentes:

308
1. El par (A, S) es compatible.

2. R(P AP ) es cerrado.

3. c [ S , ker A ] < 1.

4. S + ker A es cerrado (resp. S ⊥ + R(A) es cerrado).

5. R(P A) es cerrado (resp. R(AP ) = A(S) es cerrado).

6. R(A1/2 P ) = A1/2 (S) es cerrado.

Demostración. La Prop. 12.4.1 muestra que 2 → 1. Que las condiciones 2 hasta 6 son
equivalentes entre sı́ se deduce de las Proposiciones 8.4.10 y 8.4.11, y del hecho de que
R(A) v H (por lo que también R(A1/2 ) v H, cf. Prop. 4.3.6). Finalmente, la Prop. 12.3.1


dice que, si (A, S) es compatible, entonces S + ker A = ker SC A , S v H. 
Ejercicio 12.4.3. Sean A ∈ L(H)+ , S v H y P = PS . Si R(A) v H, probar que

ker SC A , S ⊥ ⊆ S + ker A .

(A, S) es compatible ⇐⇒

Comparar con el Teo. 12.3.5. Y con los rangos ¿qué pasa? Sugerencias:

C1. Combinar las Proposiciones 9.4.4 y 12.4.2.

C2. Combinar la Prop. 9.4.1, el Cor. 9.4.2 y el Teo. 12.3.5. 4

Corolario 12.4.4. Sean A ∈ L(H)+ , S v H y P = PS . Supongamos que R(A) v H.


Entonces las siguientes condiciones son equivalentes:

1. El par (A, S) es compatible.

2. Para todo B ∈ L(H)+ tal que R(B) = R(A), el par (B, S) is compatible.

3. El par (PR(A) , S) es compatible.

Más aún, si B ∈ L(H)+ y R(B) = R(A), las variedades afines P(A, S) y P(B, S) son
”paralelas”, i.e.
P(B, S) = (PB,S − PA,S ) + P(A, S). (12.8)
Demostración. Si R(B) = R(A) entonces también ker B = ker A = ker PR(A) . Por el
Teo. 12.4.2, las tres condiciones son equivalentes, porque la compatibilidad solo depende del
ángulo entre S y el núcleo del operador. Usando que

N = A−1 (S ⊥ ) ∩ S = ker A ∩ S = ker B ∩ S = B −1 (S ⊥ ) ∩ S ,

la igualdad (12.8) se deduce de la parametrización dada en el Teo. 12.2.5. 


La condición 3 del corolario anterior y la Ec. (12.8) son una invitación a considerar los
conjuntos P(Q, S) para Q ∈ P, que es lo que haremos a continuación.

309
12.5 El caso de dos proyectores
En esta sección estudiaremos el caso en el que A es un proyector ortogonal, i.e., A = Q ∈ P.
Por el Teo. 12.4.2 (items 3 y 6), si S v H y P = PS , entonces

ker Q + S v H si y sólo si P(Q, S) 6= ∅ .

En este caso, denotaremos PQ,P al proyector PQ,R(P ) de la Definición 12.2.4. En el siguiente


resultado, recolectaremos varias condiciones equivalentes a la existencia de PQ,P . Vale la
misma observación que la mencionada antes del Teo. 12.4.2.
Teorema 12.5.1. Sean P, Q ∈ P con R(P ) = S y R(Q) = T . Entonces las siguientes
condiciones son equivalentes:
1. (Q, S) es compatible.

2. (P, T ) es compatible.

3. ker Q + R(P ) es cerrado.

4. ker P + R(Q) es cerrado.

5. R(P Q) es cerrado.

6. R(QP ) es cerrado.

7. R(1 − P + Q) es cerrado.

8. R(1 − Q + P ) es cerrado.

9. c S , T ⊥ = c T , S ⊥ < 1.
   

Si además ker Q ∩ S = {0}, son equivalentes también a que


10. k(1 − Q)P k < 1.
Demostración. La única novedad es la equivalencia con las condiciones 7 y 8, que dejamos
como ejercicio (por ejemplo, mostrar que R(1 − P + Q) = S ⊥ + T ). La equivalencia de las
otras con 10 surge de la Prop. 8.2.3. 
Ejercicio 12.5.2. Sean P, Q ∈ P con R(P ) = S y R(Q) = T , tales que

S +T⊥ =H (en particular (Q, S) es compatible) y S ∩ T ⊥ = {0} .

Sea E ∈ Q el proyector asociado a la descomposición S ⊕ T ⊥ = H, i.e., R(E) = S = R(P )


y ker E = T ⊥ = ker Q. Probar que entonces

PQ,P = PQ,S = E y PP,Q = PP,T = E ∗ .

Calcular sus normas, y comparar con lo que sigue. 4

310
Proposición 12.5.3. Sean Q ∈ P y S v H tales que (Q, S) es compatible. Entonces vale
la igualdad
−1
kPQ,S k = s R(Q)⊥ , S = s [ N (Q) , S ]−1 .


Demostración. Por el Cor. 8.2.8, sabemos que kPQ,S k = s [ N (PQ,S ) , S ]−1 . Pero, por las
Proposiciones 12.2.5 y 8.2.3, tenemos que
 
N (PQ,S ) = Q (S ) Q (S ) ∩ S =⇒ c [ N (PQ,S ) , S ] = c Q−1 (S ⊥ ) , S .
−1 ⊥ −1 ⊥
 

Por otra parte, si llamamos T = R(Q), entonces Q−1 (S ⊥ ) = N (Q) ⊕ (T ∩ S ⊥ ). Observemos


⊥ ⊥
 T ∩ S = (N (Q)
que  + S) . Usando el Ejer. 12.1.4 (Item 5) esto implica, por un lado, que
N (Q) ⊕ (T ∩ S ⊥ ) ∩ S = N (Q) ∩ S, y por otro lado que
   
Q−1 (S ⊥ ) S = N (Q) ⊕ (T ∩ S ⊥ ) S = N (Q) S ⊕ (T ∩ S ⊥ ) .

De ahı́ podemos deducir, aplicando la definición con productos escalares, que

c Q−1 (S ⊥ ) , S = c [ N (Q) , S ] .
 

Finalmente, llegamos a que


−1
kPQ,S k = s [ N (PQ,S ) , S ]−1 = s Q−1 (S ⊥ ) , S = s [ N (Q) , S ]−1 ,


como querı́amos demostrar. 

12.6 El caso A inyectivo


Proposición 12.6.1. Sea A ∈ L(H)+ tal que ker A = {0} y sea S v H. Entonces las
siguientes condiciones son equivalentes:

1. El (A, S) es compatible.

2. S ⊕ S ⊥A = H

3. S ⊕ S ⊥A es cerrado.

4. S ⊥ ⊕ A(S) = H

5. S ⊥ ⊕ A(S) es cerrado.

En tal caso P(A, S) = {PA,S }, donde PA,S es el que aparece en la Def. 12.2.4.

311
Demostración. Las sumas de 2 y 3 son directas porque S ∩ S ⊥A = ker A ∩ S = {0}. La
equivalencia entre 1 y 2 esta probada en el Cor. 12.1.7 La equivalencia entre las otras cuatro
condiciones se deduce varios hechos: primero que
h i
S ⊥ ⊕ A(S) v H ⇐⇒ c S ⊥ , A(S) < 1 ⇐⇒ c S , S ⊥A < 1 ⇐⇒ S ⊕ S ⊥A v H ,
 

(12.9)
−1 ⊥
⊥ ⊥A ⊥

porque A(S) = A (S ) = S , lo que permite aplicar la Prop. 8.4.10. El otro

hecho significativo es que S ⊕ A(S) es denso en H, porque el ortogonal de la suma es
S ∩ A(S)⊥ = ker A ∩ S = {0}. El último hecho es la equivalencia entre 2 y 4 que es, ahora,
un ejercicio fácil (N ⊕ M = H si y sólo si N ⊥ ⊕ M⊥ = H). Finalmente, la lı́nea de
implicaciones ya probadas es 3 → 5 → 4 → 2 → 3. 
Observación 12.6.2. Como en el caso de rango cerrado, en el caso inyectivo también se
tiene una caracterización de la compatibilidad en términos de ángulos. En efecto, obesrvar
que
h i
⇐⇒ c S ⊥ , A(S) < 1 ⇐⇒ c S , S ⊥A < 1 ,
 
el par (A, S) es compatible

por la Ec. (12.9). 4

12.7 La proyección minimal


Repasemos la definición de la proyección PA,S :
Definición
 12.7.1.
 Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible. Si
a b
A= , sea d ∈ L(S ⊥ , S) la SR de la ecuacuión ax = b. Entonces
b∗ c
 
def 1 d S
PA,S = ∈ P(A, S) .
0 0 S⊥

Se vió, además que, si N = A−1 (S ⊥ ) ∩ S = ker A ∩ S, entonces

ker PA,S = A−1 (S ⊥ ) N y que kPA,S k = min{kQk : Q ∈ P(A, S)} ,

aunque no es siempre la única minimal en norma. 4

Veremos que PA,S cumple una propiedad de minimalidad algo mejor, que sı́ la caracteriza:
Proposición 12.7.2. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible.
Entonces PA,S es el único elemento de P(A, S) que cumple

k(I − PA,S ) ξk = min{k(I − Q) ξk : Q ∈ P(A, S) } para todo ξ∈H. (12.10)

312
Demostración. Dado Q ∈ P(A, S), por la Prop. 12.2.5 existe z ∈ L(S ⊥ , N ) tal que
 
0 0 −d S N
I − Q = I − PA,S − z =  0 0 −z  N .
0 0 I S⊥

Por lo tanto, fijado ξ ∈ H, si η = (I − P ) ξ ∈ S ⊥ , entonces

k(I − Q) ξk2 = kd ηk2 + kz ηk2 + kηk2 ≥ kd ηk2 + kηk2 = k(I − PA,S ) ξk2 .

Observar que, si z 6= 0, puede elegirse ξ ∈ H tal que z η 6= 0, por lo que la desigualdad se


puede hacer estricta. Por ello PA,S es el único que puede cumplir (12.10). 
Observación 12.7.3. Si E ∈ Q, entonces kEk = kI − Ek, porque dependen del seno del
ángulo entre el rango y el núcleo (que es simétrico). Por ello la Prop. 12.7.2 refina la fórmula
(12.5) del Teo. 12.2.5 que dice que kPA,S k es mı́nima en P(A, S). Con las notaciones de la
Prop. 12.7.2, también se tiene que PA,S es el único elemento de P(A, S) que cumple

kPA,S ξk = min{kQ ξk : Q ∈ P(A, S) } para todo ξ ∈ N⊥ . (12.11)

En efecto, fijado ξ ∈ N ⊥ , pongamos ξ = ξ1 + ξ2 , con ξ1 = P ξ ∈ S N y ξ2 ∈ S ⊥ . Entonces,


como R(d) ⊆ S N , tenemos que

kQ ξk2 = kξ1 + d ξ2 k2 + kz ξ2 k2 = kPA,S ξk2 + kz ξ2 k2 ≥ kPA,S ξk2 .

Observar que, si z 6= 0, puede elegirse ξ ∈ N ⊥ tal que z ξ2 6= 0, por lo que la desigualdad se


puede hacer estricta. Por ello PA,S es el único que puede cumplir (12.11).
No es cierto que la desigualdad (12.11) valga para todo ξ ∈ H, salvo en el caso N =
{0}, que es trivial (porque en tal caso PA,S es único). De hecho, si elegimos ξ con cierta
componente 0 6= ξ3 ∈ N , entonces PA,S deja fija esa componente, mientras que Q = PA,S + z
puede achicarla, o tacharla directamente si ξ3 ∈ R(z). 4
Lema 12.7.4. Sean A ∈ L(H)+ y S v H. Como siempre, N = A−1 (S ⊥ ) ∩ S = ker A ∩ S.
Entonces

(A, S) es compatible ⇐⇒ (A, S N ) es compatible (12.12)

En tal caso se tienen las siguientes propiedades:

1. PA, S N + PN = PA,S .

2. ker PA, S N = A−1 (S ⊥ ).

3. P(A, S N ) = {PA, S N }.

313
Demostración. Antes que nada, observar que

S + A−1 (S ⊥ ) = H ⇐⇒ (S N ) ⊕ A−1 (S ⊥ ) = H .

Pero A−1 (S ⊥ ) = A(S)⊥ = A(S N )⊥ = (S N )⊥A , porque N ⊆ ker A. Aplicando


el Cor. 12.1.7 a ambos pares, tenemos la prueba de la equivalencia (12.12). La igualdad
P(A, S N ) = {PA, S N } se deduce de que (S N ) ∩ ker A = {0}. Como

APN = PN A = 0 y N ⊆ A−1 (S ⊥ ) = ker PA, S N =⇒ PA, S N PN = PN PA, S N = 0 ,

tenemos que PA, S N + PN ∈ P(A, S). Por último, es fácil ver que

ker PA, S N + PN = ker PA, S N ∩ ker PN = A−1 (S ⊥ ) ∩ N ⊥ = A−1 (S ⊥ ) N ,




lo que prueba que PA, S N + PN = PA,S , vı́a la Prop. 12.2.5. 

La Prop. 12.2.1 muestra que un par (A, S) es compatible si y sólo si R(P A) ⊆ R(P AP ),
donde P = PS . Por lo tanto, si (A, S) es compatible, es natural estudiar a la solución
reducida Q de la ecuación
(P AP )X = P A (12.13)
y su relación con PA,S . Observar que R(Q) ⊆ R(P AP ), que puede estar estrictamente
incluido en S, por lo que, en general, Q 6= PA,S . Sin embargo:
Proposición 12.7.5. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible.
Sea Q la SR de la ecuación (12.13). Sea N = ker A ∩ S. Entonces

Q = PA, S N y PA,S = PN + Q .

Demostración. Antes que nada, observar basta  probar


 que Q = PA, S N , ya que la otra
a b
igualdad se deducirı́a del Lema 12.7.4. Si A = , pensando que a ∈ L(S), se tiene
b∗ c

ker a = N y R(a) = R(a1/2 ) = S N .

Observar que R(Q) ⊆ R(P AP ) = R(a). También ker Q = ker(P A) = A−1 (S ⊥ ). Pero

ξ ∈S N =⇒ a(Qξ) = (P AP )Qξ = P Aξ = P AP ξ = a(ξ).

Como a es inyectivo en S N , deducimos que Qξ = ξ para todo ξ ∈ S N . Entonces

Q2 = Q , R(Q) = S N y ker Q = A−1 (S ⊥ ) ,

lo que, en vista del Lema 12.7.4, mustra que Q = PA, S N . 

En la Prop. 12.3.8 se vió que si un par (A, S) es compatible,


 entonces se verifica la inclusión

R(AS ⊥ ) ⊆ A(S) = R(APS ), donde AS ⊥ = A − SC A , S . Esto da sentido a otra SR que
puede servir para calcular PA,S . En efecto, da el mismo proyector que el de la Prop. 12.7.5:

314
Proposición 12.7.6. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea
P = PS . Si Q es la SR de la ecuación (AP )X = AS ⊥ , entonces

Q = PA,S N y además PA,S = Q + PN ,

donde N = ker A ∩ S.
Demostración. Sea Q la SR de la ecuación AP X = AS ⊥ . Entonces, por la Prop. 9.4.6,

ker Q = ker AS ⊥ = A−1 (S ⊥ ) y R(Q) ⊆ (ker AP )⊥ = (S ⊥ + N )⊥ = S N . (12.14)

= AQ. Si ξ ∈ S N ⊆ ker SC A , S ⊥ , tenemos que



Luego P Q = Q, por lo que AS ⊥

Aξ = AS ⊥ ξ = A Qξ =⇒ ξ − Qξ ∈ ker A ∩ ( S N ) = {0} .

Esto muestra que Q es la identidad en S N . Como vimos que ker Q = A−1 (S ⊥ ), el Lema
12.7.4 asegura que Q = PA,S N . 
Observación 12.7.7. Otra manera de probar la Prop. 12.7.6 es verificar que si Q la SR de
la ecuación AP X = AS ⊥ , entonces Q también
 es la SR de la Ec. (12.13). Esto sale usando

la Ec. (12.14) y el hecho de que P SC A , S = 0. 4

En la Prop. 12.3.1 se muestra que si un par (A, S) es compatible, entonces se verifica la


inclusión R SC A , S ⊥

⊆ R(A). Esto da sentido a otra SR que puede servir para calcular
PA,S . En efecto:
+
Proposición 12.7.8. Sean A ∈ L(H) y S v H tales que (A, S) es compatible. Sea Q la

SR de la ecuación AX = SC A , S . Entonces T = S + ker A v H ,

I − Q = PA, T y PA,S = (I − Q) − Pker A + 2PN ,

donde, como siempre, N = ker A ∩ S.


Demostración. En la prueba del Lema 12.3.4 se vió que I − Q ∈ P(A, T ). Por otro lado,

ker A ⊆ A−1 (T ⊥ ) = A(T )⊥ =⇒ T ∩ A(T )⊥ = S ∩ A(S)⊥ = N = ker A ∩ S .

Luego, como ker(I − Q) = R(Q) ⊆ ker A⊥ ⊆ N ⊥ , ya podemos decir que I − Q = PA, T . La


otra igualdad se deja como ejercicio. 
Proposición 12.7.9. Sean A ∈ L(H)+ , S v H y P = PS . Entonces las siguientes condi-
ciones son equivalentes:

1. El par (A, S) es compatible.

2. R(A1/2 ) = A1/2 (S) ⊕ (A1/2 (S)⊥ ∩ R(A1/2 ))

3. Si M = A1/2 (S), entonces R(PM A1/2 ) ⊆ R(A1/2 P ).

315
Demostración. 1 ↔ 2: Si H = S + S ⊥A , aplicando A1/2 en ambos lados tenemos que

A1/2 (H) = A1/2 (S) + A1/2 (A−1 (S ⊥ )) .

Es decir que

R(A1/2 ) = A1/2 (S) + A−1/2 (S ⊥ ) ∩ R(A1/2 ) = A1/2 (S) ⊕ A1/2 (S)⊥ ∩ R(A1/2 ) .

Pero si R(A1/2 ) = A1/2 (S) ⊕ A1/2 (S)⊥ ∩ R(A1/2 ) podemos ver que

H = S + A−1 (S ⊥ ) + ker A1/2 = S + A−1 (S ⊥ ) .

2 ↔ 3: Si vale 3 y tenemos un y ∈ R(A1/2 ), entonces y = y1 + y2 para y1 = PM y ∈ A1/2 (S)


e y2 = y − y1 ∈ M⊥ = A1/2 (S)⊥ (y son únicos). La recı́proca es similar. 

Por la Prop. 12.7.9, (A, S) es compatible si y sólo si R(PM A1/2 ) ⊆ R(A1/2 P ), es decir, si la
ecuación A1/2 P X = PM A1/2 tiene solución. Como en la Prop. 12.7.6, su SR es la misma que
la de (12.13):
Proposición 12.7.10. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea
P = PS . Si Q es la SR de la ecuación A1/2 P X = PM A1/2 , entonces

Q = PA,S N y además PA,S = Q + PN ,

donde N = ker A ∩ S.
Demostración. Ejercicio. Se sugiere un camino similar al de la Obs. 12.7.7. 
Ejercicio 12.7.11. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea P = PS .
Supongamos que R(A) v H. Entonces

1. Los subespacios R(P AP ), R(AP ) y R(A1/2 P ) son cerrados.

2. Si ker A ∩ S = {0}, se tienen las siguientes igualdades

PA,S = (P AP )† P A = (AP )† AS ⊥

= I − Pker A − A† SC A , S ⊥


= (A1/2 P )† PM A1/2 ,

donde M = A1/2 (S) . 4

Observación 12.7.12. Sean A, B ∈ L(H)+ , S v H y P = PS . Supongamos que P A = P B,


o sea que    
a b S a b S
A= ∗ ⊥ y B= ∗ .
b c1 S b c2 S⊥

316
Por la Prop. 12.2.1 y mirando la Def. 12.2.4, uno deduce que
(A, S) es compatible ⇐⇒ (B, S) es compatible
y, en tal caso, que PA,S = PB,S , porque ambas cosas dependen sólo de a y de b. Usando
estos hechos, podremos en adelante cambiar libremente un dado A ∈ L(H)+ por A + Y para
cualquier Y ∈ L(H)+ tal que P Y = 0. Esto no cambiará la compatibilidad o no con S, ni
la proyección minimal asociada. Observar que esto ya fué usado en la Prop. 12.3.6. 4
Proposición 12.7.13. Sean A ∈ L(H)+ y S,  T v Htales que S ⊆ T . Supongamos que T
Z 0 T
que reduce A, es decir PT A = APT . Si A = entonces (A, S) es compatible
0 Y T⊥
si y sólo si (Z, S) es compatible en L(T ). En tal caso,
 
PZ, S 0 T
PA, S = ,
0 0 T⊥
donde también pesamos PZ, S ∈ L(T ).
 
PS · Z 0
Demostración. Como S ⊆ T , se tiene que PS A = PS PT A = . Si llamamos
  0 0
Z 0
B = PT A = , la Obs. 12.7.12 muestra la equivalencia de la compatibilidad de los
0 0
pares (A, S) y (B, S), y que PA, S = PB, S (si existen). Observar que
B −1 (S ⊥ ) = Z −1 (T S) ⊥ T ⊥ .
Luego
H = B −1 (S ⊥ ) + S ⇐⇒ T = Z −1 (T S) + S ,
lo que muestra la equivalencia con la compatibilidad de (Z, S). Por otro lado, como T ⊥
es ortogonal tanto a S como a Z −1 (T S), podemos aplicar el Ejer. 12.1.4 (Item 5) para
obtener que N = S ∩ B −1 (S ⊥ ) = S ∩ Z −1 (T S) y además
 
−1 ⊥

−1
 
⊥ PZ, S 0
ker PB, S = B (S ) N = Z (T S) N ⊥ T = ker ,
0 0
 
PZ, S 0
lo que muestra la igualdad PA, S = PB, S = . 
0 0

12.8 Algunos ejemplos


Ejemplo 12.8.1. Sea A ∈ L(H)+ inyectivo con rango denso en H. Sea ξ ∈ R(A1/2 ) y
llamemos Pξ al proyector ortogonal sobre span {ξ}. Entonces R(Pξ ) ⊆ R(A1/2 ) y, por el
teorema de Douglas 9.1.1, Pξ ≤ λA para algún λ > 0. Supondremos que λ = 1, sino
cambiamos A por λA. Por el Cor. 9.2.9 se tiene que
 
A Pξ
B= ∈ L(H ⊕ H)+ .
Pξ A

317
Por la Prop. 9.2.1, R(A) ⊂ R(A1/2 ) en forma estricta (no son iguales). Luego existe ξ ∈
R(A1/2 )\R(A). Sea S = H⊕0 v H⊕H. Entonces S ⊥ = 0⊕H. Veremos que B es inyectivo,
ker SC (B , S) = S, más aun B(S) es cerrado en R(B) (una condición necesaria para la
compatibilidad y que implica que ker SC (B , S) = S). Pero el par (B, S) es incompatible.
En principio, es claro que B no cumple la condición 2 de la Prop. 12.2.1, por lo que el
par (B, S) es incompatible. Sea D la SR de la ecuación Pξ = A1/2 X. Entonces
 

 0 0
SC B , S = .
0 A − D∗ D

Como ker D = ker Pξ , entonces DPξ = D. Ası́ D∗ D = Pξ D∗ D y, si 0 ⊕ η ∈ ker SC B , S ⊥ ,




Aη = D∗ Dη = Pξ D∗ Dη = λξ para algún λ ∈ R =⇒ η=0,

/ R(A) y A es inyectivo. Esto muestra que ker SC B , S ⊥ = S. También



porque ξ ∈

B(ω ⊕ η) = 0 ⊕ 0 =⇒ Aω + Pξ η = 0 = Aη + Pξ ω =⇒ Aω = Aη = 0 =⇒ ω = η = 0 ,

lo que muestra que B es inyectivo. Finalmente,



B(H ⊕ 0) = H ⊕ span {ξ} ∩ R(B),

porque B(H ⊕ 0) ⊆ H ⊕ span {ξ} y, si ω 6= 0, entonces 0 6= Aω ∈


/ span {ξ}, por lo que,
cualquiera sea η ∈ H, se tiene que

B(η ⊕ ω) = Aη + Pξ ω ⊕ Pξ η + Aω ∈
/ H ⊕ span {ξ} .

Esto prueba que B(S) es cerrado en R(B). 4


Observación 12.8.2. Sean P ∈ P con R(P ) = S y A ∈ L(H)+ . Por la Obs. 12.2.3, si
dim S < ∞, entonces (A, S) es compatible. Por otro lado, si dim S ⊥ < ∞ y R(A) v H,
también (A, S) es compatible,
 en este caso por la Prop. 12.4.2 (porque la compatibilidad

depende de que c S , R(A) < 1). Sin embargo, si R(A) 6v H, entonces el Ejemplo 12.8.3
mostrará que la compatibilidad puede fallar, aún con dim S ⊥ < ∞. 4
Ejemplo 12.8.3. Sea A ∈ L(H)+ inyectivo con rango denso en H. Fijemos ξ ∈ / R(A) vector
unitario. Sean Pξ el proyector ortogonal sobre span {ξ}, P = I − Pξ y S = {ξ}⊥ = R(P ). Si
 
a b S
A= y Aξ = λξ + η para η ∈ S ,
b∗ c S ⊥ = span {ξ}

entonces λ = hAξ, ξi =
6 0 y η 6= 0, porque sino valdrı́a que ξ ∈ R(A). Luego

c = λPξ y b (µξ) = P A(µξ) = µ η para cada µ ∈ C =⇒ b = η ⊗ ξ .

Si sucediera que η ∈ R(a), i.e. que exista ν ∈ S tal que aν = bξ, entonces

P A(ν − ξ) = aν − bξ = 0 =⇒ A(ν − ξ) ∈ span {ξ} .

318
Como ξ ∈ / R(A), tendrı́amos que ν = ξ, una contradicción. Ası́ que R(b) 6⊆ R(a) y el par
(A, S) es incompatible, aunque dim S ⊥ = 1. Sea d ∈ L(S ⊥ , S) la SR de la ecuación a1/2 x = b.
Como η ∈ / R(a) y a1/2 es inyectivo en S, podemos deducir que R(a1/2 ) ∩ R(d) = {0}.
Consideremos ahora el operador
 
a b
B= ∈ L(H)+ .
b∗ dd∗

Por lo anterior (B, S) es también incompatible, pero además SC B , S ⊥ = 0. Veremos que




B es inyectivo. En efecto,
   1/2   1/2   1/2 
a a1/2 d a 0 a d a d
B= = =⇒ ker B = ker = {0} ,
d∗ a1/2 dd∗ d∗ 0 0 0 0 0

porque R(a1/2 ) ∩ R(d) = {0}, a1/2 es inyectivo en S y porque d es inyectivo en S ⊥ .


Este ejemplo muestra también que la condición ker SC B , S ⊥ = ker B + S que aparece
en el Teo. 12.3.5 es imprescindible. Acá no se cumple esa, pero sı́ la inclusión de los rangos,
porque SC B , S ⊥ = 0 (y ker B = {0}), y por eso (B, S) es incompatible. En ese sentido,
este ejemplo se complementa con el anterior 12.8.1, donde las cosas se daban al revés, y tam-
poco habı́a compatibilidad. Por ello estos ejemplos dicen que ninguna de las dos condiciones
pedidas en el Teo. 12.3.5 (la de rangos y la de núcleos) implica la otra, ni siquiera cuando B
es inyectivo. Recordar que en el caso de rango cerrado, alcanza con la de los núcleos. 4
12.8.4. Dados A, B ∈ L(H)+ , decimos que están en la misma ”componente de Thompson”,
y lo notamos
A ∼ B si R(A1/2 ) = R(B 1/2 ) ⇐⇒ λA ≤ B ≤ µA
para ciertas constantes λ, µ > 0. Una pregunta natural: Dado S v H, ¿es cierto que (A, S)
es compatible si y sólo si (B, S) es compatible? Esto resulta cierto si los rango s son cerrados,
por el Cor. 12.4.4. Lamentablemente, en el caso general la respuesta es NO, como veremos
en el siguiente Ejemplo. Antes necesitamos un Lema. 4
Lema 12.8.5. Sean A, B ∈ L(H)+ .
1. Si R(A) = R(B) entonces R(At ) = R(B t ) para todo 0 ≤ t ≤ 1. En particular A ∼ B.
2. Si R(A) 6v H, existe D ∈ L(H)+ tal que A ∼ D pero R(A) 6= R(D). Esto dice que el
item 1 no vale en general para potencias t > 1.
Demostración.
1. Por el Teorema de Douglas 9.1.1, el que R(A) = R(B) implica que existen λ, µ > 0
tales que λA2 ≤ B 2 ≤ µA2 . Por el Teorema de Löwner [121] (ver también el Teorema
4.2.6 de nuestro tomo I, cuya prueba se extiende al caso de L(H) mutatis mutandis),
deducimos que
λt A2t ≤ B 2t ≤ µt A2t =⇒ R(At ) = R(B t ) , para todo 0≤t≤1.
Tomando t = 1/2 tenemos que A ∼ B.

319
2. Llamemmos C = A1/2 . Dado G ∈ Gl(H)+ , el Cor. 9.1.2 dice que

R(C) = R(CG1/2 ) = R (CGC)1/2 .




Veremos que se puede encontrar un G tal que R(A) 6= R(CGC). En efecto, tomemos

(a) ξ ∈ R(C) \ R(A) (existe por la Prop. 9.2.1 ).


(b) η ∈ (ker C)⊥ tal que Cη = ξ.
(c) ρ ∈ R(C) tal que hη, ρi > 0 (existe porque R(C) es denso en (ker C)⊥ ).
(d) G ∈ Gl(H)+ tal que Gρ = η.

Este último paso es algo más complicado (porque le pedimos a G que sea positivo).
Pero la hipótesis de que hη, ρi > 0 (lo que dará que hGρ, ρi > 0) permite construir un tal
positivo invertible que opere sólo en Z = span {ρ, η} (ejercicio) y después completarlo
como uno guste en Z ⊥ . Hecho todo esto, tenemos que

ξ = Cη = CGρ ∈ R(CGC) \ R(A) .

Finalmente, tomemos D = CGC 


Ejemplo 12.8.6. Sea A ∈ L(H)+ inyectivo pero no invertible. Sea B ∈ L(H)+ tal que
A ∼ B y λA ≤ B ≤ µA para λ < 1 < µ. Por el Lema 12.8.5, podemos suponer que
R(A) 6= R(B). Luego existe ξ ∈ R(A) \ R(B) ⊆ R(A1/2 ) = R(B 1/2 ). Sea Pξ al proyector
ortogonal sobre span {ξ}. Entonces R(Pξ ) ⊆ R(A1/2 ) = R(B 1/2 ). Por el Teorema de Douglas
9.1.1 asumimos que 2Pξ ≤ A y que 2Pξ ≤ B. Como en el Ejem. 12.8.1, tomemos
   
A Pξ + B Pξ
MA = ∈ L(H ⊕ H) y MB = ∈ L(H ⊕ H)+ .
Pξ A Pξ B

Sean S = H ⊕ 0 y S ⊥ = 0 ⊕ H. Se vió en el Ejem. 12.8.1 que MB es inyectivo pero (MB , S)


es incompatible. Por otro lado, como ξ ∈ R(A), entonces (MA , S) sı́ es compatible. Veremos
que MA ∼ MB , lo que dará la respuesta negativa a la conjetira anterior. En efecto,
1 1 1
2Pξ ≤ A y B≤A =⇒ 2A − B ≥ 2Pξ ≥ (2 − )Pξ .
µ µ µ
Por lo tanto, por el Cor. 9.2.9,
   
A Pξ 1 B Pξ 1
2MA = 2 ≥ = MB .
Pξ A µ Pξ B µ
Análogamente 2Pξ ≤ B y λA ≤ B =⇒ 2B − λA ≥ 2Pξ ≥ (2 − λ)Pξ . Por lo tanto
   
B Pξ A Pξ
2MB = 2 ≥λ = λMA ,
Pξ B Pξ A

lo que muestra que MA ∼ MB . 4

320
Ejemplo 12.8.7. Sea A ∈ L(H)+ y tomemos
   1/2   1/2 
A A1/2 A 0 A I
M= = ∈ L(H ⊕ H)+
A1/2 I I 0 0 0
 
A1/2 I
como en el Ejem. 12.2.2. Sean S = H ⊕ {0} y N = . Como M = N ∗ N , entonces
0 0
ker M = ker N = {ξ ⊕ −A1/2 ξ : ξ ∈ H} que es el gráfico de −A1/2 . Observar que

R(N ) = (R(A1/2 ) + R(I)) ⊕ {0} = S =⇒ R(M ) v H ⊕ H .


 

 0 0
Además SC M , S = , porque la SR de A1/2 X = A1/2 es D = PR(A) . Si
0 Pker A
A ∈ L(H)+ es inyectivo pero no invertible, entonces (M, S) no es compatible (ya sea porque
R(A) 6= R(A1/2 ), porque c [ S , ker M ] = 1, o porque R(A)
 = R(PS M PS ) no es cerrado).
Por la Prop. 12.3.8, deducimos que M (S) 6= R MS ⊥ . Por otra parte, MS ⊥ = M que
tiene rango cerrado. Luego, en este caso, R(MS ⊥ ) = M (S) mientras que M (S) no es cerrado
(ver la Obs. 12.3.7). 4

Ejercicio 12.8.8. Consideremos el conjunto de pares compatibles


n o
+
A = (A, P ) ∈ L(H) × P : el par (A, S) es compatible .

Probar que

1. Si dim H = ∞, entonces A no es ni cerrado ni abierto en L(H)+ × P.

2. La función α : A → Q dada por α(A, P ) = PA,S ( (A, P ) ∈ A) NO es continua. 4

321
Capı́tulo 13

Proyectores escaleados

Sea S v H. En este capı́tulo estudiaremos cantidades de la forma

sup kPD, S k ,
D∈Γ

donde Γ es cierto subconjunto de L(H)+ y S v H. Estas cantidades están estrechamente vin-


culadas con problemas de cuadrados mı́nimos y con cuestiones de programación númerica. Si
bien en estos casos los espacios de Hilbert involucrados son finito dimensionales, extensiones
a espacios más generales no sólo pueden resultar útiles cuando el conjunto de datos es muy
numeroso y/o la dimensión de los mismos no esta acotada, sino que también, permitiraán
crear un nuevo punto de contacto entre las proyecciones oblicuas y la teorı́a de marcos.
Las herramientas claves que utilizaremos para realizar tales extensiones son la noción de
compatibilidad, las proyecciones A-autoadjuntas y la noción de ángulo entre subespacios.

13.1 Problemas de cuadrados mı́nimos y proyecciones


A-autoadjuntas.
Sea A ∈ Mm,n (C) con rk(A) = n (se asume que m > n) y consideremos el sistema lineal

Ax = b .

Por las caracterı́sticas de la matriz A, este sistema resulta sobredeterminado y si b ∈


/ R(A)
claramente no tiene solución. En este último caso, se suele eligir un x de tal forma que
Ax este “cerca” de b, en algún sentido. Usualmente, esa noción de cercanı́a se escribe del
siguiente modo:
kAx − bk = minn kAz − bk2 . (13.1)
z∈C

Sin embargo, muchas veces es necesario reescalear el producto escalar, de modo que las
coordenadas de un vector dado respecto a la base canónica de Cm posean distintos pesos.
Este proceso se lleva a cabo perturbando el producto escalar por medio de un matriz D

322
diagonal respecto a la base canónica, positiva e inversible. El nuevo producto interno se
define del siguiente modo
hx, yiD = hDx, yi .
Respecto a la norma que induce este producto interno, el problema de minimización (13.1)
se reescribe de la siguiente forma:
kD1/2 (AxD − b)k = minn kD1/2 (Az − b)k2 . (13.2)
z∈C

Se puede incluso perturbar el producto interno con matrices diagonales semidefinidas pos-
itivas, aunque en este caso pueden existir más de una solución del problema (13.2). Un
notable teorema de Ben-Tal y Teboulle establece que las soluciones xD se hallan todas en
la cápsula convexa de ciertas soluciones singulares xI . Para enunciar precisamente este
resultado, necesitamos introducir cierta notación.
Definición 13.1.1. Sean A ∈ Mm,n (C) (con m ≥ n) y b ∈ Cm .
1. Dado un conjunto de ı́ndices I = {α1 , . . . , αn } ⊆ Im (se asume que α1 < . . . < αn ),
escribiremos I ⊆n Im .
2. Si I ⊆n Im , llamaremos AI a la submatriz de n × n de A dada por:
AI = (Aαi , j )i,j∈In ∈ Mn (C) , (13.3)
o sea que AI es es la matriz resultante quedarse con las filas de A con ı́ndice en I.
3. En cambio, si D ∈ Mm (C), DI ∈ Mn (C) denotará la submatriz de D resultante
quedarse con las entradas de D con ı́ndice en I × I.
4. Análogamente, el vector bI denotará el vector de Cn dado por bI = (bα1 , . . . , bαn ).

5. Llamaremos J(A) = I ⊆n Im : AI ∈ Gl (n) . Observar que J(A) 6= ∅ si y sólo si
rkA = n. 4
Observación 13.1.2. Se usarán en esta sección resultados sobre determinantes, que han sido
probados en el Capı́tulo 10 Sección 2 del Tomo I de este libro. A continuación reenunciaremos
dichos resultados. 4
Proposición 13.1.3. Sea A ∈ Gl (n). Entonces se tiene la fórmula siguiente
det A(j|i)
(A−1 )ij = (−1)i+j , i, j ∈ In , (13.4)
det A
donde A(j|i) ∈ Mn−1 (C) es la matriz resultante de sacarle a A la columna i-ésima y la fila
j-ésima. De ella se deduce fácilmente la otra versión del cálculo de A−1 , conocida como la
regla de Cramer: Si b ∈ Cn , entonces
det(A −−→ b)
i∈ I
A−1 (b)i = , i ∈ In , (13.5)
det A
donde A −−→ b denota a la matriz resultante de cambiarle a A la columna Ci (A) por b. 
i∈ I

323
Proposición 13.1.4 (Fórmula de Cauchy Binnet). Sean A ∈ Mn,m (C) y B ∈ Mm,n (C) ,
con n ≤ m. Luego, X
det AB = det I A · det BI , (13.6)
I⊆n Im

donde I A ∈ Mn (C) es la matriz resultante quedarse con las columnas de A con ı́ndice en I,
al revés que en la Ec. (13.3) que define BI . 

A lo largo de esta sección usaremos las siguiente notaciones:

1. Dm ⊆ Mm (C) denotará el álgebra abeliana de matrices diagonales.

2. P(Dm ) el conjunto de proyecciones en Dm .


+
3. Dm denota al cono de matrices positivas de Dm .

4. Dado I ⊆n Im , llamaremos QI ∈ P(Dm ) a la proyección que verifica que R(QI ) =


span {ei : i ∈ I}.

5. Sean A ∈ Mm,n (C) (con m ≥ n) e I ∈ J(A). A veces haremos el abuso de notacion

AI = QI A y A−1
I = (QI A)
−1
= (QI A)−1 QI ,

que consiste en ingnorar las filas nulas de QI A y pensarla en Mn (C). En forma


parecida, se identifica bI con QI b, para b ∈ Cm .

Definición 13.1.5. Dos subespacios S, T v H están en posición P’ si T ⊥ ∩ S = T ∩ S ⊥ =


{0}. En tal caso, escribiremos S Y T . 4
Proposición 13.1.6. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n. Denotaremos por
S = R(A) v Cm . Sean, además, D ∈ Dm
+
y Q ∈ P(Dm ). Entonces

1. PD, S = A(A∗ DA)−1 A∗ D.

2. I ∈ J(A) si y sólo si R(QI ) Y S.

3. Si R(Q) Y R(A) entonces PQ, S = A(QA)−1 Q.

Demostración.

1. Una cuenta directa muestra que A(A∗ DA)−1 A∗ D es un proyector con rango S. Ahora
basta notar que DA(A∗ DA)−1 A∗ D es autoadjunto, pues al ser D inversible, existe una
única proyección D-autoadjunta.

2. Por definición de J(A), I ∈ J(A) si y sólo si QA : Cn → R(Q) es biyectivo, lo cual


es equivalente a que tanto QA : Cn → R(Q) como A∗ Q : R(Q) → Cn sean inyectivos.
Pero QA : Cn → R(Q) es inyectivo si y sólo si S ∩ N (Q) = {0}, y análogamente,
A∗ Q : R(Q) → Cn es inyectivo si y sólo si R(Q) ∩ S ⊥ = R(Q) ∩ N (A∗ ) = {0}. En
consecuencia, I ∈ J(A) si y sólo si R(Q) Y S.

324
3. Claramente, A(QA)−1 Q es una proyección con rango S cuyo núcleo es N (Q). Por otro
lado, por definición R(PQ, R(A) ) = S, y por el Teorema 12.2.1

N (PQ, S ) = Q−1 (S ⊥ ) (N (Q) ∩ S) = N (Q).

Luego A(QA)−1 Q = PQ, R(A) . 

Corolario 13.1.7. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n. Entonces

(A∗ DA)−1 A∗ D = A†D ,

es decir, la seudoinversa de Moore-Penrose de A según h·, ·iD . Además, si I ∈ J(A), entonces


A−1 † ∗ −1 ∗
I ' (QI A) = (A QI A) A QI .

Demostración. La fórmula para A†D se deduce del item 1 de la Prop. 13.1.6, porque PD, R(A)
es la única proyección D-autoadjunta sobre R(A), y el otro producto da la identidad. La
segunda identidad es evidente (si AI ∈ Gl (n), toda inversa de un lado es la inversa). Observar
que hay un pequeño abuso de notación, porque se piensa que A∗ QI tiene dominio en CI ,
para poder escribir que A∗ QI A = A∗ QI AI . 
Usando estos preliminares, podemos enunciar y probar el teorema de Ben-Tal y Teboulle.
+
Proposición 13.1.8. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n y sea D ∈ Dm .
Entonces,
 
X  det DI | det AI |2 
PD, R(A) = A(A∗ DA)−1 A∗ D =  A(QI A)−1 QI .
 
 X
2
I∈J(A)
 det DJ | det AJ | 
J∈J(A)

 
En particular, PD, R(A) ∈ conv PQ, R(A) : Q ∈ J(A) .
X
Demostración. Fijemos b ∈ Cm . Llamemos M = det DJ | det AJ |2 e y = A∗ Db. La
J∈J(A)
cuenta que sigue se va a la otra página, porque es muy larga:

325
Entonces, por la Prop. 13.1.3, para cada i ∈ Im ,

det(A∗ DA −−→ A∗ Db) det A∗ D(A −−→ b)


∗ −1
 i∈ I i∈ I
(A DA) y = =
i det A∗ DA det A∗ DA
X
det I (A∗ D) det(A −−→ b)I
i∈ I
I⊆n Im
= X (por Cauchy-Binnet)
det J (A∗ D) det AJ
J∈J(A)

X
= M −1 det DI det A∗I det(A −−→ b)I
i∈ I
I∈J(A)

X det(A −−→ b)I


i∈ I
= M −1 det DI | det AI |2
det AI
I∈J(A)

X  det DI | det AI |2 
= A−1
I (bI )i .
M
I∈J(A)

Juntando todos los i ∈ Im y recordando que cada A−1I = (A∗ QI A)−1 A∗ QI = (QI A)−1 QI ,
como los coficientes no dependen de b, tenemos que
X  det DI | det AI |2 
†D ∗ −1 ∗
A = (A DA) A D = (QI A)−1 QI .
M
I∈J(A)

Multiplicando por A y aplicando la Prop. 13.1.6, estamos. 


Un año antes que apareciera el trabajo de Ben-Tal y Teboulle, Stewart demostró que

MA = sup kA(A∗ DA)−1 A∗ Dk : D ∈ Dm +



= sup kPD, R(A) k < ∞ . (13.7)
+
D∈Dm

Este resultado, a partir de la Prop. 13.1.8, resulta muy sencillo de probar:


Corolario 13.1.9. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n. Entonces

MA ≤ max kA(QI A)−1 QI k < ∞ ,


I∈J(A)

ya que J(A) es finito. 

Por otra parte, de la teorı́a de inversas generalizadas, es bien sabido que la solución del
problema (13.2) está dada por

xD = (D1/2 A)† D1/2 b = (A∗ DA)−1 A∗ Db = A†D b ,

326
mientras que la solución del sistema reducido AI x = bI puede escribirse del siguiente modo:

xI = (QI A)† QI b = A−1


I bI ,

para cada I ∈ J(A).


Corolario 13.1.10 (Ben-Tal y Teboulle). Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n
+
y sea D ∈ Dm . Entonces, la solución xD del problema de cuadrados mı́nimos
 

1/2 2
X  det DI | det AI |2 
 −1
min kD (Az − b)k está dada por xD =  A I bI .

 X 2
z∈Cn  det DJ | det AJ | 
I∈J(A)
J∈J(A)

Observar que cada xI = A−1


I bI es la solución del mismo problema, escaleado con QI . 
Observación 13.1.11. Usando la Prop. 13.1.6, la Prop. 13.1.8 puede reescribirse del sigu-
iente modo: Sea S v Cm y sea D ∈ Dm
+
. Entonces

PD, S ∈ conv [{PQ, S : Q ∈ P(Dm ) y R(Q) Y S}] . (13.8)

En particular,
n o
sup kPD, S k ≤ max kPQ, S k : Q ∈ P(Dm ) : R(Q) Y S . (13.9)
+
D∈Dm

La desigualdad (13.9) es en realidad una igualdad. Este hecho fue demostrado por el mismo
Stewart y también es una consecuencia de la siguiente Proposición. Es importante destacar
que si uno no se restringe a matrices diagonales, el supremo de las normas de los PA, S no
está acotado, aún cuando A sea inversible. De aquı́ la importancia del resultado obtenido
por Stewart. 4
+
Proposición 13.1.12. Sea S v Cm y denotemos por medio de D0,m al conjunto de matrices
diagonales, semidefinidas positivas de m × m. Entonces

sup kPD, S k = sup kPD, S k. (13.10)


+ +
D∈Dm D∈D0,m

+
Demostración. Sea D ∈ D0,m y consideremos la sucesión de matrices positivas e inversibles
{Dk }k≥1 definidas por:
1
Dk = D + I.
k
Si N = S ∩ N (D), entonces

A + k1 I 0
   
A 0 B S N B S N
1
D=  0 0 0  N y Dk =  0 k
I 0  N ,
∗ ⊥ ∗ 1 ⊥
B 0 C S B 0 C + kI S

327
1
donde A, y por lo tanto A + I son inversibles. Luego, por el Teorema 12.2.1,
k

I 0 (A + k1 I)−1 B I 0 A−1 B
   

PDk , S = 0 I 0  y PD, S = 0 I 0 .
0 0 0 0 0 0
En consecuencia obtenemos
kPD, S k = lim kPDk , S k ≤ sup kPD0 , S k
k→∞ +
D0 ∈Dm

lo cual prueba una desigualdad. La otra es consecuencia de (13.9). 


Observación 13.1.13. Un resultado similar sigue valiendo si uno trabaja con operadores
diagonales (respecto de alguna BON fija) en un Hilbert H de dimensión infinita. El punto
álgido es donde se afirma que A es inversible (por ser mono). Eso deja de ser cierto en
general en este contexto. Pero sı́ es cierto si uno supone que R(D) v H y que (D, S) es
compatible. Porque entonces el Teo. 12.4.2 asegura que R(PS DPS ) = R(A) v H. 4

Corolario 13.1.14. Sea S v Cm . Entonces


n o
sup kPD, S k = max kPQ, S k : Q ∈ P(Dn ) : R(Q) Y S . (13.11)
+
D∈Dm

Observación 13.1.15. En su trabajo, Stewart observó que si U ∈ Mm,n (C) es una matriz
cuyas columnas forman una base ortonormal del R(A) y mI denota el menor valor singular
no mulo de la submatriz UI , entonces:
MA−1 ≤ min mI : I ⊆n Im .

(13.12)
Más aún, Stewart conjeturó que valı́a la igualdad en (13.12), lo cual fue demostrado pos-
teriormente por O’Leary. Veamos como esta igualdad se deduce a partir de los resultados
anteriores. Comencemos notando que por el Teorema 13.1.12, el máximo en (13.11) puede
tomarse tanto sobre todas las proyecciones en posición P’ con S = R(A) = R(U ) como sobre
todas la proyecciones diagonales cuyo rango tiene dimensión n. Luego,
n o
MA = sup kPD, S k = max kPQI , S k : I ⊆n Im .
+
D∈Dn

Fijemos I ⊆n Im . Por la Prop. 12.5.3,


kPQI , S k−1 = s [ S , N (QI ) ] = γ(QI U ) .
Pero, mI = γ(QI U ). En consecuencia,
n o
MA−1 = min kPQI , S k −1
: I ⊆n Im
kPQI , S k−1 = mI =⇒

= min mI : I ⊆n Im ,
como afirmábamos. 4

328
13.2 Proyecciones escaleadas en dimensión infinita.
Sea H un espacio de Hilbert separable y S v H. A lo largo de de esta sección, estudiaremos
cantidades del tipo supD∈Γ kPD, S k, donde Γ denota algún subconjunto de L(H)+ .
Más precisamente, fijemos una base ortonormal B = {en }n∈N del espacio de Hilbert
H, y sea D el álgebra abeliana de todos los operadores diagonales con respecto a B, i.e.
C ∈ L(H) pertenece a D si existe una sucesión acotada de números complejos {cn }n∈N tal
que Cen = cn en (n ∈ N). Los subconjuntos Γ que consideraremos serán los siguientes:

1. D+ , el conjunto de elementos positivos e inversibles en D (i.e. todos los cn > ε, para


algún ε > 0),

2. P(D), el conjunto de las proyecciones en D (i.e. cn = 0 o 1),

3. P0 (D), el conjunto de elementos en P(D) con rango finito,

4. P0,S ⊥ (D), el conjunto de elementos Q ∈ P0 (D) tales que R(Q) ∩ S ⊥ = {0},

A diferencia de lo que ocurre en espacios de dimensión finita estos supremos pueden no


ser finitos, aun cuando el subespacio S sea finito dimensional. En tal sentido, el siguiente
ejemplo es contundente:

n
X
Ejemplo 13.2.1. Sea S el subespacio generado por x = 2− 2 en . Luego
n=1

1 1 
PD, S = h · , Dxi x = x Dx ,
kD1/2 (x)k2 kD1/2 (x)k2

para todo D ∈ D+ . En efecto, una cuenta bastante simple muestra que el operador de
la derecha es idempotente, que proyecta sobre span {x} y que D (x Dx) = Dx Dx es
autoadjunto. Fijado n ≥ 1, sean Qn = en en y, para cada k ∈ N, Dk = Qn + k1 (I−Qn ) ∈ D+ .
1/2
Entonces Dk −−−→ Qn y también Dk −−−→ Qn . Por lo tanto,
k→∞ k→∞

n
1  2− 2  n 
PDk , S −−−→ x Qn x = n x e n = 2 2 x e
n .
k→∞ kQn xk2 k2− 2 en k2

Esto muestra que lim kPDk , S k2 = 2n , y por ende sup kPD, S k = ∞. 4


k→∞ D∈D+

Esto motiva la siguiente definición:


Definición 13.2.2. Dado S v H, se dice que S es compatible con respecto a B si

sup kPD, S k < ∞ . (13.13)


D∈D+

En tal caso también diremos que S es B-compatible. 4

329
En esta sección mostraremos que la B-compatibilidad de un subespacio S es equivalente
a que supD∈Γ kPD, S k sea finito, donde Γ denota alguno de los subconjuntos de operadores
diagonales mencionados anteriormente. Comenzaremos demostrando que un subespacio S
es B-compatible si y sólo si el par (Q, S) es compatible para cada Q ∈ P(D) y además

sup kPQ, A k < ∞ .


Q∈P(D)

Esto nos ayudará a obtener caracterizaciones alternativas de la B-compatibilidad en términos


de ángulos entre subespacios y de propiedades de aproximación finita que estos subespacios
poseen. Luego, daremos una versión del teorema de Ben-Tal y Teboule para subespacios
B-compatibles, que finalmente nos permitirá demostrar que un subespacio es B-compatible
si y sólo si sup kPQ, S k es finito.
Q∈P0,S ⊥ (D)

A lo largo de esta sección fijaremos una BON B = {en }n∈N de H, y un subespacio S v H.


Usaremos las siguientes notaciones: Para cada I ⊆ N,
1. HI = span {ei : i ∈ I}.

2. QI es la proyección ortogonal sobre HI .

3. En particular, si n ∈ N, abreviaremos Hn = HIn y Qn = QIn = PHn .

4. También notaremos SI = S ∩ HI (I ⊆ N) y Sn = S ∩ Hn (n ∈ N).


Comencemos con la siguiente definición:
Definición 13.2.3. Si S es compatible con toda proyección diagonal, entoces definimos la
cantidad K[S, D] del siguiente modo:

K[S, D] = sup kPQ, S k .


Q∈P(D)

En caso de que el par (Q, S) no sea compatible para alguna proyección Q ∈ P(D) definimos
K[S, D] = ∞. 4

A continuación demostraremos la equivalencia entre la B-compatibilidad de S y la condición


K[S, D] < ∞. Más aún, demostraremos que

K[S, D] = sup kPQ, S k = sup kPD, S k.


Q∈P(D) D∈D+

Comenzaremos por la parte más sencilla:


Proposición 13.2.4. Supongamos que S es B-compatible. Entonces (Q, S) es compatible
para todo Q ∈ P(D) y además:

K[S, D] = sup kPQ, S k ≤ sup kPD, S k.


Q∈P(D) D∈D+

330
Demostración. Sólo demostraremos que dado Q ∈ P(D), entonces el par (Q, S) es compati-
ble. En tal caso, el resto de la demostración seguirı́a las mismas lineas que la demostración
de la Proposición 13.1.12 y la Obs. 13.1.13.
Fijemos Q ∈ P(D) y definamos la sucesión {Dk }k∈N en D+ dados por Dk = Q + k1 I.
Entonces los proyectores PDk , S están bien definidos y, por hipótesis, sabemos que

sup kPDk , S k < ∞.


k≥1

Por lo tanto, la sucesión {PDk , S } posee un punto lı́mite P respecto a la topologı́a débil
de operadores (WOT), pues la bola unitaria de L(H) es WOT-compacta (Prop. 7.6.21).
Además, como el espacio H es separable, la topologı́a WOT es metrizable en la bola. Luego,
W.O.T.
podemos suponer que PDk , S −−−→ P . De no ser ası́, existe una subsucesión de {PDk , S }k∈N
n→∞
la cual converge, y utilizamos dicha subsucesión.
Demostraremos que P ∈ P(Q, S), es decir, P 2 = P , R(P ) = S y QP = P ∗ Q. Las primeras
dos condiciones surgen de hecho de que para todo k ∈ N,
   
1 Xk S 1 X S
PDk , S = , luego P = ,
0 0 S⊥ 0 0 S⊥

donde X es el lı́mite débil de la sucesión Xk = PS Dk (1 − PS ). Por otro lado,

Dk PDk , S = PD∗ k , S Dk para cada k∈N.


W.O.T.
Un simple argumento del tipo ε/2 muestra que Dk PDk , S −−−→ QP . Por ende, tomando
n→∞
lı́mite en la identidad recientemente mencionada y usando el hecho de que la involución es
continua respecto a la topologı́a débil de operadores, resulta que QP = P ∗ Q. 
Para demostrar la recı́proca, es necesario probar antes algunos lemas. El primero es el paso
clave de toda esta sección, y da una idea de que la compatibilidad con una BON es una
condición muy restrictiva.
Lema 13.2.5. Sea S v H y sea B = {en }n∈N una BON de H. Supongamos que existe una
sucesión {In }n∈N en PF (N) y una constante c < 1 tales que
[
In ⊆ In+1 , In = N y c [ S , HIn ] ≤ c , n ∈ N .
n∈N
!
[
Entonces c l S ∩ H In =S .
n∈N

Demostración. Llamemos Qn = PIn , n ∈ N. El enunciado del Lema equivale a decir que


SOT
PS ∧ Qn % PS .
n→∞

331
ε
Sea x ∈ H un vector unitario y sea ε > 0. Sea k ∈ N tal que c2k−1 ≤ . Por la Prop. 8.4.14,
2
se tiene que ε
k
(PS Qn ) − PS ∧ Qn ≤ para todo n ∈ N .

2
S.O.T.
Por otro lado, como Qn PS −−−→ PS y la función f (t) = tk es SOT-continua en conjuntos
n→∞
acotados (ver, por ejemplo, 2.3.2 en [1]), existe n0 ∈ N tal que
h i ε
k
(Qn PS ) − PS x < para todo n ∈ N .

2
Luego, para todo n ≥ n0 , tenemos que
h i  
k(PS − PS ∧ Qn ) xk ≤ PS − (PS Qn )k x + (PS Qn )k − PS ∧ Qn x < ε .

S.O.T.
Como esto sucede para todo x ∈ H, se tiene que PS ∧ Qn −−−→ PS . 
n→∞

El Lema anterior nos permitirá hacer un estudio local del subespacio S en ambientes de
dimensión finita, donde se pueden aplicar los resultados de la sección anterior.
Lema 13.2.6. Si S está incluido en algún Hn , entonces S es B-compatible. Más aún

{PD, S : D ∈ D+ } ⊆ conv PQ, S : Q ∈ P(D), Q ≤ Qn y R(Q) Y S .


 

En particular,
n o
sup kPD, S k ≤ sup kPQ, S k : Q ∈ P(D), Q ≤ Qn y R(Q) Y S = K [ S, D ] .
D∈D+

Demostración. Dado D ∈ D, D ≥ 0 (esto vale tanto para D ∈ D+ como para D ∈ P(D) ), el


subespacio Hn reduce a D. Luego, la descomposición matricial de D inducida por Hn tiene
la siguiente forma:  
D1 0 Hn
D= .
0 D2 Hn⊥
Más aún, por la Prop. 12.7.13, el par (D, S) es compatible y
 
PD1 , S 0 Hn
PD, S = , (13.14)
0 0 Hn⊥

donde pensamos a PD1 , S ∈ L(Hn ). Como dim Hn < ∞, la B-compatibilidad de S y el resto


de las afirmaciones se deducen ahora de la Prop. 13.1.8 y el Cor. 13.1.14. Observar que si
S ⊆ Hn y Q ≤ Qn , la condición R(Q) Y S da lo mismo pensarla en Hn o en H. 
Lema 13.2.7. Dado n ∈ N, entonces:

K [ Sn , D ] = sup kPQ, Sn k ≤ sup kPQ, S k = K[S, D]


Q∈P(D) Q∈P(D)

332
Demostración. Usando el Lema 13.2.6 se tiene que:

K [ Sn , D ] = sup kPQ, Sn k : Q ∈ P(D), Q ≤ Qn y R(Q) Y Sn .

Luego, basta probar la desigualdad kPQ, Sn k ≤ K[S, D] para cada Q ∈ P(D) tal que R(Q)YSn
y Q ≤ Qn . Para una tal Q, consideremos
 Q

b = Q + (1 − Qn ) ∈ P(D). Entonces se tiene que
b = N (Q) ∩ Hn y, como N (Q) ∩ Hn ∩ S = N (Q) ∩ Sn = {0},
N (Q)

c [ N (Q) , Sn ] = sup{ | hx, yi | : x ∈ N (Q), y ∈ Sn tales que kxk = kyk = 1}

= sup{ | hx, yi | : x ∈ N (Q) ∩ Hn , y ∈ Sn tales que kxk = kyk = 1}

≤ sup{ | hx, yi | : x ∈ N (Q) ∩ Hn , y ∈ S tales que kxk = kyk = 1}

h i
b ,S .
= c N (Q)

Por lo tanto, usando la Prop. 12.5.3, obtenemos


h i−1
kPQ, Sn k = s [ N (Q) , Sn ]−1 ≤ s N (Q)
b ,S b S k ≤ K[S, D] ,
= kPQ,

tal como querı́amos demostrar. 


Observación 13.2.8. Por la Prop. 12.5.3, sabemos que kPQ, S k = s [ N (Q) , S ]−1 . Por lo
tanto, como Q −→ (1 − Q) establece una biyección en el conjunto P(D), se tiene que:

K[Sn , D] ≤ sup s [ N (Q) , S ]−1 = sup s [ R(Q) , S ]−1 .


Q∈P(D) Q∈P(D)

Más aún, también se tiene que K[Sn , D] ≤ sup s [ R(Q) , S ]−1 . En efecto, la demostración
Q∈P0 (D)
del lema anterior muestra que, con la notación allı́ empleada, para acotar a K[Sn , D] basta
considerar las proyecciones E = 1 − Q
b ∈ P0 (D). 4

Ahora sı́ estamos en condiciones de probar la recı́proca:


Proposición 13.2.9. Si K[S, D] < ∞, entonces, S es B-compatible. Más aún

sup kPD, S k = sup kPQ, S k = K[S, D].


D∈D+ Q∈P(D)

Demostración. Por el hecho de que K[S, D] < ∞, si calculamos los cosenos c [ S , Hn ],


n ∈ N, usando la Prop. 12.5.3, vemos que podemos aplicar el Lema 13.2.5 y deducir que
[
S0 = Sn es densa en S .
n∈N

333
Fijemos ahora un D ∈ D+ . Recordemos que k · kD es la norma definida por kxkD = kD1/2 xk.
Como D ∈ Gl(H)+ , se tiene que k · kD es equivalente la norma usual. Por ende, S0 es densa
en S con respecto a ambas normas k · kD y k · k. Fijemos un vector unitario x ∈ H. Como
PD, S (resp. PD, Sn ) es la proyección D-ortogonal sobre el subespacio S (resp. Sn ), entonces
k ·kD k ·k
PD, Sn x −−−→ PD, S x =⇒ PD, Sn x −−−→ PD, S x ,
n→∞ n→∞

usando nuevamente que k · kD ∼ k · k. Por los Lemas 13.2.7 y 13.2.6, resulta que

kPD, Sn xk ≤ kPD, Sn k ≤ K[Sn , D] ≤ K[S, D] para todo n∈N.

Luego kPD, S xk = lim kPD, Sn xk ≤ K[S, D]. Moviendo los vectores unitarios x ∈ H,
n→∞
llegamos a que kPD, S k ≤ K[S, D]. Finalmente, como D es arbitario, la proposición queda
demostrada. 

13.3 Caracterizaciones de la B-compatibilidad


Como consecuencia de las Proposiciones 13.2.4 y 13.2.9 y de los lemas utilizados para de-
mostrar esta última, obtenemos las siguientes caracterizaciones de la B-compatibilidad. La
primera de ellas es en términos de ángulos entre subespacios.
Teorema 13.3.1. Sean S v H y B una BON de H. Entonces las siguientes condiciones son
equivalentes:

1. S es B-compatible.

2. C(S) = sup c [ S , R(Q) ] : Q ∈ P(D) < 1.

3. CF (S) = sup c [ S , R(Q) ] : Q ∈ P0 (D) < 1.

4. C0 (S) = sup c [ S , R(Q) ] : Q ∈ P0 (D) y R(Q) ∩ S = {0} < 1.

Más aún, siempre se tiene que C0 (S) = CF (S) = C(S) = C(S ⊥ ) .


Demostración. Por las Proposiciones 13.2.4 y 13.2.9, sabemos S es B-compatible si y sólo si
K[S, D] < ∞. Recordemos por otra parte que, por la Prop. 12.5.3, si Q ∈ P(D),
−1/2 2 −1/2
kPQ, S k = 1 − c [ N (Q) , S ]2 = 1 − c R(Q) , S ⊥

.

Luego, claramente K[S, D] < ∞ si y sólo si C(S ⊥ ) < 1. La igualdad C(S) = C(S ⊥ ) se
deduce de la Prop. 8.4.10 y del hecho de que la aplicación Q 7→ I − Q es biyectiva en P(D).
Para mostrar las otras igualdades, observemos primero que C0 (S) ≤ CF (S) ≤ C(S).
Veamos que CF (S) ≤ C0 (S) : Llamemos P = PS ⊥ . Sean I ∈ PF (N) y Q = QI ∈ P0 (D)
tales que P Q 6= 0 (si P Q = 0, entonces c [ S , R(Q) ] = 0 y no interesa). Si sucediera que
HI ∩ S =6 {0} (o sea que Q ∈/ P0,S (D) ), consideremos el conjunto {P ei : i ∈ I}, que genera

334

R(P Q), pero no queda LI (porque P H tiene núcleo no trivial). Extraigamos un J ⊆ I
I
tal que {P ei : i ∈ J} sea una base de R(P Q). Entonces HJ ∩ S = {0}. Tomemos ahora
E = QJ ∈ P0,S (D), que verifica que E ≤ Q y R(P Q) = R(P E). Observar que entonces
R(P EP ) = R(P QP ) y 0 ≤ P EP ≤ P QP . Usando el Cor. 8.4.6 y las Proposiciones 8.4.9 y
8.4.4, resulta que

s [ S , R(E) ]2 = γ(P E)2 = γ(P EP ) ≤ γ(P QP ) = γ(P Q)2 = s [ S , R(Q) ]2 .

Por lo tanto c [ S , R(Q) ] ≤ c [ S , R(E) ] , y en consecuencia CF (S) ≤ C0 (S) .


Supongamos ahora que CF (S) < 1 (si CF (S) = 1 no hay nada que probar). Como hemos
notado en la Obs. 13.2.8,

sup kPQ, Sn k ≤ (1 − CF (S)2 )−1/2 < ∞ para todo n∈N.


Q∈P(D)


[
Por otro lado, dado que se cumplen sus hipótesis, el Lema 13.2.5 nos asegura que Sn es
n=1
densa en S. Luego, siguiendo la demostración de la Proposición 13.2.9 resulta que

sup kPD, S k ≤ (1 − CF (S)2 )−1/2 .


D∈D+

−1/2
Finalmente, de la Proposición 13.2.4 y la identidad kPQ, S k = 1 − c [ N (Q) , S ]2 , se
obtiene que C(S) ≤ CF (S). 
Corolario 13.3.2. Sean S v H y B una BON de H. Entonces

sup kPD, S k = sup kPQ, S k = sup kPQ, S k = sup kPQ, S k.


D∈D+ Q∈P(D) Q∈P0 (D) Q∈P0,S ⊥ (D)

En particular, estos supremos son finitos si y sólo si S es B-compatible.


Demostración. Las primera igualdad es consecuencia de las Proposiciones 13.2.4 y 13.2.9.
Por otro lado, claramente

sup kPQ, S k ≥ sup kPQ, S k ≥ sup kPQ, S k .


Q∈P(D) Q∈P0 (D) Q∈P0,S ⊥ (D)

Como en el Teorema anterior, por la Prop. 12.5.3,


−1/2 2 −1/2
kPQ, S k = 1 − c [ N (Q) , S ]2 = 1 − c R(Q) , S ⊥

.

Por lo tanto, con las notaciones del Teo. 13.3.1, tenemos que
 −1/2  −1/2
⊥ 2 ⊥ 2
sup kPQ, S k = 1 − C(S ) y sup kPQ, S k = 1 − C0 (S ) ,
Q∈P(D) Q∈P0,S ⊥ (D)

Pero, por el Teo. 13.3.1, C(S ⊥ ) = C0 (S ⊥ ) , y todos los supremos coinciden. 

335
Proposición 13.3.3. Sean S v H y B una BON de H. Entonces las siguientes condiciones
son equivalentes:

1. S es B-compatible.

[
2. a. Sn es denso en S.
n=1

b. Existe M > 0 tal que K [ Sn , D ] = sup kPQ, Sn k ≤ M para todo n ∈ N.


Q∈P(D)

Demostración.

1 ⇒ 2. Por la proposición anterior sup c [ S , R(Q) ] : Q ∈ P(D) < 1. Luego, esta impli-
cación es una consecuencia de los Lemas 13.2.5 y 13.2.7.

2 ⇒ 1. Fijemos D ∈ D+ . El argumento utilizado en la Proposición 13.2.9 para demostrar que


kPD, S k ≤ K[S, D], se puede repetir ahora, usando las hipótesis de 2, para probar que

kPD, S k ≤ sup K[Sn , D] ≤ M < ∞ .


n∈N

Moviendo ahora D ∈ D+ , llegamos a que S es B-compatible. 

Corolario 13.3.4. Sea S v H tal que dim S < ∞. Entonces S es B-compatible si y sólo
si existe un n ∈ N tal que S ⊆ Hn .
Demostración. Observar que, si S ⊆ Hn , entonces S = Sn . Por otro lado, por la
Prop. 12.7.13, se tiene que K[Sm , D] = K[Sn , D] < ∞ para todo m ≥ n. La recı́proca
se deduce de que, como dim S < ∞, la condición 2. a. de la Prop. 13.3.3 sólo puede
cumplirse si existe un n ∈ N tal que S ⊆ Hn . 

Observaciones: 13.3.5.

1. Volver a mirar el Ejem. 13.2.1 en vista del Cor. 13.3.4.

2. Como c [ S , T ] = c S ⊥ , T ⊥ para todo par S, T v H, entonces un subespacio S es


 

B-compatible si y sólo si S ⊥ es B-compatible. Más aún, K[S, D] = K[S ⊥ , D].

3. El hecho de que la compatiblidad de S con B implique que la unión de los Sn es


densa en S, de algún modo, muestra que la condición de B-compatibilidad es bastante
restrictiva. No obstante, como veremos en el siguiente Capı́tulo, estos subespacios
aparecen en las aplicaciones. 4

336
Parte III

Marcos

337
Capı́tulo 14

Frames

Introduciremos algunos hechos básicos sobre marcos (frames) en espacios de Hilbert. Para
una descripción completa de la teorı́a de frames y sus aplicaciones, sugerimos ver el review
de Heil y Walnut [27] o los libros de Young [35] y Christensen [15].

14.1 Nociones Básicas


Definición 14.1.1. Sea F = {fn }n∈N una sucesión en un espacio de Hilbert separable H.
1. Decimos que F es una sucesión de Bessel si existe B > 0 tal que, para toda f ∈ H,
X
| hf, fn i |2 ≤ Bkf k2 . (14.1)
n∈N

2. Decimos que F es un frame si existen numeros A, B > 0 tales que, para toda f ∈ H,
X
Akf k2 ≤ | hf, fn i |2 ≤ Bkf k2 . (14.2)
n∈N

3. Las constantes ópimas AF y BF para la Ec. (14.2) se llaman cotas de frame de F.


4. El frame F se denomina ajustado si AF = BF , y ajustado normalizado (o también
de P arseval) si AF = BF = 1.
Observación 14.1.2. Sea F = {fn }n∈N una sucesión de Baessel en H. Definamos la apli-
cación T ∗ : H → `2 (N) por
 
H 3 f 7−→ T ∗ (f ) = hf , fn i ∈ `2 (N) .
n∈N

La ecuación (14.1) significa que T ∗ ∈ L(H, `2 (N) ) (o sea que T ∗ es acotado, con kT ∗ k2 ≤ B).
Y la Ec. (14.2) dice que F es frame si y sólo si T ∗ es, además, acotado inferiormente. Observar
que esto último equivale a la suyectividad (y continuidad) del adjunto de T ∗ ,
X
T ∈ L(`2 (N) , H) dado por `2 (N) 3 c = (cn )n∈N 7−→ T (c) = cn f n .
n∈N

338
En efecto, observar que
hf, T en iH = hT ∗ f, en i`2 (N) = hf, fn i para todo f ∈H y n∈N.
Por ello T en = fn para todo n ∈ N. Esto justifica las siguientes definiciones: 4
Definición 14.1.3. Sea F = {fn }n∈N un frame en H. Sean K y H0 espacios de Hilbert
separables con H v H0 . Sea B = {ϕn : n ∈ N} una BON de K. Luego existe un único
T ∈ L(K, H0 ) tal que
T (ϕn ) = fn , n ∈ N .
Diremos que el triple (T, K, B) es un operador preframe (o de sı́ntesis) de F. De la Obs. 14.1.2
deducimos que R(T ) = H. En particular, si H0 = H, se tiene que T es suryectivo.
La notación con tripletes (T, K, B) omite nombrar el espacio H0 . Esto se debe a que el tal
espacio no es determinante para el frame F. Sin embargo, admitimos que el codominio de
T sea variable porque muchas veces, por razones técnicas, ambientaremos a H en espacios
de Hibert mayores, y ası́ las notaciones usadas serán coherentes. 4
Observación 14.1.4. Sea F = {fn }n∈N un frame en H con operador preframe (T, K, B).
1. Las cotas de frame de F pueden calcularse en términos de T :
AF = γ(T )2 y BF = kT k2 . (14.3)

2. El adjunto T ∗ ∈ L(H0 , K) of T , está dado por la fórmula


X
T ∗ (f ) = hf, fn iϕn , f ∈ H0 ,
n∈N

donde B = {ϕn : n ∈ N}. Se lo llama operador de análisis de F.


3. Si (T1 , K1 , B1 ) es otro operador de preframe para F, debe existir un operador unitario
U ∈ L(K1 , K) que manda B1 sobre B. Por lo tanto T1 = T U . Deducimos que el
operador S = T T ∗ = T1 T1∗ . Observar que
X
Sf = hf, fn i fn , f ∈ H0 . (14.4)
n∈N

Por lo tanto, si se piensa a S actuando en H, usando la Ec. (14.3) podemos deducir


que AF I ≤ S ≤ BF I, por lo que S es positivo e invertible en H. Más aún, las cotas
de F son
BF = kSk = ρ(S) y AF = γ(S) = kS −1 k−1 = min{λ : λ ∈ σ(S)} .
A este S se lo llama operador frame de F. Notar que, por las observaciones previas,
el operador frame de F no depende del opreador preframe elegido. Además, usando la
Ec. (14.4) podemos deducir las siguientes fórmulas de reconstrucción:
X X

hf, fn i S −1 fn = f, S −1 fn fn para todo f ∈ H .



f= (14.5)
n∈N n∈N

339
4. A la sucesión de números { f, S −1 fn } se la llama coeficientes de frame de f para F.

Tienen la siguiente propiedad de optimización: si


X X
X
c = (cn )n∈N ∈ `2 (N) cumple f = | f, S −1 fn |2 ≤ |cn |2 .

cn fn =⇒
n∈N n∈N n∈N

Es decir que los coeficientes de frame de f para F dan la reconstrucción óptima para
cada f ∈ H.

5. La sucesión G = {gn }n∈N dada por gn = S −1 fn , n ∈ N, es también un frame. Se lo


llama el frame dual de F. La gracia es que verifica las fórmulas de reconstrucción
X X
f= hf, fn i gn = hf, gn i fn para todo f ∈ H
n∈N n∈N

que vimos en la Ec. (14.5). 4


Definición 14.1.5. Sea F = {fn }n∈N un frame en H con operador preframe (T, K, B).
1. El número cardinal
e(F) = dim N (T )
se llama el exceso de F.

2. Notar que, por la Obs. 14.1.4, e(F) no depende del operador preframe elegido. En
particular, n X o
2
e(F) = dim (cn )n∈N ∈ ` : cn f n = 0 ,
n∈N

que es la nulidad del operador preframe inducido por la base canonica de `2 (N).

3. El frame F Se llama base de Riesz si e(F) = 0, i.e., si F es la imagen de una BON de


algún Hilbert K por un isomorfismo T ∈ L(K, H).

14.2 Perturbaciones de frames


Un tema muy estudiado es el “problema de perturbaciones” para frames. Esto es: si F =
{fn }n∈N es un frame en un espacio de Hilbert H, ¿qué podemos decir acerca de una sucesión
de Bessel G = {gn }n que está “cerca”, en algún sentido, de F?
El survey [9] de Casazza’s es una excelente guı́a sobre los resultados en este tema. A
continmuación veremos un resultado general para operadores del cual se pueden deducir
varios de los resultados más conocidos sobre perturbación.
Lema 14.2.1. Sea T ∈ L(H) tal que R(T ) = H. Si G ∈ L(H) y

kG − T k < γ(T ) = kT † k−1 ,

entonces G es también suryectivo, y además γ(G) ≥ γ(T ) − kG − T k.

340
Demostración. Poe ser T suryectivo, tenemos que T T † = I. Pero
kGT † − Ik = k(G − T )T † k ≤ kG − T k kT † k < 1 .
Esto muestra que GT † es invertible. Por lo tanto T † (GT † )−1 es una inversa a derecha de G,
o sea que es una de sus seudoinversas. Por la Prop. 8.3.6, kG† k ≤ kT † (GT † )−1 k y
γ(G) = kG† k−1 ≥ kT † (GT † )−1 k−1 ≥ γ(T ) k(GT † )−1 k−1


!−1
X
≥ γ(T ) kG − T kn kT † kn
n=0

= γ(T ) 1 − kG − T k kT † k = γ(T ) − kT − Gk


como se aseguraba. 
Fijemos de ahora en más un frame F = {fn }n∈N en H, con operador de preframe (T, H, B).
Como siempre, notaremos S = SF = T T ∗ al operador de frame de F, que cumple γ(S) = AF
y kSk = BF .
Proposición 14.2.2. Sea G = {gn }n∈N una sucesión de Bessel, con operador de preframe
(G, H, B). Si existe algún B ∈ Gl (H) tal que
R = kT ∗ S −1/2 − G∗ Bk < 1 , (14.6)
entonces G es un frame en H, con constantes
AG ≥ (1 − R)2 kBk−2 y BG ≤ (1 + R)2 kB −1 k2 . (14.7)
Demostración. Tenemos que ver que G es epimorfismo, y que las constantes propuestas
acotan a GG∗ . Observar que S −1/2 T es una isometrı́a parcial (la de la DP de T ). Luego
R = kT ∗ S −1/2 − G∗ Bk = kS −1/2 T − B ∗ Gk < 1 = γ(S −1/2 T ) .
Por el Lema 14.2.1, tenemos que B ∗ G es epimorfismo, por lo que también G lo es. Además,
el mismo Lema asegura que
γ(G) ≥ γ(B −1 )γ(B ∗ G) ≥ γ(B −1 ) γ(S −1/2 T ) − kS −1/2 T − B ∗ Gk = kBk−1 (1 − R) ,


por lo que AG ≥ (1 − R)2 kBk−2 . La otra deisgualdad sale en forma similar. 

Corolario 14.2.3. Sea G = {gn }n∈N sucesión de Bessel en H. Si existe R < 1 tal que
h f , S −1/2 (fn − gn ) i 2 ≤ R2 kf k2 , para toda f ∈ H ,
X
(14.8)
n∈N

entonces G es un frame en H tal que


AF (1 − R)2 ≤ AG y BG ≤ BF (1 + R)2 .

341
Demostración. Observar que (14.8) es equivalente a que

k(T ∗ − G∗ )S −1/2 k2 = kT ∗ S −1/2 − G∗ S −1/2 k2 ≤ R2 ,


h h , fn − gn i 2 , para todo h ∈ H. Por la Prop. 14.2.2, tenemos
X
porque k(T ∗ − G∗ ) hk2 =

n∈N
que G es frame. Para la acotación de sus cotas, basta observar que

kS −1/2 k−2 = γ(S) = AF y kS 1/2 k2 = kSk = BF ,

y aplicar la fórmula (14.7). 


µ2
Corolario 14.2.4. (Casazza, Christensen) Sean µ1 , µ2 > 0 tales que R = µ1 + 1/2
< 1, y
AF
sea G = {gn }n∈N sucesión de Bessel en H. Si para toda f ∈ H se tiene que
!1/2 !1/2
h f , fn − gn i 2 h f , fn i 2
X X
k(T ∗ − G∗ ) f k =

≤ µ1 + µ2 kf k , (14.9)
n∈N n∈N

entonces G es un frame en H tal que

AF (1 − R)2 ≤ AG y BG ≤ BF (1 + R)2 .

Demostración. Aplicando la fórmula (14.9) a S −1/2 f , tenemos que

k(T ∗ − G∗ ) S −1/2 f k ≤ µ1 kT ∗ S −1/2 f k + µ2 kS −1/2 f k


!
µ2
≤ µ1 + 1/2 kf k = R kf k ,
AF
−1/2
porque kS −1/2 k = AF y kT ∗ S −1/2 k = 1. Ahora basta aplicar el Cor. 14.2.3. 
Corolario 14.2.5. (Christensen- Heil) Sea G = {gn }n∈N sucesión de Bessel en H y sea
0 < R < AF . Si para toda f ∈ H se tiene que
h f , fn − gn i 2 ≤ R2 kf k2 ,
X
(14.10)
n∈N

entonces G es un frame en H tal que


 2  2
R R
AF 1 − ≤ AG y BG ≤ BF 1 + .
AF AF
Demostración. Basta observar que, para toda f ∈ H,
R
k(T ∗ − G∗ )S −1/2 f k2 ≤ RkS −1/2 f k2 ≤ kf k2 ,
AF
−1/2
porque kS −1/2 k = AF . Aplicar nuevamente el Cor. 14.2.3. 

342
14.3 Proyecciones y frames
Los frames y las proyecciones se relacionan de varias maneras. Por ejemplo, si F es un
frame en H con operador preframe (T, K, B), como T es suryectivo, cada seudoinversa U
de T produce una proyección U T ∈ L(K). En esta sección estudiaremos el problema de
caracterizar a los frames que admitan algún operador preframe que sea una proyección
(ortogonal u oblı́cua). En toda esta sección usaremos que un subespacio S v H induce una
 matrices de bloques de 2 × 2. Ası́, identificaremos un A ∈ L(H)
representaciónde L(H) vı́a
A11 A12 S
con la matriz . Por ejemplo, es fácil ver que Q ∈ L(H) is una projección
A21 A22 S ⊥  
I X S
oblicua con R(Q) = S si y sólo si Q tiene la forma Q = , para algún
0 0 S⊥
X ∈ L(S ⊥ , S).

14.3.1 Proyecciones ortogonales


Recordemos que si H v K, notamos por PH al proyector ortogonal sobre H. Enunciaremos
en principio el siguiente resultado de Han y Larson [25], que estaba implı́cito en la teorı́a de
dilaciones de Naimark (ver las comentarios de Casazza y Kovacevic [14] p. 396).
Teorema 14.3.1 (Han y Larson). Dada una sucesión F = {fn }n∈N en H, los siguientes
enunciados son equivalentes:

1. F es un frame de Parseval en H.

2. Existen un espacio de Hilbert K w H y una BON B = {en }n∈N de K tales que el


triplete (PH , K, B) es un operador preframe para F, i.e., fn = PH en , n ∈ N. 

A contiunuación daremos una versión generalizada de este Teorema, en el sentido de que si


uno proyecta ortogonalmente bases de Riesz (en ves de ortonormales) consigue TODOS los
frames de H. Además esto se puede hacer sin modificar las cotas de frame, lo que hace que
el siguiente resultado, en particular, implique el Teorema de Han y Larson.
Teorema 14.3.2. Dada una sucesión F = {fn }n∈N en H, los siguientes enunciados son
equivalentes:

1. F = {fn }n∈N es un frame para H.

2. Existe un espacio de Hilbert K w H y una base de Riesz R = {xk }k∈N de K tal que
fn = PH xn , para todo n ∈ N.

Más aún, en tal caso se puede elegir la base de Riesz R de tal modo que

AR = AF y BR = BF . (14.11)

343
Demostración. Supongamos que F es un frame. Sea (T, H, B) un operador preframe de F.
Tomemos K = H ⊕ N (T ). Sea V : H = N (T )⊥ ⊕ N (T ) → H ⊕ N (T ) = K definido por:

V x = T x ⊕ γ(T )PN (T ) x = T PN (T )⊥ x ⊕ γ(T )PN (T ) x, x ∈ H.

Como T (N (T )⊥ ) = R(T ) = H, se tiene que V ∈ L(H, K) y es un isomorfismo. Por ende, si


B = {en }n∈N , entonces R = {xn = V en : n ∈ N} es una base de Riesz de K. Observar que
fn = T en = PH xn para todo n ∈ N. Finalmente, por la construcción de V , se ve que

γ(V ) = γ(T ) y kV k = kT k ,

lo que implica las identidades de (14.11). La recı́proca es evidente. 

14.3.2 Proyecciones Oblicuas


En esta sección estudiaremos el siguiente problema: dado un frame F = {fn }n∈N para H,
¿existe un espacio de Hilbert K w H, una BON B = {en }n∈N de K y una proyección oblicua
(i.e., no necesariamente ortogonal) Q ∈ L(K) tal que el triplete (Q, K, B) es un operador
preframe para F (i.e., fn = Q en , para todo n ∈ N)? En otras palabras, ¿existe un preframe
operator (Q, K, B) para F tal que Q es idempotente?
En general la respuesta es no. En efecto, se tienen al menos dos obstrucciones:

1. Toda proyección oblicua Q cumple que γ(Q) ≥ 1, porque

QQ∗ ≥ QPR(Q) Q∗ = PR(Q) , R(QQ∗ ) = R(Q) y γ(PR(Q) ) = 1 .

Por lo tanto, si existiera una representación de F como se buscaba, se tendrı́a que


pedir al menos que AF = γ(Q) ≥ 1. Esta obstrucción ne es muy esencial, porque se
puede arreglar multiplicando a F por una constante positiva conveniente.
2. Pero incluso si las constantes de frame de F cumplieran que 1 ≤ AF ≤ BF , la repre-
sentación podrı́a no existir si e(F) < ∞. Por ejemplo, si F fuese una base de Riesz
con un operador preframe (Q, K, B) para alguna proyección oblicua Q ∈ L(K) y una
BON B = {en }n∈N de K w H, entonces sabemos que 0 = e(F) = dim N (Q). O sea que
K = H, Q = I y F = B. Estamos diciendo que las únicas bases de Riesz que admiten
una tal representación son las bases ortonormales.

El siguiente teorema completa, en algún sentido, los resultados de Casazza, Han y Larson
expuestos en [13, sección 3].
Teorema 14.3.3. Sea F = {fn }n∈N un marco para H, con cotas 1 ≤ AF ≤ BF . Denotemos
K = H ⊕ H. Entonces existe un sistema ortonormal B = {bn }n∈N en K y una proyección
oblicua Q ∈ L(K) con R(Q) = H ⊕ {0}, tales que

fn ⊕ 0 = Q b n , para todo n∈N.

Más aún, si e(F) = ∞, entonces puede suponerse que B es una BON de K.

344
Demostración. Sea (T, H, E) un operador preframe de F, con E = {en }n∈N una BON del
mismo H donde vive F.
1. Por hipótesis, T T ∗ ≥ AF I ≥ I y podemos definir X = (T T ∗ − I)1/2 ∈ L(H)+ .
2. Sea T0 : H → K el operador definido por T0 x = T x ⊕ 0, x ∈ H. Entonces
TT∗ 0
   
T ∗
 ∗  ∗ H
T0 = y T0 = T 0 =⇒ T0 T0 ∼ ∈ L(K) .
0 0 0 H
 
IH X
3. Sea Q = ∈ L(K). Entonces, es claro que Q es una proyección oblicua tal
0 0
que R(Q) = H ⊕ 0. Más aún,
IH + XX ∗ 0
 

QQ = = T0 T0∗ =⇒ |Q∗ | = |T0∗ | .
0 0

Consideremos la descomposición polar (a derecha) T = |T ∗ |U , donde U ∈ L(H) es una


isometrı́a partial espacio inicial N (T )⊥ y espacio final R(T ) = H. Definamos
V :H→K dado por V x = U PN (T )⊥ x ⊕ PN (T ) x, x ∈ H. (14.12)
Entonces, V es una isometrı́a y T0 = |T0∗ |V . La isometrı́a parcial de la descomposición polar
a derecha de Q puede extenderse a un operador unitario W sobre K, pues dim(N (Q)) =
dim(R(Q)⊥ ). Más aún, esto puede hacerse de modo que Q = |Q∗ |W . Entonces
T0 = |T0∗ |U = |Q∗ |U = Q W ∗ U.
Luego, si definimos B = {bn }n∈N = {W ∗ V en }n∈N , que es un sistema ortonormal en K (porque
W ∗ V es isometrı́a), se tiene que
fn = T en ∼ T en ⊕ 0 = T0 en = Q(W ∗ V en ) = Qbn , n∈N.
Supongamos ahora que e(F) = dim N (T ) = ∞. Mostraremos que la isometria V definida
en la ecuación (14.12) puede cambiarse por un operador unitario de H sobre K, que sigue
satisfaciendo que T0 = |T0∗ |V . Para ello, tomemos
V x = U PN (T )⊥ x ⊕ Y PN (T ) x, x ∈ H,
donde Y ∈ L(`2 (N), H) es la isometrı́a parcial con espacio inicial N (T ) y espacio final H.
Se tiene que V manda isométricamente N (T )⊥ sobre H ⊕ {0} y N (T ) sobre {0} ⊕ H por
lo que es, en efecto, unitario. Luego, la sucesión bn = W ∗ V en , n ∈ N, resulta ser una base
ortonormal de K. 
Observación
14.3.4. Usando la notación del Teorema 14.3.3, si K0 = span {bn } y Q0 =
Q K0 , entonces (Q0 , K0 , B) es un operador preframe de F, por lo que parecerı́a que es posible
considerar (en general) bases ortonormales en vez de sistemas ortonormales. No obstante,
el Teorema 14.3.5 muestra que este argumento falla: observar que H no está necesariamente
contenido en K0 , y en tal caso no se cumple que Q0 sea una proyección. 4

345
Si e(F) < ∞, se tiene el siguiente teorema:
Teorema 14.3.5. Sea F = {fn }n∈N un marco en H con cotas 1 ≤ AF ≤ BF . Supongamos
que e(F) < ∞. Entonces, las siguientes condiciones son equivalentes:
1. Existe un espacio de Hilbert K tal que H ⊆ K, una proyección Q ∈ L(K), y una base
ortonormal B = {bn }n de K tal que fn = Qbn para todo n ∈ N.

2. Si S es el operador de frame de F, entonces dim ran(S − IH ) ≤ e(F).


Demostración. Sea (T, H, B) un operador preframe de F. Observar que S = T T ∗ . Si
la primer condición se satisface, entonces e(F) = dim N (T ) = dim N (Q) = dim(K H).
Identificaremos K H con N (T ), y por lo tanto K con H ⊕ N (T ). Sea T0 : H → K, dado
por T0 x = T x ⊕ 0. Entonces

TT∗ 0
   
∗ H S 0 H
T0 T0 = = ∈ L(K) .
0 0 N (T ) 0 0 N (T )
 
IH X H
Es fácil ver que debe existir X ∈ L(N (T ), H) tal que Q = . Entonces
0 0 N (T )

IH + XX ∗ 0
   
S 0 ∗ ∗
= T0 T0 = QQ = .
0 0 0 0

En consecuencia, S − IH = XX ∗ , mientras que dim R(XX ∗ ) ≤ dim R(X) ≤ dim N (T ).


Reciprocamente, si dim ran(S − I) ≤ dim N (T ), consideremos, como en la demostración
del Teorema 14.3.3, X = (S − I)1/2 ∈ L(H)+ . Notemos que dim N (X)⊥ = dim R(X) ≤
dim N (T ). Entonces existe una isometrı́a parcial U : N (T ) → H con U U ∗ = PN (X)⊥ . Como
antes, usamos el espacio de Hilbert K = H ⊕ N (T ), y el operador T0 ∈ L(H, K), dado por
T0 x = T x ⊕ 0. Sea Y = XU ∈ L(N (T ), H), y
 
IH Y H
Q= ∈ L(K).
0 0 N (T )

Entonces Q2 = Q, R(Q) = H ⊕ {0} y |Q∗ | = |T0∗ |, pues

Y Y ∗ = XU U ∗ X ∗ = XPN (X)⊥ X ∗ = XX ∗ .

Luego
I +YY∗ 0 I + XX ∗ 0
   

QQ = = = T0 T0∗ .
0 0 0 0
El resto de la demostración sigue las mismas ideas que la primer parte de la demostración
del Teorema 14.3.3, pero tomando K = H ⊕ N (T ). Notemos que, en este caso, la isometrı́a
V definida en la ecuación (14.12) resulta un operador unitario de H sobre K. Por lo tanto,
si W es el operador unitario considerado en la primer parte de la demostración del Teorema
14.3.3, la sucesión bn = W ∗ V en , n ∈ N, resulta ser una base ortonormal de K. 

346
14.4 Frames de Riesz y de Riesz condicionados
Como observa Christensen en [15] , p.P 65,

dado un frame F = {fn }n∈N , puede se dificil, en la
−1 −1
práctica, usar la decomposición
f = f,
S fn fn , porque se necesita aproximar S o,
−1
al menos, los coeficientes frame f, S fn . Para obtener algunas ventajas usando bases de
Riesz, Christensen introdujo en [16] el método de la projección, que aproxima S y S −1 con
operadores de rango finito, que actúan en ciertos espacios finitodimensionales Hn dentro de
H. Más tarde, Christensen [18] definió dos clases particulares de frames: frmaes de Riesz
y frmaes de Riesz condicionados, que se adaptan bien a los problemas mencionados.
Fijaremos algunas notaciones:

- Llamaremos P(N) al conjunto de partes de N.

- Notaremos PF (N) = {I ∈ P(N) : |I| < ∞} a las partes finitas y PI (N) = P(N)\PF (N)
a las infinitas.

Sea B = {en }n∈N una BON de H y sea I ∈ P(N).

- Notaremos BI = {en : n ∈ I}, HI = span {BI }, y PI = PHI a la proyección ortogonal


de H sobre HI .

- Si I = In = {1, 2, . . . , n}, escribiremos Hn en lugar de HI .

- Dado S v H, llamaremos Sn = S ∩ Hn , para cada n ∈ N.

- Si F = {fn }n∈N es un frame en H, notaremos FI = {fn }n∈I y Fn = FIn .

- Diremos que FI es una sucesión frame si es un frame para span {FI }.

- En cambio, FI se dirá subframe de F si ella misma es un frame en H.

14.4.1 Frames de Riesz


Una de las principales causas que indujeron a estudiar
esta clase de marcos fue la dificultad
−1

práctica que implica el cálculo de los coeficientes { f, S fn }n∈N de la descomposición
X

f, S −1 fn fn .

f=

Con el objeto de hacer uso de las ventajas que poseen las bases de Riesz en este aspecto,
Christensen habı́a introducido en [16] el denominado método proyectivo, el cual aproxima
los operadores S y S −1 por medio de operadores de rango finito, los cuales actúan en ciertos
espacios finitos dimensionales cuya unión es densa en H. Los marcos de Riesz se ajustaban
bién a este método. Más tarde (ver [16]), Christensen caracterizó exactamente que marcos
de adaptan bién al método antes mencionado. A estos marcos los denominó marcos de Riesz
condicionados, por su estrecha conexión con los de Riesz.

347
Definición 14.4.1. 1. Un frame F = {fn }n∈N se denomina frame de Riesz si existen
A, B > 0 tales que, para todo I ⊂ N, la sucesión FI es una sucesión frame con cotas
A y B (uniformes para todo I).
2. F se llama frame de Riesz condicionado si existe una sucesión {In }n∈N en PF (N) (o
sea que son finitos) tal que
(a) In ⊆ In+1 para todo n ∈ N,
[
(b) In = N
n∈N

(c) Existen A, B > 0 que funcionan como cotas para todas las sucesiones frame FIn .
El lector interesado en más detalles sobre marcos de Riesz y marcos de Riesz condicionados
puede ver los artı́culos citados a lo largo de esta sección, como ası́ también [8], [10] y [11]).
Observación 14.4.2. Sean F un frame en H con operador preframe (T, H, B) e I ⊆ N.
1. Se tiene que FI es sucesión frame si y sólo si R(T PI ) v H.
2. Por otra parte, FI es un subframe de F si y sólo si R(T PI ) = H.
3. En ambos casos las cotas frame para FI son

AFI = γ(T PI )2 (si T PI 6= 0) y BFI = kT PI k2 , (14.13)

ya que (T PI , HI , {en }n∈I ) deviene operador preframe para cada FI .


Usando estos hechos y la Proposición 8.4.12, podemos obtener dos caracterizaciones alter-
nativas de los frames de Riesz: 4
Proposición 14.4.3. Sea F un frame en H con operador preframe (T, H, B). Entonces son
equivalentes:
1. F es un frame de Riesz.
2. Existe ε > 0 tal que γ(T PI ) ≥ ε para todo I ∈ P(N) tal que T PI 6= 0.
3. Existe c < 1 tal que

c [ N (T ) , HI ] ≤ c para todo I ∈ P(N) . (14.14)

Demostración. Por la Prop. 8.4.12, para todo I ⊆ N tal que T PI 6= 0 se tiene que

γ(T ) s [ N (T ) , HI ] ≤ γ(T PI ) ≤ kT k s [ N (T ) , HI ] .

Esto implica la equivalencia entre 2 y 3 (si T PI = 0 entonces c [ N (T ) , HI ] = 0). Por otra


parte, usando la Prop. 8.4.11, y la Ec. (14.13), podemos deducir la equivalencia entre 1 y 2.

Se tiene un resultado similar para frames de Riesz condicionados.

348
Proposición 14.4.4. Sean F un frame en H con operador preframe (T, H, B). Entonces F
es frame de Riesz condicionado si y sólo si existen una sucesión {In }n∈N en PF (N) y una
constante c < 1 tales que
[
In ⊆ In+1 , In = N y c [ N (T ) , HIn ] ≤ c , n ∈ N (14.15)
n∈N

o, equivalentemente, γ(T PIn ) ≥ ε para cierto ε > 0. 


Observación 14.4.5. Enumeraremos a continuación algunos resultados del Capı́tulo ante-
rior que usaremos aquı́: Sean S v H y B = {en }n∈N una BON de H. Para cada I ∈ P(N),
se denota HI = span {ei : i ∈ I}. Si n ∈ N, escribimos Hn = HIn .
1. En el Teo. 13.3.1 vimos que S es B-compatible si y sólo si

C(S) = sup c [ S , HI ] : I ∈ P(N) < 1. (14.16)

2. Dada una sucesión {In }n∈N en PF (N), si existe c < 1 tal que se cumple la Ec. (14.15),
entonces por el Lema 13.2.5,
!
[
cl S ∩ H In = S . (14.17)
n∈N

3. Para cada n ∈ N, sean Sn = S ∩ Hn y C(Sn ) = sup c [ Sn , HJ ]. Por el Teo. 13.3.1, el


J⊆ In
Lema 13.2.5 y la Prop. 13.3.3, las siguientes condiciones son equivalentes:
(a) S es B-compatible.
(b) Existe c < 1 tal que c [ S , Hn ] ≤ c para todo n ∈ N, y sup C(Sn ) < 1.
n∈N
!
[
(c) c l Sn = S y sup C(Sn ) < 1.
n∈N
n∈N

(d) C0 (S) = sup c [ S , HI ] : I ∈ PF (N) tal que S ∩ HI = {0} < 1. 4
Proposición 14.4.6. Sea F un frame de Riesz condicionado y sea (T, H, B) un operador
preframe asociado. Notemos S = N (T ). Se tiene que

!
[
cl S ∩ Hm = S. (14.18)
m=1

Demostración. Como F es un frame de Riesz condicionado, existen una sucesión {In }n∈N en
PF (N)
S y una constante c < 1 que verifican la Ec. (14.15). Por la fórmula (14.17), sabemos
que n∈N S ∩ HIn es densa in S. SFinalmente, para S cada n ∈ N, existe m ∈ N tal que
In ⊆ Im = {1, 2, . . . , m}. Por ende, n∈N S ∩ HIn ⊆ m∈N S ∩ Hm . 
Los resultados de la Obs. 14.4.5 se pueden “traducir” al idioma de frames para conseguir una
caracterización de los frame de Rieszs, similar a la obtenida por Christensen y Lindner en
[19]:

349
Teorema 14.4.7. Sea F un frame en H con operador preframe (T, H, B). Llamemos S =
N (T ). Entonces son equivalentes:
1. F es un frame de Riesz.
2. S es B-compatible.
3. Existe una cota inferior uniforme para toda sucesión frame finita y linealmente
independiente (LI) FJ , J ∈ PF (N).
4. Existe d > 0 tal que γ(T PJ ) ≥ d, para todo J ∈ PF (N) tal que S ∩ HJ = {0}.
Demostración. La equivalencia entre 1 y 2 se deduce de la Obs. 14.4.5 y la Prop. 14.4.4.
Si J ∈ PF (N), entonces HJ ∩ S = {0} si y sólo si FJ es LI. Esto muestra que 3 y 4 son
equivalentes. Por la Obs. 14.4.5 y la Prop. 8.4.12, ambas condiciones son también equivalentes
a la B-compatibilidad de S.
Ahora bien, que exista un d tal que 0 < d ≤ γ(T PI ) para todo I ∈ PF (N) tal que
HI ∩ S = {0}, equivale a decir que exista una constante c < 1 tal que c [ S , HI ] ≤ c para
esos conjuntos I. Por la Obs. 14.4.5, esto equivale a la condición 2. 
Proposición 14.4.8. Sea F un frame de Riesz condicionado con e(F) < ∞. Entonces F es
un frame de Riesz. En particular, si (T, H, B) es un operador preframe para F, debe existir
un m ∈ N tal que N (T ) ⊆ Hm .
Demostración. Sea S = N (T ). Por la Prop. 14.4.6, S verifica la Ec. (14.18). Como dim S <
∞, existe m ∈ N tal que S ⊆ Hm . Por otra parte, en la terminologı́a de la Obs. 14.4.5, si
C(Sn ) = sup c [ Sn , HJ ], entonces C(Sn ) = C(Sm ) para todo n ≥ m. En resumen, por la
J⊆In
Obs. 14.4.5, se tiene que S es B-compatible, por lo que F debe ser un frame de Riesz. 
Teorema 14.4.9. Sea F un frame de Riesz condicionado con operador preframe (T, H, B).
Para cada n ∈ N, denotemos
1. Sn al operador frame de Fn = {fk }k∈In ,
−1/2
2. Gn = {Sn fk }k∈In , y
3. An el mı́nimo de las cotas inferiores de sucesiones frame no nulas de Gn .
Si se tiene que inf An > 0, entonces F debe ser un frame de Riesz.
n∈N

Demostración. Notemos S = N (T ). Observenos que, para todo n ∈ N, se tiene que


(T Pn , Hn , Bn ) es operador preframe para Fn y por ello Sn = T Pn T ∗ . Observar que N (T Pn ) =
−1/2
N (Sn T Pn ) = S ∩ Hn = Sn (si pensamos a T Pn con dominio Hn ). Además tenemos que
−1/2 −1/2
γ(Sn T Pn ) = kSn T Pn k = 1. Luego, por la Prop. 8.4.12, si J ⊆ In , la cota inferior AJ,n
−1/2
de {Sn fk }k∈J verifica que
AJ,n = γ( (Sn−1/2 T Pn )PJ )2 = s [ Sn , HJ ]2 = 1 − c [ Sn , HJ ]2 .
Usando la Obs. 14.4.5, el Teorema follows. 

350
14.4.2 Un contraejemplo:
Hemos visto que el núcleo S de una operador preframeS∞asociada a un frame de Riesz condi-
cionado F satisface la propiedad de “densidad”: c l ( n=1 Sn ) = S, para Sn is S ∩ Hn . En el
siguiente ejemplo veremos que tal desidad no es suficiente para que F sea un frame de Riesz
condicionado.
Para ello usaremos un método indirecto: Dado S v H con dim S ⊥ = ∞, sabemos que existen
frames F con un operador preframe (T, H, B) tal que S = N (T ). Luego construiremos un S
adecuado, en el sentido de la caracterización de frames de Riesz condicionados a través del
núcleo de su operador preframe, dada en Prop. 14.4.4.
Ejemplo 14.4.10. Dada una BON B = {en }n∈N de un espacio de Hilbert H y dado r > 1,
definamos el siguiente sistema ortogonal:
1 1 1 1
x1 = e1 − re2 + e3 + 2 e4 + 3 e5 + 4 e6
r r r r
1 1 1 1
x2 = e5 − re6 + 5 e7 + 6 e8 + 7 e9 + 8 e10
r r r r
..
.
1 1 1 1
xn = e4n−3 − re4n−2 + e4n−1 + e4n + e4n+1 + e4n+2 .
r4n−3 r4n−2 r4n−1 r4n

!
[
Sea S = span {xn : n ∈ N}. Por su construcción, c l S ∩ Hn = S. Además,
n=1

{e4n−1 − re4n : n ∈ N} ⊂ S ⊥ =⇒ dim S ⊥ = ∞ .

Por los comentarios anteriores, existe un frame F con preframe operator (T, H, B), tal que
S = N (T ). Veremos que F NO es un frame de Riesz condicionado. Por la Prop. 14.4.4,
bastarı́a probar que, para toda sucesión J1 ⊆ J2 ⊆ J3 ⊆ . . . ⊆ Jn . . . % N en PF (N), se
cumple que c [ S , HJk ] −−−→ 1. Fijemos entonces {Jk }k∈N y tomemos un 0 < ε < 1.
k→∞
4
Como kxn k2 ≤ 1 + r2 + para todo n ∈ N, existe n0 ∈ N tal que
r8n−6
1 + r2
1−ε< ∀ n ≥ n0 .
kxn k2

Para cada i ∈ N, llamemos Mi = span {e4i−1 , e4i } . Observar que PMi xj 6= 0 ⇐⇒ j = i,


dado que las dos coordenadas del medio son “exclusivas” de cada xi . Por lo tanto, si

y∈S entonces PMi y 6= 0 ⇐⇒ hy, xi i =


6 0. (14.19)
n o
Sea k ∈ N tal que j = max i ∈ N : PMi (S ∩ HJk ) 6= 0 ≥ n0 . El tal k debe existir
porque xn0 debe pertenecer a S ∩ HJk para k grande. Pero por la Ec. (14.19), se tiene que

351
xh ∈ (S ∩ HJk )⊥ para todo h > j. En particular, xj+1 ∈ S (S ∩ HJk ) = S HJk . Por otro
lado, existe un y ∈ (S ∩ HJk ) tal que PMj y 6= 0. Por lo tanto, las últimas cuatro entradas
asociadas a xj son no nulas en y, porque y ∈ span {x1 , . . . , xj }, hy, xj i =
6 0 y no esta presente
xj+1 para cambiarlas. Por ende, como y ∈ HJk , entonces esas cuatro coordenadas deben
pertenecer a Jk . Ahora bien, como las dos últimas entradas de xj son las dos primeras de
xj+1 , y deben pertenecer a Jk , tenemos que kPJk xj+1 k2 ≥ 1 + r2 . Luego, como j ≥ n0 ,

1 + r2 kPJk xj+1 k2
1−ε < ≤
kxj+1 k2 kxj+1 k2
   
xj+1 PJk xj+1 xj+1 PJk xj+1
= , ≤ , ≤ c [ S , HJk ] .
kxj+1 k kxj+1 k kxj+1 k kPJk xj+1 k

El mismo argumento muestra que 1 − ε ≤ c [ S , HJm ], para todo m ≥ k (porque sólo se


usaba que j ≥ n0 , lo que sigue pasando a partir de k). Como ε es arbitrario y k sólo depende
de n0 , y por ende de ε, tenemos que c [ S , HJk ] −−−→ 1. 4
k→∞

14.4.3 Ángulos entre columnas


En esta sección abreviaremos linealmente independiente con las letras LI.
Proposición 14.4.11. Sea A ∈ L(H, K) inversible, y sean S, T v H tales que S ∩ T = {0}
y s [ S , T ] > 0. Entonces

s[S , T ]
s [ A(S) , A(T ) ] ≥ >0.
kAkkA−1 k

Demostración. Observar que, dado x ∈ H, se tiene que kAxk ≥ kA−1 k−1 kxk, y si kAxk = 1
entonces kxk ≥ kAk−1 . Por lo tanto, como A(S) ∩ A(T ) = {0},

s [ A(S) , A(T ) ] = d((AS)1 , AT )


n o
= inf kA(x − y)k : x ∈ S, y ∈ T , kAxk = 1
n x o
= inf kxk kA( − y)k : x ∈ S, y ∈ T , kAxk = 1
kxk
n o
≥ kAk−1 inf kA(x − y)k : x ∈ S, y ∈ T , kxk = 1
n o
≥ (kA−1 k kAk)−1 inf kx − yk : x ∈ S, y ∈ T , kxk = 1
s[S , T ]
= ,
kA−1 kkAk

como se querı́a demostrar. 

352
Proposición 14.4.12. Sea T ∈ L(H) tal que 0 6= R(T ) v H. Fijemos una BON fija
B = {en }n∈N de H. Supongamos que S = N (T ) cumple
s = inf{s [ S , HJ ] : J ⊆ N} > 0
(o sea que S es B-compatible). Entonces, dados I, J ⊆ N tales que T (HI ) ∩ T (HJ ) = {0},
se tiene que
γ(T ) s s
s [ T (HI ) , T (HJ ) ] ≥ = .
kT k kT kkT † k
Demostración. Notemos E = PS ⊥ , P = PI y Q = PJ . Supongamos primero que T ∗ T = E,
i.e., T es una isometrı́a parcial. En tal caso, como T |S ⊥ es isometrı́a, tenemos que
c [ T (HI ) , T (HJ ) ] = c [ T E(HI ) , T E(HJ ) ] = c [ E(HI ) , E(HJ ) ] .
La hipótesis T (HI ) ∩ T (HJ ) = {0} implica las siguientes cosas:
a) HI ∩ HJ = HI∩J ⊆ S, por lo que podemos suponer que I ∩ J = ∅, reemplazando J
por J0 = J \ (I ∩ J), ya que E(HJ ) = E(HJ0 ) .
b) En tal caso P ∨ Q = P + Q y además
R(P + Q) ∩ S = (R(P ) ∩ S) ⊥ (R(Q) ∩ S) , (14.20)
porque T (P + Q)x = 0 =⇒ T P x = T Q(−x) ∈ R(T P ) ∩ R(T Q) = {0} .
c) Si P 0 = P − PR(P )∩S = PR(P ) (R(P )∩S) y Q0 = Q − PR(Q)∩S , entonces se tiene que
EP = EP 0 , EQ = EQ0 y, por otra parte,
R(P 0 + Q0 ) = R(P ) (R(P ) ∩ S) ⊥ R(Q) (R(Q) ∩ S)
(14.21)
= R(P + Q) (R(P + Q) ∩ S) = R(P + Q) S .

d) De lo anterior deducimos que


s [ R(P 0 + Q0 ) , S ] = s [ R(P + Q) S , S ] = s [ R(P + Q) , S ] ≥ s.

Observar que ker E(P 0 + Q0 ) = ker(P 0 + Q0 ) ⊥ R(P 0 + Q0 ) ∩ S = ker(P 0 + Q0 ). Luego


ker E(P 0 + Q0 )⊥ = R(P 0 + Q0 ) =⇒ kEzk ≥ γ(E(P 0 + Q0 ))kzk , si z ∈ R(P 0 + Q0 ) .
Ahora sı́:
Ex
s [ R(EP ) , R(EQ) ] = inf{k kExk − Eyk : x ∈ R(P 0 )1 , y ∈ R(Q0 )}

= inf{kExk−1 kEx − Eyk : x ∈ R(P 0 )1 , y ∈ R(Q0 )}

≥ inf{kEx − Eyk : x ∈ R(P 0 )1 , y ∈ R(Q0 )}

≥ γ(E(P 0 + Q0 ) ) · inf{kx − yk : x ∈ R(P 0 )1 , y ∈ R(Q0 )}

≥ γ(E) s [ ker E , R(P 0 + Q0 ) ] · 1 ≥ s,

353
donde la última desigualdad se deduce de la Prop. 8.4.12 aplicada a E y P 0 + Q0 .
El caso general se prueba tomando la DP a derecha T = |T ∗ |U = (T T ∗ )1/2 U . Entonces
U es isometrı́a parcial, y cae en el caso anterior. Luego se aplica la Prop. 14.4.11 para
A = |T ∗ | + PS > 0 con los subespacios U (HI ) y U (HJ ) , que ya sabemos que cumplen
s [ U (HI ) , U (HJ ) ] ≥ s. Notar que kAk = kT k y kA−1 k = kT † k. 
Observación 14.4.13. Con las notaciones de la Prop. 14.4.12, si T (HI ) ∩ T (HJ ) 6= {0},
pero existe algún K ⊆ I tal que

T (HK ) ∩ T (HJ ) = {0} mientras que T (HK ) + T (HJ ) = T (HI ) + T (HJ ) = T (HI∪J )

(por ejemplo si I ∈ PF (N) ), entonces también


s
s [ T (HI ) , T (HJ ) ] ≥ s [ T (HK ) , T (HJ ) ] ≥ .
kT kkT † k

Esto se deduce de una cuenta de ángulos (el primer ≥ de arriba) que se propone como
ejercicio (ver Ejer. 8.4.15).
Otro ejercicio serı́a verificar que la condición anterior (que exista un buen K) siempre se
cumple, si uno supone que F es frame de Riesz. La prueba es del estilo de la Prop. 14.5.16
de más adelante, donde se muestra que los frames de Riesz contienen bases de Riesz.
De ello se podrá deducir que la Prop. 14.4.12 vale para todo par I, J ⊆ N sin más hipótesis.
4
Proposición 14.4.14. Sea A ∈ L(H, K) tal que N (A) = {0}. Fijemos B = {en : n ∈ N}
una BON de H. Entonces A es acotada inferiormente (i.e., γ(A) > 0) si y sólo si se cumplen
las siguientes condiciones:

1. Existe D > 0 tal que D ≤ kAen k, para todo n ∈ N.

2. Existe r < 1 tal que


c [ A(HI ) , A(HJ ) ] ≤ r ,
para todo par I , J ∈ PF (N) tales que I ∩ J = ∅.

(1 + r)1/2
En tal caso vale que γ(A) ≥ .
D(1 − r)1/2
Demostración. La ida sale por la Proposición 14.4.11, tomando K = R(A) que es cerrado
(para que A quede inversible). Observar que siempre s [ HI , HJ ] = 1 y que D = γ(A) sirve.
(1 + r)1/2
Supongamos que se cumplen 1 y 2. Sea a = . Veremos que kAxk ≥ akxk
D(1 − r)1/2
para x ∈ H0 , donde H0 = span {B}, que es denso en H. Es fácil ver que eso es suficiente.
Observar que H0 es la unión de todos los HK para K ∈ PF (N). Para un K fijo, definamos

s(K) = {s ∈ HK : sn = ±1 , n ∈ K} .

354
Para s ∈ s(K), pongamos Is = {n ∈ K : sn = 1} y Js = K \ Is . Dado c ∈ HK , definamos
cs = (PIs − PJs )c, que resulta de cambiarle los signos a sus cordenadas de acuerdo a s.
1+r
Paso 1: Veremos que si b = , entonces
(1 − r)

kAcs k2 ≤ b kAck2 para todo K ∈ PF (N) , todo c ∈ HK y todo s ∈ s(K) .

Llamemos x = Ac, x0 = APIs c y x1 = x − x0 . Observar que x0 ∈ A(HIs ) y x1 ∈ A(HJs ) .


Luego |hx0 , x1 i| ≤ rkx0 k kx1 k (aquı́ se usa que A(HIs ) ∩ A(HJs ) = {0} porque N (A) = {0}).
Entonces

kAcs k2 = kx0 − x1 k2 = kx0 k2 + kx1 k2 − 2Rehx0 , x1 i ≤ kx0 k2 + kx1 k2 + 2rkx0 k kx1 k .

Analogamente,

kAck2 = kx0 + x1 k2 ≥ kx0 k2 + kx1 k2 + 2Rehx0 , x1 i ≥ kx0 k2 + kx1 k2 − 2rkx0 k kx1 k .

Cuentas directas dicen que si M > 0, entonces

(1 + M )kAck2 − kAcs k2 ≥ (1 + M )(kx0 k2 + kx1 k2 − 2rkx0 k kx1 k)−

−(kx0 k2 + kx1 k2 + 2rkx0 k kx1 k)



2 2r2

= M kx0 k + kx1 k − 2(r + )kx0 k kx1 k ≥ 0 ,
M
2r 2r
siempre que 1 ≥ r + , o sea, si M ≥ . Entonces
M 1−r
1+r 2r
b= =1+ .
1−r 1−r
claramente cumple lo pedido (y no depende de nada).
Paso 2: Por la regla generalizada del paralelogramo:
2
N
X X N
X
x1 , . . . , x N ∈ H =⇒ 2N kxk k2 = εk xk ,


N

k=1 ε∈{±1} k=1

se puede deducir que, si N = |K|, para todo c ∈ HK se tiene


X X X
2N kcn · Aen k2 = kAPIs c − APJs ck2 = kAcs k2 .
n∈K s∈s(K) s∈s(K)

X
Por lo tanto, debe existir algún s ∈ s(K) tal que kcn · Aen k2 ≤ kAcs k2 .
n∈K

355
(1 + r)1/2
Paso 3: Veremos que a = es cota inferior de A: Dado c ∈ HK ,
D(1 − r)1/2
X X (1 + r)
kck2 = |cn |2 ≤ D−2 kcn Aen k2 ≤ D−2 kAcs k2 ≤ kAck2 ,
n∈K n∈K
D2 (1 − r)
X
para algún s ∈ S(K) tal que kcn · Aen k2 ≤ kAcs k2 , que existe por el Paso 2. 
n∈K

Si traducimos nuevamente al idoma frame, nos queda lo siguiente (ver [19]):


Corolario 14.4.15. Sea F = {fn }n∈N un frame en H con operador preframe (T, H, B). Para
cada I ⊆ N, noratemos MI = span {FI }, al subespacio cerrado generado por las columnas
I-ésimas de T (en la base B). Luego las siguientes condiciones son equivalentes:
1. F es un frame de Riesz.
2. Existen d > 0 y c < 1 tales que

(a) d ≤ kfn k para todo n ∈ N tal que fn 6= 0.


(b) c [ MI , MJ ] < c para todo par I, J ⊆ N.
3. Existen d > 0 y c < 1 tales que

(a) d ≤ kfn k para todo n ∈ N tal que fn 6= 0.


(b) c [ MI , MJ ] < c para todo par I, J ∈ PF (N) tal que I ∩ J = ∅, FI y FJ son LI
y MI ∩ MJ = {0} (o, equivalentemente, si FI∪J es LI).
(1 + c)1/2
 
En tal caso, se puede ver que γ(T PK ) ≥ min d , para todo K ⊆ N.
d(1 − c)1/2
Demostración.
1 → 2 Se sigue de la Prop. 14.4.12 y la Obs. 14.4.13. Notar que, si fn 6= 0, entonces kfn k =
γ(T P{en } ) ≥ d, donde d = min{γ(T PJ ) : J ⊆ N} > 0.

2 → 3 Es evidente.
3 → 1 Usando la condición 4 del Teo. 14.4.7, basta probar que existe a > 0 tal que γ(T PK ) ≥
a, para todo K ⊆ PF (N) tal que S ∩ HK = {0}. Es decir, tenemos que ver que
K ∈ PF (N) y ker T PK = {0} implica que γ(T PK ) ≥ a. Pero podemos aplicar la
Prop. 14.4.14 a los operadores inyectivos T PK y deducir de la hipótesis que
(1 + c)1/2
γ(T PK ) ≥ para todo tal K⊆N.
d(1 − c)1/2

Por el Teo. 14.4.7, las cotas γ(T PK ) para estos K son suficientes para acotar cualquier otro
subconjunto de N. 

356
Observación 14.4.16. La equivalencia entre 1 ↔ 3 fué demostrada por Christensen y
Lindner en [19]. Se deduce de un resultado muy semejante a la Prop. 14.4.14, que fué probado
por Bittner-Lindner en [6], y de la condición 4 del Teo. 14.4.7 (ver también el theorem 2.1
en [19]).

14.5 Yo me borro
La propiedad más importante de un frame F = {fn }n∈N es que le “sobra” para generar a
los elementos de H. En esa redundancia radica su utilidad, porque le brinda robustez a las
transmisiones de datos f ∈ H usando sus cordenadas (hf, fn i)n∈N .
Por lo tanto, dado un frame F = {fn }n∈N , es natural preguntarse qué tanto le sobra. En
otra palabras, cuántos vectores puedo sacarle sin que deje de ser un frame. Este problema
es importante en teorı́a de la información y en signal processing. Sobre estos temas, sug-
erimos al lector los trabajos recientes de Goyal-Vetterli-Thao [24], Goyal-Kovacevic-Kelner
[23], Casazza-Kovacevic [14], Balan-Casazza-Heil-Landau [3], Benedetto-Fickus [4], Holmes-
Paulsen [28], y Strohmer-Heath [34].

14.5.1 Excesos y Borrados


Recordemos que, dado un frame F = {fn }n∈N en H con operador preframe (T, K, B), se
llama el exceso de F al cardinal e(F) = dim N (T ). En la Obs. 14.1.4 se vió que e(F) no
depende del operador preframe elegido. En particular,
n X o
2
e(F) = dim (cn )n∈N ∈ ` : cn f n = 0 ,
n∈N

que es la nulidad del operador preframe inducido por la base canonica de `2 (N).
Definición 14.5.1. Dado I ⊆ N notaremos I c = N \ I. Dado un frame F = {fn }n∈N ,
diremos que I puede borrarse de F si FI c = {fk }k∈I c es un subframe de F, i.e. FI c sigue
siendo un frame (para todo H). Denotaremos

E(F) = sup{|I| : I puede borrarse de F} ∈ N ∪ {0, +∞}.

El frame F se dice exacto (o sucesión excta) si E(F) = 0, i.e. si span {F \ {fn } } 6= H para
todo n ∈ N . 4
Observación 14.5.2. Sea F un frame en H con operador preframe (T, H, B). Dado I ⊆ N,
tenemos que I se puede borrar de F si y sólo si , R(T PI c ) = H. En tal caso, (T PI c , HI c , BI c )
es un operador preframe para FI c . 4
El siguiente resultado fué probado por Holub [29] y por Balan, Casazza, Heil, Landau [3]:
Proposición 14.5.3. Sea F un frame en H con operador preframe (T, H, B). Entonces

1. F es exacto si y sólo si F es una base de a Riesz de H, i.e. E(F) = 0 ⇐⇒ e(F) = 0.

357
2. e(F) < ∞ si y sólo si E(F) < ∞. En tal caso, E(F) = e(F).

3. Si I ∈ PF (N) con |I| = e(F) < ∞ puede borrarse de F, entonces FI c es una base de
a Riesz de H.

En resumen, siempre vale que E(F) = e(F). Y si e(F) es finito, entonces F contiene al
menos una base de Riesz de H.
Demostración. Observar que T ∗ ∈ L(H) es inyectivo con rango cerrado.
1. Supongamos que E(F) = 0. Fijemos n ∈ N y llamamos Pn a la proyección sobre {en }⊥ .
Se tiene que
R(T Pn ) 6= H pero R(T Pn ) v H ,
porque c N (T ) , {en }⊥ = c N (T )⊥ , span {en } < 1. Luego existe xn 6= 0 tal que
   

xn ∈ R(T Pn )⊥ = N (Pn T ∗ ) =⇒ T ∗ xn ∈ N (Pn ) = span {en } y T ∗ xn 6= 0 ,

porque T ∗ es mono. Como esto pasa para todo n ∈ N, deducimos B ⊆ R(T ∗ ) o sea que T ∗
es epi. Pero entonces N (T ) = R(T ∗ )⊥ = {0} y e(F) = 0. La recı́proca es clara, porque una
base es una base.
2. Si E(F) = m < ∞, borrando algún I con |I| = m, conseguinos una base de Riezs H
(porque no se puede sacar nada más, y aplicamos 1.). Luego N (T ) ∩ HI c = {0}, por lo que
e(F) = dim N (T ) ≤ dim HI c ⊥ = m.
Para ver la recı́proca, usaremos las propiedades del ı́ndice de Fredholm. De hecho, si
e(F) = m < ∞, se tiene que T es de Fredholm con Ind T = dim N (T ) = m. El caso m = 0
ya lo vimos (es P (0) de la inducción). Si m > 0, también E(F) > 0 (por 1.). Sea n ∈ N tal
que a {fn } se lo puede borrar de F. Notemos Fn = F \ {fn }. Sabemos que

Ind (T Pn ) = Ind (T ) + Ind (Pn ) = Ind (T ) = m ,

porque al ser Pn un proyector (y de Fredholm), tiene Ind Pn = 0. Pero como Fn es un frame,

R(T Pn ) = H y m = Ind T Pn = dim N (T Pn ) .

Ahora, como (T Pn , {en }⊥ , B \ {en }) es un operador preframe para Fn , tenemos que

e(Fn ) = dim(N (T Pn ) ∩ {en }⊥ ) = m − 1

Por alguna hipótesis inductiva (e(F) = n =⇒ E(F) = n para n < m), deducimos que
E(Fn ) = m − 1 < ∞. Pero como esto pasa para todo n ∈ N que pueda ser borrado de F,
tiene que valer que E(F) = m.
3. Se deduce de lo visto hasta ahora. 
Observación 14.5.4. Sea F = {fn }n∈N un frame en H. Podemos deducir de la Prop. 14.5.3
que, si e(F) = m < ∞, existe I ⊆ N con |I| = e(F) tal que FI c es base de Riesz de H. Esto
fué probado por Holub en [29].

358
Pero si e(F) = ∞, la Prop. 14.5.3 nos asegura que se pueden borrar de F conjuntos
J ⊆ N de cualquier tamaño, siempre que sean finitos (ya que E(F) es un supremo, no
necesariamente un máximo). Cae naturalmente la siguiente pregunta: Cuáles son los frames
a los que sı́ se les puede borrar un conjunto infinito I ⊆ N de ı́ndices?
Esta clase de frames fué caracterizada por Balan, Casazza, Heil y Landau [3]. Presentare-
mos una versión de esa caracterización en términos de núcles de operadores preframe. Antes
de hacerlo, necesitamos un Lemma técnico (ver theorem 5.2 en [3]).
Recordar que, si B = {ek }k∈N una BON de H e I ⊆ N, notamos BI = {ek : k ∈ I},
HI = span {BI } y PI = PHI . 4
Lema 14.5.5. Sean A ∈ L(H)+ y B = {ek }k∈N una BON de H. Si existe a > 0 tal que
hAek , ek i ≥ a para todo k ∈ N, entonces para cada 0 < ε < a, existe I ∈ PI (N) (o sea que I
es infinito) tal que

γ(PI API ) ≥ a − ε y N (PI API ) = HI c .

En particular, PI API ∈ Gl(HI )+ .


Demostración. Fijemos 0 < ε < a. Por un argumento recursivo, se puede elegir un I ∈ PI (N)
que cumpla que la matriz C = (cij )i,j∈I dada por cij = hAej , ei i, i, j ∈ I, verifique
X X
|cji | = |cij | < ε , para todo i ∈ I.
j∈I j∈I
j6=i j6=i

Esto puede hacerse porque, para todo i ∈ N, la sucesión (cij )j∈I ∈ `2 (I), y a fortiori cij −→ 0.
j→∞
Notar que C es la matriz de PI API ∈ L(HI )+ en términos de la BON BI de HI . Además
cii ≥ a > ε, para todo i ∈ I. Es conocido que un operador no negativo con una tal matriz
debe ser estrictamente positivo. Más aún, por el teorema de los discos de Gersgorin y un
argumento standard de lı́mites (SOT), podemos probar que σL(HI ) (PI API ) ⊆ [a − ε, +∞)
(ver, por ejemplo, el libro de Bhatia [5] VIII.6.3). 
Teorema 14.5.6. Sea F un frame en H con operador preframe (T, H, B). Notemos S =
N (T ) y B = {en }n∈N . Supongamos que e(F) = ∞. Entonces existe un J ∈ PI (N) que
puede borrarse de F si y sólo si 
PS en −−−→ 0 .
n→∞

Más aún, si I ∈ PI (N) y kPS en k ≥ cI > 0 para todo n ∈ I, se puede tomar J ⊆ I.


Demostración. Ambas condiciones son invariantes de la clase de equivalencia de F, porque
multiplicar a izquierda por un inversible no cambia el núcleo ni cambia el hecho de que un
operador sea suryectivo. Por lo tanto basta probar el caso en que F es de Párseval. Es decir,
que asumimos que T T ∗ = I y T ∗ T = PS ⊥ .
Sea J ∈ PI (N) borrable. Si x ∈ HJ ∩ S ⊥ e y ∈ HJ c , entonces

0 = hx, yi = hT ∗ T x, yi = hT x, T yi .

359

Por lo tanto T (HJ ∩ S ⊥ ) ⊆ T (HJ c )⊥ = {0}. Y como T S ⊥ es inyectivo, podemos deducir
que HJ ∩ S ⊥ = {0}. Por otro lado, como R(T PJ c ) = H (en particular es cerrado), las
Proposiciones 8.4.12 y 8.2.5 dan que, para todo n ∈ J,
0 < γ(T PJ c ) = s [ S , HJ c ] = s S ⊥ , HJ = d((HJ )1 , S ⊥ ) ≤ d(en , S ⊥ ) = kPS en k ,
 

por lo que PS en −−−→ 0. Recı́procamente, si existen I ∈ PI (N) y cI > 0 tales que
n→∞

kPS en k2 = hPS en , en i = hPI PS PI en , en i ≥ c2I para todo n ∈ I ,


podemos aplicar el Lema 14.5.5 a PI PS PI actuando HI . Ası́ sabemos que existe J ⊆ I,
también infinito, tal que
2
0 < γ(PJ PS PJ ) = γ(PS PJ )2 = s S ⊥ , HJ = s [ S , HJ c ]2 = γ(T PJ c )2 ,

(14.22)
(se usaron las Proposiciones 8.4.9 y 8.4.10). Por la Prop. 8.4.11, R(T PJ c ) v H. Por otro
lado, siempre por el Lema 14.5.5 aplicado a a PI PS PI ,
HJ c = N (PJ PS PJ ) = N (PS PJ ) = HJ c ⊥ (HJ ∩ S ⊥ ) =⇒ HJ ∩ S ⊥ = {0} .
Luego H = (HJ ∩ S ⊥ )⊥ = HJ⊥ + S = HJ c + S, ya que la suma es cerrada por (14.22). Luego
R(T PJ c ) = T (HJ c ) = T (HJ c + S) = T (H) = H .
Esto muestra que FJ c es subframe de F. 
Corolario 14.5.7. Sea F un frame en H con operador preframe (T, H, B). Notemos S =
N (T ) y B = {en }n∈N . Supongamos que e(F) = ∞. Entonces son equivalentes:
1. Existe un J ∈ PI (N) que puede borrarse de F.
2. Existe un J ∈ PI (N) tal que R(T PJ c ) = H.

3. PS en −−−→ 0.
n→∞

4. Existen I ∈ PI (N) y cI > 0 tales que kPS en k ≥ cI para todo n ∈ I.


Más aún, si algún I ⊆ N cumple la condición 4, entonces existe un J ⊆ I, también infinito,
que puede borrarse de F.
Demostración. Es consecuencia del Teo. 14.5.6 y de su demostración. 
Corolario 14.5.8. Sea F = {fn }n∈N un frame de Párseval con e(F) = ∞. Entonces existe
un I ∈ PI (N) que puede borrarse de F si y sólo si kfn k −−−→ 1.
n→∞

Demostración. Sea (T, K, B) un operador preframe de F, con B = {en }n∈N . Notemos


S = N (T ). Luego T es una coisometrı́a, y kT xk = kxk para todo x ∈ S ⊥ . En particular
kfn k = kT en k = kT PS ⊥ en k = kPS ⊥ en k = (1 − kPS en k2 )1/2 , n∈N.
Ahora basta aplicar el Teo. 14.5.6. 

360
Observación 14.5.9. Con las notaciones del Cor. 14.5.7, los números kPS en k tienen una
fuerte relación con las cotas AFn de las sucesiones Fn = F \{fn }. En efecto, por la Prop. 8.2.5,
para cada n ∈ N tal que PS en 6= 0 (o sea kfn k = 6 1),

kPS en k = d (span {en })1 , S ⊥ = s span {en } , S ⊥ = s {en }⊥ , N (T ) .


    

La Proposición 8.4.12 da entonces que, si notamos Pn = P{en }⊥ ,

γ(T )kPS en k ≤ γ(T Pn ) ≤ kT k kPS en k para aquellos n ∈ N .

Recordar que AFn = γ(T Pn )2 . La condición 4 del Cor. 14.5.7, escrita en términos de las AFn ,
es la caracterización dada por Balan, Casazza, Heil y Landau en [3]. En el Ejem. 14.5.15
de más abajo, veremos un frame F de H con e(F) = ∞ que no verifica las condiciones del
Cor. 14.5.7. 4

14.5.2 Frames que contienen bases Riesz


Aquı́ estudiaremos aqullos frames F = {fn }n∈N para los cuales existe un J ∈ PI (N) (o sea
que J es infinito) tal que FJ c = {fn }n∈J c es una base de Riesz. Llamaremos f rames
Rieszibles a tales F. Para ver resultados sobre estos temas, referimos a los siguientes
trabajos: [10], [11], [18] y [19].
Observaciones: 14.5.10. Sea F un frame en H con operador preframe (T, H, B). Notemos
S = N (T ) y B = {en }n∈N .

1. F is Rieszible si y sólo si existe J ∈ P(N) tal que J c ∈ PI (N) y T PJ : HJ → H es


inversible. En otras palabras, HJ debe cumplir que

a. T (HJ ) = H.
b. N (T ) ∩ HJ = {0}.

2. Ser Rieszible es un invariante de la clase de equivalenmcia de F, i.e., F es Rieszible si


y sólo si {Gfn }n∈N es Rieszible, para todo G ∈ Gl (H). En este sentido, el ser Rieszible
es una propiedad de S = N (T ) (que es el mismo que N (GT ), para todo G ∈ Gl (H)).

3. Veremos más adelante (en la Prop. 14.5.16) que todo frame de Riesz contiene bases de
Riesz. Esto fué probado por Christensen en [18]. En particular, un frame de Riesz con
e(F) = ∞ será entonces Rieszible. También los frames con la “subframe property”
(i.e., frames F tales que FI es a sucesión frame para todo I ⊆ N, ver Casazza and
Christensen [10] [12]) son Rieszibles, pero los frame de Riesz condicionados en general
no son Rieszibles, (ver Ejemplo 14.4.10). Por otro lado, por la Prop. 14.5.3, los frames
con exceso finito contienen bases de Riesz , pero no son Rieszibles, porque el conjunto
que se debe borrar es finito.

Proposición 14.5.11. Sea F = {fn }n∈N un frame en H y sea B una BON de H. Entonces
F is Rieszible si y sólo si existe un operador preframe (M, H ⊕ H, B 0 ) para F tal que

361
1. B 0 = B ⊕ {0} {0} ⊕ B.
S

2. M (x ⊕ y) = N x + U y, x, y ∈ H; donde N ∈ L(H) y U ∈ Gl (H).


Demostración. Supongamos que F es Rieszible, con operador preframe (T, H, B). Fijemos
J ∈ PI (N) tal que FJ c es base de Riesz. Llamaremos

V1 : H → HJ y V2 : H → H J c ,

a los operadores unitarios definido por las biyecciones naturales entre B y BJ (resp. entre B
y BJ c ). Tomando N = T ◦ V1 y U = T ◦ V2 , podemos definir

M (x ⊕ y) = N x + U y , para todo par x, y ∈ H ,

que es el operador preframe anunciado (M, H ⊕ H, B 0 ) para F. En efecto, U debe ser


inversible porque (U, {0} ⊕ H, {0} ⊕ B) is un operador preframe para FJ c . La recı́proca es
clara. 
Observación 14.5.12. La Prop. 14.5.11 tiene la siguiente consecuencia: Dado F = {fn }n∈N
Rieszible, si usted me da un J ∈ PI (N) tal que FJ sigue siendo frame, bien puede pasar que
FJ no sea más Rieszible, ni siquiera en el sentido más débil de Teo. 14.5.6, y tampoco tener
la subframe property.
En efecto, si se toman M , N y U como en la Prop. 14.5.11 y suponemos que N era un
epimorfismo, podrı́amos borrar BJ c = {0 ⊕ en : n ∈ N} ⊆ B 0 (la mitad de B 0 asociada a
U ). Entonces conseguirı́amos al frame FJ = {N en }n∈N , que puede ser tan malo como uno
quiera, porque N puede ser cualquier epimorfismo.
También dice que va a ser muy complicado encontrar alguna caracterizacón limpita
de ser Rieszible, porque la libertad que uno tiene para poner N ’s hace que la clase de
los Rieszibles sea seguramente bastante caótica. Sin embargo, la modelización que da la
Prop. 14.5.11 permite obtener las siguientes condiciones necesarias, que al menos ayudan a
testar la Rieszibilidad o no de los ejemplos. 4
Proposición 14.5.13. Sea F un frame Rieszible en H. Sea B = {en }n∈N una BON de H, y
consideremos el operador preframe (M, H ⊕ H, B 0 ) de F, con M (x ⊕ y) = N x + U y, x, y ∈ H
como en la Prop. 14.5.11. Si S = N (M ), entonces

kPS (en ⊕ 0)k ≥ (1 + kU −1 T k2 )−1 para todo n∈N

y
kPS (0 ⊕ en )k2 ≤ 1 − (1 + kU −1 T k2 )−2 para todo n∈N. (14.23)
Demostración. Notar que

S = Gr(−U −1 T ) = {x ⊕ −U −1 T x : x ∈ H} .

En efecto, T x + U y = 0 si y sólo si y = −U −1 T x. Notemos V = U −1 . Es fácil ver que

S ⊥ = {T ∗ V ∗ y ⊕ y : y ∈ H} .

362
Fijemos N ∈ N. Sea en ⊕ 0 ∈ B y tomemos en ⊕ 0 = (x ⊕ −V T x) + (T ∗ V ∗ y ⊕ y), su
descomposición relativa a S ⊕ S ⊥ . Luego y = V T x, y en = x + T ∗ V ∗ V T x = (I + T ∗ V ∗ V T )x.
Por lo tanto

PS (en ⊕ 0) = (I + T ∗ V ∗ V T )−1 en ⊕ −V T (I + T ∗ V ∗ V T )−1 en ,

por lo que

kPS (en ⊕ 0)k ≥ k(I + T ∗ V ∗ V T )−1 en k ≥ k(I + T ∗ V ∗ V T )k−1 = (1 + kU −1 T k2 )−1 .

Por otro lado, si 0 ⊕ en = (x ⊕ −V T x) + (T ∗ V ∗ y ⊕ y), entonces x = −T ∗ V ∗ y y también


en = y + V T T ∗ V ∗ y. Ası́ y = (I + V T T ∗ V ∗ )−1 en ,

PS (0 ⊕ en ) = −T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en ⊕ V T T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en y

PS ⊥ (0 ⊕ en ) = T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en ⊕ (I + V T T ∗ V ∗ )−1 en .
Como antes, obtenemos que kPS ⊥ (0 ⊕ en )k ≥ (1 + kU −1 T k2 )−1 . 
Corolario 14.5.14. Sea F un frame en H con operador preframe (T, H, B). Notemos
S = N (T ) y B = {en }n∈N . Supongamos que J ⊆ PI (N) cumple que FJ c es base de Riesz.
Entonces debe exisitir una constante c ∈ (0, 1) tal que

kPS en k ≥ c para todo n∈J y kPS en k ≤ (1 − c2 )1/2 para todo n ∈ Jc .

Demostración. Es tan solo refrasear la Prop. 14.5.13. 


Ejemplo 14.5.15. Sea B = {en }n∈N una BON H. Sea C = {cn }n∈N el sistema ortonormal
dado por
n −1
2X
e2 + e3 1−n
c1 = e1 , c2 = √ , . . . , cn = 2 2 ek , . . . .
2 k=2 n−1

Sea S = span {C}. Es claro que dim S = ∞ y que también dim S ⊥ = ∞. Notemos que, si
2n−1 ≤ k ≤ 2n − 1, entonces

1−n
X
PS ek = hek , cj icj = hek , cn icn = 2 2 cn .
j=1

Por lo tanto PS ek −−−→ 0 y kPS ⊥ ek k = k(I −PS ) ek k −−−→ 1. Sean T1 , T2 ∈ L(H) suyectivos
k→∞ k→∞
tales que N (T1 ) = S y N (T2 ) = S ⊥ . Consideremos los frames

F = {fn }n∈N y G = {gn }n∈N dados por fn = T1 en y gn = T2 en , n ∈ N .

1. Por el Teo. 14.5.6, F da un ejemplo de frame con e(F) = ∞ para el que no existe
I ∈ PI (N) tal que FI c sea subframe de F. En particular, F no es Rieszible, aunque
existe ε > 0 tal que kfn k ≥ ε para todo n ∈ N, porque

kfn k = kT PS ⊥ en k ≥ γ(T1 )kPS ⊥ en k −−−→ γ(T1 ) .


n→∞

363
2. G da un ejemplo de frame para el que sı́ existe I ∈ PI (N) tal que GI c es frame (nueva-
mente por el Teo. 14.5.6), pero G no es Rieszible. En efecto, como kPS ⊥ ek k −−−→ 1,
k→∞
no se puede cumplir lo dicho por el Cor. 14.5.14.

Se suguiere ver los ejemplos de los siguientes trabajos: Balan, Casazza, Heil, Landau [3] y
Casazza, Christensen [11]. 4
Proposición 14.5.16. Todo frame de Riesz contiene una base de Riesz.
Demostración. Sea F = {fn }n∈N un marco de Riesz. El caso en que e(F) < ∞ es fácil, asi
que podemos suponer que e(F) = ∞. Sea

C = J ⊆ N : FJ c es subframe de F ,

ordenado por inclusión. Por la Proposición 14.5.3, si existiera un J ∈ C maximal, entonces


tendrı́amos que 0 = E(FJ c ) = e(FJ c ), por lo que FJ c serı́a una base de Riesz. Observar
que e(F) 6= 0 implica que C 6= ∅. Para poder aplicar el Lema de Zorn (y ası́ ver que hay
maximales), bastarı́a probar que si (Jα )α∈Λ es una cadena en C, entonces
[
J= Jα ∈ C .
α∈Λ

Sea (T, H, B) un operador preframe para F y sea a > 0 tal que γ(T PI ) ≥ a para todo I ⊆ N.
Notemos Iα = N \ Jα , α ∈ Λ, e I = N \ J. Como Jα ∈ C, o sea que FIα es subframe de F,
tenemos que T PIα T ∗ ∈ Gl(H)+ , para todo α ∈ Λ. Por lo tanto a2 IH ≤ T PIα T ∗ para todo
SOT SOT
α ∈ Λ. Por la definición de J, se tiene que PJα −−→ PJ . Entonces PIα −−→ PI y
SOT
a2 IH ≤ T PIα T ∗ −−→ T PI T ∗ .

Luego a2 IH ≤ T PI T ∗ , lo que implica que T PI es epi, FI es un frame y J ∈ C. 

14.6 Truncaciones
Observación 14.6.1. Sea F = {fn }n∈N un frame en H, con un operador preframe (T, H, B).
Notemos S = T T ∗ . Llamaremos operadores de frame truncados a
N
X
SN (f ) = hf, fn ifn = T PN T ∗ , N ∈N,
n=1

donde la última igualdad se deduce de que T PN es operador de preframe para {f1 , . . . , fN }.


Observar que los SN verifican las siguientes propiedades: para todo N ∈ N,

1. SN ≥ 0, y R(SN ) = R(T PN ) = span {fn : 1 ≤ n ≤ N }.


SOT SOT
2. Como PN −−−→ I, entonces SN = T PN T ∗ −−−→ T T ∗ = S.
N →∞ N →∞

364
† † † SOT
3. Existe SN , y además SN SN = SN SN = PR(SN ) −−−→ I.
N →∞

4. Para cada f ∈ H, se tiene que


N
X N
X
† † †
hf , SN fn i fn = h SN f , fn i fn = SN SN f −−−→ f , (14.24)
N →∞
n=1 n=1

lo que da una forma finita de aproximar la fórmula de inversión para F. Sin embargo

no es cierto en general que los coeficientes h f , SN fn i aproximen a los coeficientes de
−1
frame h f , S fn i. Para esto es necesario que F sea de Riesz: 4

Proposición 14.6.2. Sea F = {fn }n∈N un frame de Riesz en H, con un operador preframe
(T, H, B). Notemos S = T T ∗ . Entonces los operadores de frame truncados
N
X
SN (f ) = hf, fn ifn = T PN T ∗ , N ∈N
n=1

verifican las siguientes propiedades:


† SOT
1. SN −−−→ S −1 .
N →∞

2. Para cada f ∈ H, se puede aproximar uniformemente (para n ∈ N) a los coeficientes

frame hf, S −1 fn i n∈N de f con los coeficientes truncados hf, SN fn i n∈N . Es decir que

† −1

hf, S f i − hf, S f i −−−→ 0 .

N n n∈N n n∈N
∞ N →∞

donde k · k∞ denota la norma de `∞ (N).

3. Para cada f ∈ H, se tiene que



X ∞
X
† † †
hf , SN fn i fn = h SN f , fn i fn = S SN f −−−→ f
N →∞
n=1 n=1

(comparar con la Ec. (14.24) ).


† SOT
Demostración. Veremos en principio que SN S −−−→ I. En efecto, como SN = T PN T ∗ ,
N →∞
podemos escribir S = T T ∗ = SN +T (I −PN )T ∗ . Llamemos RN = T (I −PN )T ∗ , y observemos
SOT
que RN −−−→ 0. Como F es de Riesz, existe a > 0 tal que γ(T PI ) ≥ a para todo I ⊆ N.
N →∞
Luego

kSN k = γ(T PN T ∗ )−1 = γ(T PN )−1/2 ≤ a−1/2 para todo N ∈ N .
† SOT
Es fácil ver que entonces también SN RN −−−→ 0. Como
N →∞


SN SN = PN (SN )⊥ = PR(SN ) y R(SN ) = span {fn : n ≤ N } , N ∈ N,

365
podemos concluir que
† † † SOT
SN S = SN SN + SN RN −−−→ I + 0 = I .
N →∞

† SOT † SOT
Es claro que esto implica que SN −−−→ S −1 y que S SN −−−→ I (lo que prueba el item 3).
N →∞ N →∞
Si fijamos f ∈ H, y observamos que kfn k = kT en k ≤ kT k, n ∈ N, deducimos que
† † †
|hf, S −1 fn i − hf, SN fn i| = |hS −1 f − SN f, fn i| ≤ kS −1 f − SN f k kT k −−−→ 0
N →∞

a la misma velocidad para todo n ∈ N. 

14.7 Marcos de Gabor.


14.7.1 Motivaciones
Comencemos motivando la definición de esta clase de marcos, tan importantes en las apli-
caciones. Dada una señal f (t), donde la variable t es interpretada como el tiempo, su
transformada de Fourier fˆ(ω) nos brinda información sobre las oscilaciones para cada fre-
cuencia ω. Uno de los problemas que surgen en la práctica es que la transformada de Fourier
no nos dice que frecuencias aparecen en un determinado tiempo t0 . El modo de superar
esta dificultad es mirar la señal en un intervalo pequeño de tiempo y transformar Fourier
allı́. Matemáticamente hablando, esto significa multiplicar f (t) por una función g(t) que es
constante en un intervalo pequeño y luego decae rápidamente a cero. Dicha función g(t)
suele denominarse función de ventana. Si bien este proceso tiene sus limitaciones, nos
brinda una idea de las frecuencias que aparecen en un entorno de cierto t0 . Para obtener
esta información sobre f en todo el eje temporal repetimos el proceso trasladando la función
de ventana. Esto conduce a la siguiente definición
Definición 14.7.1. Sea g ∈ L2 (R) no nula. La transformada de Fourier de tiempo
corto de una función f ∈ L2 (R) con respecto a la función de ventana g se define del siguiente
modo: Z ∞
Ψg (f )(y, ω) = f (x)g(x − y)e−2πixω dx y, ω ∈ R.
−∞

La definición anterior puede reformularse en términos de los denominados operadores de


traslación y de modulación. Recordemos que, dado y ∈ R, el operador de translación
Ty : L2 (R) → L2 (R) se define como

(Ty f )(x) = f (x − y).

Por otro lado, dado ω ∈ R, el operador de modulación Eω : L2 (R) → L2 (R) se define como

(Eω f )(x) = e2πixω f (x)

366
Es un hecho bién conocido que estos operadores resultan unitarios, y si bien no conmutan
guardan la siguiente relación:
Eω Ty = e−2πiωy Ty Eω (14.25)
En términos de estos operadores, Ψg (f )(y, ω) = hf, Eω Ty gi.
Al igual que para la transformada de Fourier, existe una fórmula de inversión. Dadas
funciones g1 , g2 ∈ L2 (R) tales que hg1 , g2 i =
6 0, entonces, para toda f ∈ L2 (R)
Z ∞Z ∞
1
f= hf, Eω Ty g1 i Eω Ty g2 dωdy,
hg1 , g2 i −∞ −∞

donde la integral debe interpretarse en cierto sentido débil que no precisaremos. En esta
instancia, uno podrı́a preguntarse si es necesario tener como información Ψg (f )(y, ω) para
todo (y, ω) ∈ R2 , o si basta conocer los valores que esta toma en, por ejemplo, cierto
reticulado de la forma aZ × bZ con a, b ∈ R+ no nulos. De esta pregunta surge la definición
de los marcos de Gabor.
Definición 14.7.2. Un marco de Gabor (regular) para L2 (R) es un marco de la forma

G(g, a, b) = {Emb Tna g}n,m∈Z ,

donde a, b > 0 y g ∈ L2 (R) es una función fija.


Estos marcos suelen llamarse también marcos de Weyl-Heisenberg debido a que el sub-
grupo de unitarios que generan Eb y Ta es una representación del grupo que lleva ese nombre.
Por otro lado, cabe mencionar que los parámetros de los operadores de traslación y modu-
lación no tiene por que ser las coordenadas de un reticulado de la forma aZ × bZ. Más
generalmente, uno puede buscar marcos de la forma {Ebm Tan g}n,m∈Z con an , bm ∈ R, los
cuales son denominados marcos de Gabor irregulares. Dado que en este trabajo no con-
sideraremos tales marcos, cuando nos refiramos a marcos de Gabor, implı́citamente nos
estaremos refiriendo a marcos de Gabor regulares.
Los marcos de Gabor han sido extensamente estudiados. En este trabajo nos interesa
solamente su relación con los marcos de Riesz. Es por eso que, de la innumerable cantidad
de resultados sobre marcos de Gabor, nos limitaremos a citar el siguiente teorema extraı́do
de un trabajo de Linnell [32].
Teorema 14.7.3. Sea g ∈ L2 (R) no nula y aZ × bZ un reticulado de R2 donde a, b > 0.
Entonces, para todo conjunto finito Λ ⊆ aZ × bZ el conjunto {Eα Tβ g}(α,β)∈Λ es LI.

14.7.2 Algunos resultados


El primer resultado que mostraremos dice que los frames asociados a un frame de Gabor son
tambien de Gabor, módulo cambiar adecuadamente la función g ∈ L2 (R) que la genera:
Observación 14.7.4. Sea G un grupo numerable y discreto. Sea U : G → U(L2 (R)) una
representación de G. Fijemos g ∈ L2 (R). Sea M : `2 (G) → L2 (R) dado por M (ex ) = Ux g,

367
x ∈ G. Esto es un preframe para la sucesión de Bessel {Ux g : x ∈ G}. Entonces si
S = M M ∗ ∈ L(L2 (R))+ , se tiene que

SUx = Ux S para todo x∈G .

En efecto, observar que, si para cada x ∈ G definimos Lx ∈ U(`2 (G)), dado por Lx ey = exy ,
y ∈ G, entonces

Ux M ey = Ux (Uy g) = Uxy g = M exy = M Lx ey , x, y ∈ G .

O sea que Ux M = M Lx , x ∈ G. Por lo tanto,

M ∗ Ux = M ∗ (U−x )∗ = (U−x M )∗ = (M L−x )∗ = Lx M ∗ .

Es decir que Ux S = Ux M M ∗ = M Lx M ∗ = M M ∗ Ux = SUx . Algo parecido pasa con los


frames de Gabor, aunque no sean exactamente la representacion de un grupo discreto:
Teorema 14.7.5. Sean g ∈ L2 (R) y a, b > 0 tales que G(g, a, b) es un frame. Sea S su
operador de frame. Se tiene que

1. S · (Erb Tsa ) = (Erb Tsa ) · S para todo r, s ∈ Z.

2. El frame dual S −1 G(g, a, b) = G(S −1 g, a, b).

3. El parseval asociado es S −1/2 G(g, a, b) = G(S −1/2 g, a, b).

Demostración. Notemos k = 2πiab. Recordemos que Emb Tna = e−kmn Tna Emb . Fijemos una
bon B = {en,m : n, m ∈ Z} de un Hilbert H y definamos M em,n = Emb Tna g, obteniendo un
operador preframe para G(g, a, b), por lo que S = M M ∗ . Entonces, para todo par r, s ∈ Z,
se tiene que

(Erb Tsa )M em,n = (Erb Tsa )(Emb Tna )g = ek ms E(r+m)b T(s+n)a g = M (ek ms er+m,s+n ) .

Si Rr,s ∈ U(H) esta dado por Rr,s em,n = ek ms er+m,s+n , entonces (Erb Tsa )M = M Rr,s . Es

fácil ver que Rr,s = ek sr R−r,−s (porque esto manda er+m,s+n en e−k ms em,n ). Por lo tanto

M ∗ (Erb Tsa ) = [T−sa E−rb M ]∗ = [ek sr E−rb T−sa M ]∗

= [M (ek sr R−r,−s )]∗ = [M Rr,s


∗ ∗
] = Rr,s M ∗ .

Es claro que entonces (Erb Tsa )S = M Rr,s M ∗ = S(Erb Tsa ). Las otras identidades se deducen
de inmediato, usando que S 1/2 es lı́mite de polinomios en S. 

368
Ejercicio 14.7.6. Sea F = {fn }n∈N un frame con constantes A y B. Entonces se tiene que
1. kfn k2 ≤ B para todo n ∈ N.
2. Si kfn k2 = B, entonces fn ⊥ fm para todo m 6= n.
El curro es aplicar la desigualdad que define la framidad de F para f = fn y acotar. 4
Teorema 14.7.7. Dados 0 6= g ∈ L2 (R) y a, b > 0, se tiene que
1. Si G(g, a, b) es un frame, entonces ab ≤ 1.
2. Si G(g, a, b) es un frame y ab = 1, entonces G(g, a, b) es una base de Riesz.
Demostración. Usando el Teorema 14.7.5, podemos suponer que G(g, a, b) es un frame de
Parseval, porque si G(g, a, b) es frame, entonces S −1/2 G(g, a, b) = G(S −1/2 g, a, b) es un frame
de Gabor con los mismos a y b, pero es de Parseval. En este caso, el Teorema se deducirı́a
inmediatamente del siguiente hecho:
kgk2 = kEmb Tna gk2 = ab ,
porque las constantes de G(g, a, b) son uno y, por el Ejercicio 14.7.6, sabemos que 1 mayora
a los cuadrados de las normas de sus elementos (esto dirı́a que ab ≤ 1) y porque los que las
alcanzan son ortogonales a los demás, por lo que en el caso ab = 1 resultarı́a que G(g, a, b)
queda bon, después de Parsevalizarla. Para probar la fórmula, usaremos los ı́tems 2 y 3 de
la siguiente Proposición, que es sumamente interesante por sı́ misma:
Proposición 14.7.8. Sean g ∈ L2 (R) y a, b > 0. Definamos
X
G : R → R+ ∪ {+∞} por G(x) = |g(x − na)|2 . (14.26)
n∈Z

entonces valen las siguientes cosas:


1. G(x) ∈ L1 (0, a), en particular es finita pp(x). Además es a-periódica.
Z a
2
2. Más detalladamente, se tiene que kgk2 = G(x) dx.
0

3. Si G(g, a, b) es un frame con constantes A y B, entonces


bA ≤ G(x) ≤ bB para casi todo x∈R. (14.27)
En particular, si G(g, a, b) es de Parseval, entonces G(x) ≡ b y kgk2 = ab.
Demostración. Los ı́tems 1. y 2. se deducen de que, como la medida de Lebesgue es
invariante por translaciones en R, entonces
Z XZ a Z aX Z a
2 2 2 2
kgk = |g(x)| dx = |g(x − na)| dx = |g(x − na)| dx = G(x)dx < ∞ .
R n∈Z 0 0 n∈Z 0

Las desigualdades de (14.27) se prueban independientemente. Veamos la primera. Si fuera


falsa, existirı́a un ∆ ⊆ R con |∆| > 0 tal que G(x) < bA para todo x ∈ ∆. Por manipula-
ciones tı́picas de medidas, podemos suponer también las siguientes dos cosas:

369
1. ∆ ⊆ I, con I un intervalo de |I| = b−1 .

2. Existe un ε > 0 tal que G(x) ≤ bA − ε para todo x ∈ ∆.

Tomemos f = ℵ∆ . Veremos que en f no se cumple la desigualdad que caracteriza a la cota


A para G(g, a, b). Se usará que {b1/2 Emb : m ∈ Z} es una bon de L2 (I). Por ello,
X X Z 2
2

|hf, Emb Tna gi| = g(x − na)E−mb dx

n,m∈Z n,m∈Z ∆

XX
= |hf Tna g, Emb i|2
n∈Z m∈Z

1X
= kf Tna gk2
b n∈Z
Z
1X
= |g(x − na)|2 dx
b n∈Z ∆

Z X Z
1 2 1
= |g(x − na)| dx = G(x)dx
b ∆ n∈Z b ∆

1 ε
≤ (bA − ε)|∆| = (A − )kf k2 ,
b b
lo que contradice que A sea cota inferior para G(g, a, b). El otro caso se hace igual, dado que
en la ecuación anterior todos los pasos son con “igualdad” salvo el que usa la hipótesis. 

370
Capı́tulo 15

Marcos de fusión

15.1 Introducción
La teorı́a de marcos de fusión (o de subespacios) es relativamente reciente. P. Casazza y G.
Kutyniok, en [56], los definieron como marcos de subespacios, estudiando posibles construc-
ciones de marcos “pegando” muchas sucesiones marco en un espacio de Hilbert H. Para
que esto pueda hacerse este marco uniendo los submarcos, los subespacios que éstos generan
deben satisfacer (concretamente las proyecciones ortogonales a ellos) una desigualdad similar
a la de los marcos de vectores. De ahı́ el nombre de marcos de subespacios. Enfoques simi-
lares aparecen en los trabajos de M. Fornasier, [66, 67], el trabajo de A. Aldroubi, C.Cabrelli
y U.Molter, [37] y el paper de G. Sun [84].
Los marcos de subespacios, son el modelo adecuado para representar los denominados
procesos distribuidos en los que una señal se estudia en partes, utilizando marcos, para
finalmente reconstruir la señal completa uniendo adecuadamente esas piezas. El ejemplo
que Casazza y Kutyniok usan para graficar una situación de esta ı́ndole es el de una red de
sensores, por ejemplo tomando datos climáticos, distribuı́da a lo largo de un terreno extenso.
Por cuestiones prácticas, por ejemplo para que la transmisión de datos tenga cierta robustez,
los sensores presentan cierto nivel de redundancia, por lo que los podemos considerar como
elementos de un marco. Los sensores se agrupan en subredes redundantes, por ejemplo, para
prevenirse de que fallas en algún sensor o grupo de sensores afecte la información completa
que provee la red completa. Por lo tanto, cada una de esas subredes es un submarco, y
los subespacios generados forman un marco de subespacios. De forma similar, se puede
simular el proceso neuronal tratando a grupos de neuronas como submarcos integrando una
red neuronal mas grande.
Los marcos de subespacios, renombrados marcos de fusión a partir del trabajo de P.
Casazza, G. Kutyniok y S. Li [58]), comenzaron a estudiarse intensivamente en los últimos
años. Se han estudiado técnicas de reconstrucción utilizando marcos de fusión en procesos
distribuidos, comparando reconstrucciones locales y globales. Asimismo, propiedades de
robustez en marcos de fusión para erasures, tanto de subespacios como a nivel local, de
vectores en alguno de los submarcos que integran el marco global (ver P. Casazza y G.
Kutyniok [57]). Recientemente han aparecido además los trabajos de Bodmann, Kribs y

371
Paulsen ([48]) y Bodmann ([47]) en donde se estudian marcos de fusión Parseval (bajo el
nombre de resolución proyectiva pesada de la identidad ) para la transmisión de estados
cuánticos.

15.2 Nociones básicas


En este Capı́tulo, el conjunto de ı́ndices I consistirá de

I = In = {1, . . . , n} para algún n ∈ N, o bien I=N,

para incluir tanto el caso de sucesiones finitas, como numerables. Recordemos que por `∞ + (I)
nos referimos al espacio de sucesiones acotadas de números (estrictamente) positivos que
serán considerados pesos de aquı́ en adelante. El elemento 1 ∈ `∞+ (I) es la sucesión formada
por unos. Sea H un espacio de Hilbert separable de dimensión infinita. Las siguientes
definiciones se basan el el trabajo [56] de Casazza y Kutyniok.
Definición 15.2.1. Sea W = {Wi }i∈I una sucesión de subespacios cerrados de H, todos
ellos distintos de {0}, y sea w = {wi }i∈I ∈ `∞
+ (I).

1. Decimos que Ww = (wi , Wi )i∈I es una sucesión de Bessel de subespacios (que en


adelante abreviaremos por SBS) si existe B > 0 tal que
X
wi2 kPWi f k2 ≤ Bkf k2 para todo f ∈ H . (15.1)
i∈I

donde cada PWi ∈ L(H) es la proyección ortogonal sobre Wi .

2. Decimos que Ww es un marco de subespacios o marco de fusión (abreviaremos MF)


para H, (resp. MF para S v H) si existen A, B > 0 tal que
X
Akf k2 ≤ wi2 kPWi f k2 ≤ Bkf k2 para todo f ∈ H (resp. f ∈ S) , (15.2)
i∈I

Las cotas óptimas para (15.2) se denotan AWw y BWw .

3. W es una sucesión minimal si

Wi ∩ span {Wj : j 6= i} = {0} para todo i∈I . (15.3)

Supongamos que Ww es un MF para H. Entonces


4. Ww es un marco ajustado si AWw = BWw , y un marco de Parseval si AWw = BWw = 1.

5. Ww es una base de Riesz de subspacios (BRS) si W es una sucesión minimal.

6. Ww es una base ortonormal de subespacios (en siglas, BONS) si Wi ⊥ Wj para


cualquier par de ı́ndices i 6= j, y además w = 1. 4

372
Observación 15.2.2. Los marcos de subespacios pueden interpretarse como una general-
ización de los marcos usuales de vectores. Concretamente, dado un marco F = {fi }i∈I para
H, éste puede pensarse como un marco de subespacios Ww si consideramos los subespacios
de dimensión uno Wi = span {fi } y los pesos wi = kfi k. 4
El siguiente resultado determina una relación entre marcos de subespacios y marcos de
vectores. Desde un punto de vista dice que, bajo determinadas condiciones, uno puede
“unir” sucesiones marco y obtener un marco para el espacio de Hilbert completo. Por otro
lado, permite testear si una sucesión Ww = (wi , Wi )i∈I es o no un MF (y obtener información
sobre sus cotas), en función a familias de vectores elegidos convenientemente dentro de cada
subespacio Wi .
Teorema 15.2.3. Sea W = {Wi }i∈I una sucesión de subespacios cerrados de H y sea
w ∈ `∞
+ (I). Para cada i ∈ I, sea Gi = {fij }j∈Ji un marco para Wi . Supongamos que

0 < A = inf AGi y B = sup BGi < ∞ .


i∈I i∈I

Sea Ei = {eik }k∈Ki una base ortonormal para cada Wi . Entonces son equivalentes:
1. F = {wi fij }i∈I,j∈Ji = {wi Gi }i∈I es un marco para H.

2. E = {wi eik }i∈I,k∈Ki = {wi Ei }i∈I es un marco para H.

3. Ww = (wi , Wi )i∈I es un MF para H.


En este caso, las cotas de marco para Ww , F y E satisfacen las desigualdades
AF BF B
A AWw ≤ ≤ AWw = AE y BE = BWw ≤ ≤ BWw . (15.4)
B A A
Demostración. Dado f ∈ H, de las hipótesis tenemos que

A i∈I wi2 kPWi f k2 ≤ Ai wi2 kPWi f k2 ≤ |h PWi f, wi fij i|2


P P P P
i∈I i∈I j∈Ji
(15.5)
wi2 2
wi2 2
P P
≤ Bi kPWi f k ≤ B kPWi f k .
i∈I i∈I

Por otra parte, como Wi = span {fij : j ∈ Ji } para cada i ∈ I, tenemos que
X X X X
|h PWi f, wi fij i|2 = |h f, wi fij i|2 .
i∈I j∈Ji i∈I j∈Ji

Luego, si asumimos que F es un marco, podemos deducir que Ww es un MF cuyas cotas


cumplen una parte de la Ec. (15.4). Por ejemplo, por las últimas desigaudades de (15.5),
queda que
AF 1 X X X AF
kf k2 ≤ |h f, wi fij i|2 ≤ wi2 kPWi f k2 =⇒ 0 < ≤ AWw .
B B i∈I j∈J i∈I
B
i

373
BF
Análogamente se ve que BWw ≤ < ∞. Recı́procamente, si Ww es un MF entonces,
A
aplicando nuevamente la Ec. (15.5), podemos deducir que F es un marco y que sus cotas
cumplen las desigualdades
A AWw ≤ AF ≤ BF ≤ B BWw .
La equivalencia entre 2 y 3, y las igualdades AWw = AE y BWw = BE se muestran ree-
scribiendo la Ec. (15.5) para E, donde se tendrá que A = Ai = 1 = Bi = B. Se obtienen
desigualdades semejantes a las de la Ec. (15.4), pero al ser A = B = 1, quedan igualdades.


15.3 Marcos de fusión y operadores


Las nociones de operadores de marco, sı́ntesis y análisis pueden ser extendidas a sucesiones
de Bessel de subespacios. Sin embargo, el espacio de Hilbert de “análisis” del marco ahora
depende fuertemente de la sucesión de subespacios W = {Wi }i∈I .
Definición 15.3.1. Sea Ww = (wi , Wi )i∈I una SBS en H. Definimos el espacio de Hilbert
M X
KW = Wi , con la norma `2 : kgk2 = kgi k2 , para g = (gi )i∈I ∈ KW .
i∈I i∈I

Además, la SBS tiene asociados los siguientes operadores:


• Operador de sı́ntesis: TWw : KW → H, definido por
X
TWw (g) = wi gi , para g = (gi )i∈I ∈ KW .
i∈I


• Su adjunto, TW w
∈ L(H, KW ) es el operador de análisis de Ww . Es fácil ver que

TW w
(f ) = {wi PWi f }i∈I , para todo f ∈ H .

• El operador de marco: SWw = TWw TW w
∈ L(H)+ , que satisface
X
SWw f = wi2 PWi f , para todo f ∈ H .
i∈I

• El exceso de Ww se define como E (Ww ) = dim N (TWw ) . 4


Observación 15.3.2. Sean Ww y E como en el Teo. 15.2.3. Luego se tiene que
M
TWw = TE , usando la base ortonormal B = {eik }i∈I,k∈Ki de KW = Wi .
i∈I

Esto se P
muestra directamente por la definición de ambos operadores, y el hecho de que
wi gi = hgi , eij i wi eij , para todo gi ∈ Wi y todo i ∈ I. Observar que ası́ se obtiene otra
j∈Ji
prueba de la equivalencia entre los ı́tems 2 y 3 de aquel teorema. 4

374
Observación 15.3.3. Sea W = {Wi }i∈I una sucesión de subespacios cerrados de H, y sea
w = {wi }i∈I ∈ `∞
+ (I). Los siguientes resultados se siguen directamente de las definiciones,
en forma semejante a como se hace en la Obs. 14.1.2 para el caso vectorial (ver [56]):
1. Ww = (wi , Wi )i∈I es una SBS si y sólo si el operador de sı́ntesis TWw está bien definido
y es acotado. En este caso,
2. Ww es un MF para H (resp. para S v H) si y sólo si TWw es suryectivo (resp
R(TWw ) = S) .

3. Esto es equivalente además con que TW w
es acotado inferiormente.
Si Ww es un MF para H, entonces
4. AWw = γ(TWw )2 y BWw = kTWw k2 . Por lo tanto AWw · I ≤ SWw ≤ BWw · I.
5. Ww es una BRS si y sólo si TWw es invertible (i.e. inyectivo) y Ww es una base

ortonormal de subespacios si y sólo si w = e y TW T
w Ww
= IKW .

6. Ww es ajustado si y sólo si TWw TW w
= AWw · IH , y Ww es de Parseval si y sólo si TWw
es una coisometrı́a. 4

En resumen,
M dada Ww = (wi , Wi )i∈I , una SBS en H, se le asocia el espacio de Hilbert
KW = Wi , dotado de una BONS natural (las copias Ei de cada Wi en KW ), y el operador
i∈I P
de sı́ntesis TWw : KW → H, definido por TWw (g) = wi gi para g = (gi )i∈I ∈ KW , cuyas
i∈I
propiedades caracterizan a Ww . Esta construcción busca reemplazar la relación entre frames
de vectores y sus llamados operadores preframe (el par dado por un epimorfismo sobre H y
una base ortonormal de su dominio). Sin embargo, dicha construcción es demasiado rı́gida,
en el sentido de que cambiando muy poco una SBS, no puede saberse como se modifica o
como obtener su operador de sı́ntesis. Notar, por ejemplo, que la acción de TWw en cada
subespacio Ei es la de una homotesia. En efecto, si gi ∈ Ei , se tiene que TWw gi = wi gi .
En el siguiente resultado se mostrarán condiciones más flexibles para un espacio de Hilbert
K, dotado de una BONS E = {Ei }i∈I , y un epimorfismo T ∈ L(K, H), para que podamos
conocer las propiedades de la sucesión de subespacios W = {T (Ei )}i∈I . Esto dará una
herramienta para poder encontrar más eficientemente las propiedades de las sucesiones, apli-
cando técnicas de operadores.
Teorema 15.3.4. Sea E = {Ei }i∈I una BONS de un espacio de Hilbert K y sea T ∈ L(K, H)
un epimorfismo. Supongamos que
γ(T PEi )2
min < ∞. (15.6)
i∈I kT PEi k2
Sean 0 < A ≤ B < ∞ tales que, para todo i ∈ I,
A γ(T PEi )2 kT PEi k2 γ(T PEi )2
≤ o, equivalentemente, ≤ . (15.7)
B kT PEi k2 B A

375
Para cada i ∈ I, llamemos Wi = T (Ei ) v H. Sea w = {wi }i∈I ∈ `∞
+ (I) tal que

kT PEi k2 γ(T PEi )2


≤ wi2 ≤ para todo i ∈ I . (15.8)
B A
Entonces:

1. La sucesión Ww = (wi , Wi )i∈I es un MF para H.

2. Las cotas de Ww cumplen las desigualdades

γ(T )2 γ(T )2 kT k2 kT k2
≤ AWw ≤ y ≤ BWw ≤ . (15.9)
B A B A

3. Si N (T ) ∩ Ei = {0} para todo i ∈ I, entonces existe un operador invertible

V ∈ L(K, KW ) tal que TWw ◦ V = T .

En particular, en este caso se tiene que E (Ww ) = dim N (T ) .

Demostración. Supongamos que (15.7) y (15.8) valen para todo i ∈ I.

1. Dado que γ(T PEi ) > 0, entonces Wi = T Ei es cerrado para todo i ∈ I. Sea {bij }j∈Ji
una base ortonormal para cada Ei . Por la Ec. (14.3) de la Obs. 14.1.4, y las Ecs.
(15.7) y (15.8), las sucesiones Gi = {wi−1 T bij }j∈Ji son marcos para cada Wi con

AGi = wi−2 γ(T Ei )2 ≥ A y BGi = wi−2 kT Ei k2 ≤ B .

Por otro lado, dado que {bij }i∈I,j∈Ji es una base ortonormal para K, y T un epimorfismo,
la sucesión F = {T bij }i∈I,j∈Ji es un marco para H.
Finalmente, dado que F = {wi (wi−1 T bij )}i∈I,j∈Ji = {wi Gi }i∈I , el Teorema 15.2.3 im-
plica que Ww es un MF para H.

2. Por como estan construidas las sucesiones F y Ww del ´’ıtem anterior, la Ec. (15.4)
del Teorema 15.2.3 asegura que
A AF AF AF
AWw ≤ ≤ AWw =⇒ ≤ AWw ≤
B B B A
BF BF
Análogamente se ve que ≤ BWw ≤ . Pero como AF = γ(T )2 y BF = kT k2 ,
B A
obtenemos inmediatamente la Ec. (15.9).

3. Supongamos que N (T ) ∩ Ei = {0} para todo i ∈ I. Entonces

N (T PEi ) = Ei⊥ y γ(T PEi ) kzk ≤ kT PEi zk = kT zk para todo z ∈ Ei .

376
P
Sea x ∈ K, y notemos zi = PEi x, para cada i ∈ I. Observar que x = zi y
i∈I
kxk2 = kzi k2 . Por la Ec. (15.8), para cada i ∈ I, se tiene que
P
i∈I

A1/2 wi kzi k ≤ γ(T PEi ) kzi k ≤ kT zi k ≤ kT PEi k kzi k ≤ B 1/2 wi kzi k .


L
Sea KW = i∈I Wi (el dominio de TWw ). Observemos que T (Ei ) = Wi para todo
i ∈ I. Por lo tanto la aplicación

V x = wi−1 T (PEi x) i∈I = wi−1 T (zi ) i∈I ,


 
V : K → KW dada por

para cada x ∈ K, está bien definida, es acotada e invertible. Usando la definición del
operador de sı́ntesis TWw , si x ∈ K tenemos que
X X X X 
x= zi =⇒ T x = T zi = T PEi x = wi V x i = TWw (V x) .
i∈I i∈I i∈I i∈I

Es decir que TWw ◦ V = T , como se aseguraba. La fórmula para el exceso de Ww se


deduce de que dim N (T ) = dim V −1 (N (TWw )) = dim N (TWw ) = E (Ww ). 

Observación 15.3.5. Con las notaciones del Teorema 15.3.4, la condición γ(T PEi ) > 0 es
necesaria (y suficiente) para que Wi = T Ei v H. Podrı́a esperarse que además sea suficiente
para asegurar que W = {T Ei }i∈I sea un MF para alguna sucesión de pesos adecuada.
Sin embargo, en el Ejemplo 15.7.1 se verá que existe un operador suryectivo T y una
base ortonormal de subespacios E = {Ei }i∈I tal que γ(T PEi ) > 0 para todo i ∈ I pero la
sucesión Ww = (w, W) no es un MF para ningún peso w ∈ `∞ + (I) . Lo que sucede en tal
ejemplo es que T y E no satisfacen la ecuación (15.6). Esto significa que los ángulos entre
los subespacios Ei y el N (T ) van empeorando a medida que i crece.
Por otro lado, (15.6) no es tampoco una condición necesaria para que P (W) 6= ∅ (ver
la Definición 15.4.1), si W = T E. En el Ejemplo 15.7.2 se tiene un MF que es la imagen por
un epimorfismo de una base ortonormal de subespacios pero que no satisface la Ec. (15.6).
La idea aquı́ será que si con unos pocos subespacios uno ya obtiene un buen MF, puede ir
agregándole mas hasta arruinar la Ec. (15.6), sin que deje de quedar un MF. 4
Observación 15.3.6. Si Ww = (wi , Wi )i∈I es un MF para H, entonces su operador de
sı́ntesis TWw satisface claramente la Ec. (15.6). Más aún, se tiene que

TWw g = wi g para todo g ∈ Ei , la copia de Wi en KW .

Por lo tanto, γ(TWw PEi ) = kTWw PEi k = wi para todo i ∈ I. O sea que TWw y w cumplen las
Ecs. (15.7) y (15.8) con A = B = 1. 4

Como primera aplicación del Teo. 15.3.4, el siguiente Corolario muestra que la relación de
equivalencia entre MF’s puede definirse coherentemente, y preserva las mismas propiedades
que en el caso vectorial.

377
La única diferencia es que, en aquel caso, un operador inversible G cambia las normas
de los vectores del marco (que en el caso actual se representan como los pesos). Aquı́ no
se puede hacer eso, porque G no actúa tan uniformemente en los subespacios Wi . Por ello
dejaremos sin cambios la sucesión de pesos, pero absorveremos los cambios en las constantes
de los marcos. Parte de este resultado aparece en los trabajos de P. Casazza, G. Kutyniok y
S. Li [58] (Corolario 2.12) , y de P. Gavruta [70] (Teorema 2.4). Se suguiere al lector intentar
obtener exactamente lo que en la notación del corolario serı́a el operador TGWw , y ver por
lo tanto la necesidad de usar el Teo. 15.3.4.
Corolario 15.3.7. Sea Ww = (wi , Wi )i∈I un MF para H, y sea G ∈ L(H, H1 ) invertible.
Entonces GWw = (wi , GWi )i∈I es un MF para H1 , cuyas cotas satisfacen las desigualdades
−2 2
kGk kG−1 k AWw ≤ AGWw y BGWw ≤ kGk kG−1 k BWw . (15.10)

Además, E (Ww ) = E (G Ww ) .
L
Demostración. Notemos por Ei la copia de cada Wi en KW = i∈I Wi . Definimos T =
G TWw ∈ L(KW , H1 ), que es claramente suryectivo (dado que TWw lo es). Aplicando la
Prop. 8.4.2, para cada i ∈ I tenemos que γ(T PEi ) = γ(G TWw PEi ) ≥ γ(G) · γ(TWw PEi ).
Luego, por la Observación 15.3.6, llegamos a que

γ(T PEi ) ≥ γ(G) · γ(TWw PEi ) = γ(G) wi y kT PEi k ≤ kGk kTWw PEi k = kGk wi ,

para todo i ∈ I. Entonces, puede aplicarse el Teorema 15.3.4 para T con constantes A =
γ(G)2 y B = kGk2 . De hecho, para cada i ∈ I, hemos visto que

γ(G)2 γ(T PEi )2 kT PEi k2 2 γ(T PEi )2


≤ y ≤ wi ≤ .
kGk2 kT PEi k2 kGk2 γ(G)2

Por lo tanto, GWw = (wi , GWi )i∈I es un MF para H1 por el Teorema 15.3.4. En cuanto a
las cotas, por la Prop. 8.4.2 y el ı́tem 2 de la Observación 15.3.3, se tiene que
1/2 1/2
γ(GTWw ) ≥ γ(G) γ(TWw ) = kG−1 k−1 AWw y kGTWw k ≤ kGk kTWw k = kGk BWw .

Aplicando la Ec. (15.9) del Teorema 15.3.4 y el hecho de que γ(G)2 = kG−1 k−2 , obtenemos
la Ec. (15.10). Finalmente, como N (T ) = N (TWw ) , entonces N (T ) ∩ Ei = {0} (i ∈ I). Por
el Teorema 15.3.4, deducimos que E (Ww ) = dim N (TWw ) = dim N (T ) = E (G Ww ). 

15.4 Pesos Admisibles.


El propósito de esta sección es estudiar, para una sucesión de subespacios cerrados fija
W = {Wi }i∈I , el conjunto de pesos w ∈ `∞
+ (I) tal que Ww = (wi ,
Wi )i∈I sea un MF para H.
Recordemos que notamos `+ (I) = {wi }i∈I ∈ `+ (I) : inf wi > 0 = `∞
∞ ∗ ∞ ∞
+ (I) ∩ Gl(` (I) ).
i∈I

Definición 15.4.1. Sea W = {Wi }i∈I una sucesión de subespacios cerrados de H.

378
1. Decimos que W = {Wi }i∈I es una sucesión generadora de H, si span {Wi : i ∈ I} = H.

2. Si W = {Wi }i∈I es generadora de H, definimos

P (W) = w ∈ `∞

+ (I) : Ww = (wi , Wi )i∈I es un MF para H ,

el conjunto de pesos admisibles para W. 4

En los Ejemplos 15.7.1 y 15.7.3 se verá que existen sucesiones generadoras W = {Wi }i∈I de
H tales que P (W) = ∅.
Proposición 15.4.2. Sea W = {Wi }i∈I una sucesión generadora de H.

1. Si w ∈ P (W), entonces a w ∈ P (W) y E (Ww ) = E (Wa w ) , para todo a ∈ `∞ ∗


+ (I) .

2. Si Ww = (w, W) es una BRS, para algún w ∈ `∞ ∞ ∗


+ (I), entonces P (W) = `+ (I) , y
además (a, W) es una BRS para todo a ∈ `∞ ∗
+ (I) . En particular, (e, W) es una BRS
para H.

3. Sea G ∈ Gl(H). Entonces P (W) = P ({GWi }i∈I ). En otras palabras, una sucesión
w ∈ `∞
+ (I) es admisible para W si y sólo si es admisible para GW.
L
Demostración. Sea KW = i∈I Wi , y notemos por Ei v KW la copia de cada Wi en K.
X
1. Para cada a ∈ `∞+ (I) ∗
, consideremos la serie D a = ai PEi , que es convergente en
i∈I
la topologı́a fuerte de operadores. Además Da ∈ Gl(KW )+ . Por lo tanto, si TWw ∈
L(KW , H) es el operador de sı́ntesis de Ww , entonces TWw Da es, por definición, el
operador de sı́ntesis de (a w, W). Dado que TWw Da es acotado y suryectivo, entonces
(a w, W) es también un MF. Finalmente, notemos que

N (TWa w ) = N (TWw Da ) = Da−1 (N (TWw ) ) =⇒ E (Ww ) = E (Wa w ) .

2. Si Ww es una BRS para H, entonces TWw es invertible. Dado que TWw x = wi x


1/2
para x ∈ Ei , entonces wi ≥ γ(TWw ) = AWw para todo i ∈ I. Esto implica que
w ∈ `∞ ∗ ∞ ∗ ∞ ∗
+ (I) . Notemos que w · `+ (I) = `+ (I) (dado que w
−1
∈ `∞ ∗
+ (I) ). Entonces
∞ ∗ −1 ∞
`+ (I) ⊆ P (W) por (1). Sea a ∈ P (W). Entonces w a ∈ `+ (I) y, como en el ı́tem
(1), that
−1
TWa = TWw(w−1 a) = TWw Dw−1 a =⇒ Da = Dw Dw−1 a = Dw TWw
TWa .

Por lo tanto, Da es suryectivo (e inyectivo), entonces Da ∈ Gl(KW )+ y a ∈ `∞ ∗


+ (I) .

La última observación se deduce de la definición de BRS’s (que sólo concierne a la


sucesión W), o del hecho de que Dw−1 a ∈ Gl(KW )+ .

3. Aplicar el Corolario 15.3.7 a G y a G−1 . 

379
Definición 15.4.3. Sea W = {Wi }i∈I una sucesión generadora de H. Dado v, w ∈ P (W),
decimos que v y w son equivalentes si existe a ∈ `∞ ∗
+ (I) tal que v = aw. 4
Observaciones: 15.4.4. Sea W = {Wi }i∈I una sucesión generadora de H.

1. Por la Proposición 15.4.2, si una sucesión w ∈ P (W), luego toda su clase de equiva-
lencia w · `∞ ∗
+ (I) ⊆ P (W).

2. Por otro lado, en el Ejemplo 15.7.5 veremos que existen sucesiones generadoras W de
H con infinitas sucesiones w ∈ P (W) no equivalentes.

3. Si Ww es una BRS para H, entonces por la Proposición 15.4.2 todas las sucesiones de
pesos admisibles para W son equivalentes a w, dado que P (W) = `∞ ∗
+ (I) . Además,
Wv = (v, W) es también una BRS para H, para todo otro v ∈ `∞ ∗
+ (I) . Por lo tanto,
de ahora en más, nos referiremos a las bases de Riesz de subespacios W sin hacer
referencia explı́cita a la sucesión de pesos, dado que el conjunto de pesos admisibles es
siempre el mismo (y además, W es una BRS con cualquiera de ellos).

4. Por definición, si W es una BRS, entonces es una sucesión minimal. Sin embargo, en
el Ejemplo 15.7.3, veremos que hay sucesiones minimales, generadoras de H, pero con
P (W) = ∅. 4

Proposición 15.4.5. Sea E = {Ei }i∈I una BONS para H. Sea G ∈ L(H, H1 ) un operador
invertible. Entonces la sucesión G E = (GEi )i∈I es una BRS para H1 .
Demostración. Es consecuencia del Corolario 15.3.7 y del hecho de que G E sigue siendo una
sucesión minimal. 
Observación 15.4.6. Hemos visto que, dado un marco F = {fi }i∈I para H, la sucesión
−1/2
{SF fi }i∈I es un marco de Parseval. Sin embargo, si Ww = (wi , Wi )i∈I es un MF, entonces
−1/2
SWw Ww podrı́a no ser un marco de Parseval de subespacios (Ejemplo 15.7.5), ni siquiera
con una sucesión de pesos diferente. Peor aún, existen marcos de fusión Ww = (w, W) para
H tales que la sucesión (v, G W) no es un MF de Parseval para H, para cualquier elección
de G ∈ Gl(H) y v ∈ `∞ + (I) (ver Ejemplo 15.7.6). La siguiente Proposición muestra que la
situación es diferente si nos restringimos a BRS’s para H: 4
Proposición 15.4.7. Sea W = {Wi }i∈I una BRS para H. Entonces, para todo w ∈ `∞ ∗
+ (I) ,
−1/2
la sucesión {SWw Wi }i∈I es una BONS.
Demostración. Sea {eik }k∈Ki una base ortonormal en cada Wi . Fijemos cualquier w ∈
`∞ ∗
+ (I) . Por el Teorema 15.2.3, la sucesión E = {wi eik }i∈I,k∈Ki es un marco para H. Más
aún, por la Obs. 15.3.2, TE = TWw que es inversible. Luego se tiene que E es una base de
−1/2
Riesz de H. Por lo tanto {wi SE eik }i∈I, k∈Ji es una base de Riesz y además un marco
de Parseval para H. En otras palabras, es una base ortonormal de H. Pero usando que
−1/2 −1/2
SWw = SE y que {wi SWw eik }k∈Ki es una base ortonormal para cada subespacio SWw Wi ,
−1/2
podemos deducir que la sucesión {SWw Wi }i∈I es una BONS para H. 

380
15.5 Proyectores y marcos de subespacios.
Por el Teo. 14.3.1, una sucesión {fj }j∈N es un marco de Parseval para H si y sólo si existen
un espacio de Hilbert K que contiene a H y una base ortonormal {bj }j∈N de K tales que
fj = PH bj para todo j.
En esta sección estudiaremos la posible generalización a los marcos de subespacios, reem-
plazando bases ortornormales por bases ortonormales de subespacios. Se verá que una im-
plicación es cierta ( un marco de Parseval de subespacios es la proyección ortogonal de una
base ortonormal de subespacios) pero la otra implicación no es cierta (Ejemplo 15.7.4).
El esquema de esta sección es muy similar al de la Sección 14.3 que relaciona proyec-
ciones y marcos vectoriales. Pero veremos que en varios casos como el antes mencionado, se
obtendrán condiciones suficientes pero no necesarias.
Teorema 15.5.1. Sea Ww = (wi , Wi )i∈I un MF para H. Entonces existe un espacio de
Hilbert V ⊇ H y una base de Riesz de subespacios {Bi }i∈I para V tal que
1/2 1/2
PH (Bi ) = Wi y AWw kPH PBi k ≤ wi ≤ BWw kPH PBi k para todo i ∈ I .

Esto es, la nueva sucesión de pesos vi = kPH PBi k, i ∈ I, es equivalente a w. Además,


podemos calcular E (Ww ) = dim V H.
L
Demostración. Como antes, notaremos Ei la copia de cada Wi en KW = i∈I Wi . Sea
TWw ∈ L(KW , H) el operador de sı́ntesis de Ww . Llamemos N = N (TWw ) y V = H ⊕ N .
Podemos identificar H con H ⊕ {0} v V. Sea U : KW → V dado por

U (x) = TWw x ⊕ γ(TWw ) PN x , x ∈ KW . (15.11)



Dado que KW = N ⊥ ⊥ N y TWw N ⊥ : N ⊥ → H es invertible, podemos deducir que U es
acotado e inversible. Mas aún, es fácil ver que
1/2 1/2
kU −1 k−1 = γ(U ) = γ(TWw ) = AWw y kU k = kTWw k = BWw . (15.12)

Por la Proposición 15.4.5, la sucesión {Bi }i∈I = {U (Ei )}i∈I es una base de Riesz de sube-
spacios para V. Observemos que

PH (Bi ) = PH U (Ei ) = TWw (Ei ) ⊕ {0} = Wi ⊕ {0} ∼ Wi , para todo i ∈ I .

Sea y un vector de norma uno de Bi = U (Ei ). Entonces y = U x con x ∈ Ei . Se tiene

γ(U )kxk ≤ kU xk = kyk = 1 ≤ kU k kxk .

Si x ∈ Ei , notemos por xi a su componente en Wi (las demás son cero). Usando que


kPH yk = kTWw xk = wi kxi k = wi kxk y la Ec. (15.12), concluimos que para todo vector
unitario y ∈ Bi , se tiene que
1/2 1/2
AWw kPH yk = γ(TWw ) kPH yk = wi γ(U ) kxk ≤ wi =⇒ AWw kPH PBi k ≤ wi .
1/2 1/2
Similarmente, wi ≤ wi kU k kxk = BWw kPH yk ≤ BWw kPH PBi k. 

381
Corolario 15.5.2. Sea Ww = (wi , Wi )i∈I un MF de Parseval para H. Entonces existen un
espacio de Hilbert V ⊇ H y una BONS {Fi }i∈I para V tales que

PH (Fi ) = Wi y wi = c [ H , Fi ] = kPH PFi k para todo i ∈ I .

Demostración. Usaremos las notaciones de la prueba del Teorema 15.5.1. Si Ww es Parseval,


entonces AWw = BWw = 1. La Ec. (15.12), implica que el operador U ∈ L(K, V) definido en
(15.11) es además unitario (es una isometrı́a invertible).
Por lo tanto, en este caso, la sucesión {Fi }i∈I = {U (Ei )}i∈I es una base ortonormal de
subespacios para V. Además, por el Teorema 15.5.1, tenemos que wi = kPH PFi k para todo
i ∈ I. Es fácil ver que Fi ∩ (H ⊕ {0}) 6= {0} implica que wi = 1 y Fi ⊆ (H ⊕ {0}) (dado que
U es unitario). Entonces kPH PFi k = c [ H , Fi ] para todo i ∈ I. 
Teorema 15.5.3. Sea Ww = (wi , Wi )i∈I un MF para H tal que 1 ≤ AWw . Llamemos
V = H ⊕ KW . Entonces, existen una proyección oblicua Q ∈ L(V) con R(Q) = H ⊕ {0} y
un sistema ortonormal de subespacios {Bi }i∈I in V, tales que

Wi ⊕ 0 = Q(Bi ) y wi = kQ PBi k = γ(Q PBi ) para todo i ∈ I .

Más aún, si E (Ww ) = ∞, entonces {Bi }i∈I puede tomarse como una BONS de V.
Demostración. Escribamos TWw = T . Por hipótesis, T T ∗ = SWw ≥ AWw I ≥ I. Notemos por

X = (T T ∗ − I)1/2 ∈ L(H)+ .

Consideremos la descomposición polar (a derecha) T = |T ∗ |V , donde V ∈ L(KW , H) es


una isometrı́a parcial con espacio inicial y final N (T )⊥ y H respectivamente, por lo tanto
V V ∗ = IH . Consideremos la “ampliación ” T̃ ∈ L(KW , V) dada por T̃ x = T x ⊕ 0. Entonces


TT 0 H
T̃ T̃ ∗ = ∈ L(V). Definamos
0 0 KW
 
IH XV H
Q= ∈ L(V) .
0 0 KW

Entonces es claro que Q es una proyección oblicua con R(Q) = H ⊕ 0. Más aún,

IH + XX ∗ 0
 

QQ = = T̃ T̃ ∗ =⇒ |Q∗ | = |T̃ ∗ | .
0 0

Sea U ∈ L(KW , V) definido por

U x = V PN (T )⊥ x ⊕ PN (T ) x , para x ∈ KW . (15.13)

Entonces U es una isometrı́a, porque el espacio inicial de V es N (T )⊥ . Además, se tiene que


T̃ = |T̃ ∗ |U . La isometrı́a parcial de la descomposición polar a derecha de Q se extiende a un
operador unitario W en V, porque dim N (Q) = dim R(Q)⊥ . Además, Q = |Q∗ |W . Entonces

T̃ = |T̃ ∗ |U = |Q∗ |U = Q W ∗ U.

382
Por lo tanto, si consideramos la base ortonormal de subespacios {Ei }i∈I of KW ,

Wi = T (Ei ) ∼ T (Ei ) ⊕ 0 = T̃ (Ei ) = QW ∗ U (Ei ) = Q(Bi ) , i∈I ,


donde {Bi }i∈I = {W ∗ U Ei }i∈I , que es claramente un sistema ortonormal en V. Si y ∈ Bi es
un vector unitario, entonces y = W ∗ U x para x ∈ Ei con kxk = 1, y

wi = kT xk = kQW ∗ U xk = kQyk =⇒ wi = kQ PBi k = γ(Q PBi ) .

Supongamos ahora que dim N (T ) = ∞. Entonces, la isometrı́a U definida en (15.13) puede


cambiarse a un operador unitario de KW sobre V, manteniendo la identidad T̃ = |T̃ ∗ |U .
Para ver esto, tomemos

U x = V PN (T )⊥ x ⊕ Y PN (T ) x, x ∈ H,

donde Y ∈ L(KW ) es una isometrı́a parcial con espacio inicial N (T ) y espacio final KW . Es
inmediato entonces que U aplica isométricamente N (T )⊥ sobre H ⊕ {0} y N (T ) sobre {0} ⊕
KW . Entonces, se concluye que la sucesión {Bi }i∈I es una base ortonormal de subespacios
para V. 

15.6 Refinamientos de marcos de subespacios.


Tomemos H = `2 (Z) y el MF Ww formado por 2 subespacios:

W1 = span {en : n ≤ 0} y W2 = span {en : n ≥ 0} ,

con pesos w1 = 1 = w2 . Es claro que E (Ww ) = 1 > 0, pero Ww es exacto, en el sentido de


que (wi , Wi )i∈J no es un marco, para todo subconjunto propio J ⊂ I2 (en este caso, J tendrı́a
a lo sumo un elemento). Esta situación es posible porque el exceso del marco puede estar
contenido propiamente en alguno de los Wi de Ww , por lo que si “borramos” cualquiera
de los subespacios de Ww , la sucesión restante deja de ser generadora.
En conclusión, la noción de “exceso” no es la misma en este contexto que en el de los
marcos de vectores, en el sentido de la Definición 14.1.5 y la Prop. 14.5.3. En esta sección,
introducimos la noción de refinamientos de sucesiones de subespacios, que funcionará como
medio natural para recuperar la conexión entre exceso y erasures. Teniendo eso en cuenta,
esta sección tiene un esquema similar a la Sección 14.5 del Capı́tulo anterior.
En concreto, un refinamiento de una sucesión W = {Wi }i∈I es una sucesión de sube-
spacios “mas chicos”. Con el objeto de mantener la convención de que los subespacios son
distintos de {0}, permitiremos el borrado de algunos subespacios de W, considerando que
un subconjunto propio de I pueda ser el conjunto de ı́ndices para el refinamiento.
Definición 15.6.1. Sea W = {Wi }i∈I una sucesión de subespacios cerrados de H.
1. Un refinamiento de W es una sucesión V = {Vi }i∈J de subespacios cerrados tal que

J ⊆I y {0} =
6 V i ⊆ Wi para todo i ∈ J .

383
En este caso, usaremos las siguientes notaciones:
2. El exceso de W con respecto a V es el cardinal
X X
E (W, V) = dim(Wi Vi ) + dim Wi .
i∈ J i∈
/ J

3. Si w ∈ P (W), decimos que Vw = (wi , Vi )i∈ J es un MF-refinamiento de Ww si Vw es


también un MF para H. 4
Observación 15.6.2. Es fácil ver que, si V es un refinamiento de W y V 0 es un refinamiento
de V, entonces V 0 refina a W y E (W, V 0 ) = E (W, V) + E (V, V 0 ). 4

Lema 15.6.3. Sea Ww = (wi , Wi )i∈I un MF para H y sea V = {Vi }i∈J un refinamiento de
W. Consideremos KV = ⊕i∈J Vi como subespacio de ⊕i∈I Wi = KW . Entonces
1. E (W, V) = dim KV⊥ = dim N (PKV ) .
2. Vw = (wi , Vi )i∈ J es un MF-refinamiento de Ww si y sólo si TWw PKV is suryectivo.
En este caso, tenemos que
3. E (W, V) ≤ E (Ww ).
4. Si E (W, V) < ∞, entonces E (Vw ) = E (Ww ) − E (W, V).
Demostración. Para cada i ∈ I, notemos por Ei (resp. Fi ) la copia de cada Wi (resp. Vi ,
/ J) en KW . Es fácil ver entonces que KV⊥ = ⊕i∈I Ei Fi , lo que prueba el
o Fi = {0} si i ∈
ı́tem 1. Abreviemos P = PKV . Por sus definiciones, tenemos que

TVw = TWw K = TWw R(P ) ∈ L(KV , H) .
V

Entonces R(TWw P ) = R(TVw ) = H si y sólo si Vw es un MF-refinamiento de Ww . En este


∗ ∗
caso, {0} = N (P TW w
) . Dado que R(TW w
) = N (TWw ) ⊥ , vemos que

N (P TW w
) = {0} ⇒ N (P ) ∩ N (TWw ) ⊥ = {0} ⇒ dim N (P ) ≤ dim N (TWw ) ,
ya que la proyeccion ortogonal sobre N (TWw ) actúa inyectivamente en N (P ). Entonces
E (W, V) = dim N (P ) ≤ dim N (TWw ) = E (Ww ) .
Observemos que, por ser suryectivos, TWw y TWw P son operadores de semi-Fredholm, con
Ind TWw = dim N (TWw ) − 0 = E (Ww ) e Ind (TWw P ) = dim N (TWw P ) .
Si E (W, V) < ∞, entonces P es un operador de Fredholm, con Ind P = 0. Luego
E (Ww ) = Ind TWw + Ind P = Ind TWw P = dim N (TWw P ) .

Finalmente, dado que TVw = TWw K ,
V

E (Vw ) = dim N (TVw ) = dim N (TWw P ) − dim N (P ) = E (Ww ) − E (W, V) ,


donde la segunda igualdad surge de que TWw P coincide con TVw , salvo que su dominio (y su
núcleo) se agrandan agregando el subespacio finitodimensional N (P ). 

384
Lema 15.6.4. Sea Ww = (wi , Wi )i∈I un MF para H con E (Ww ) > 0. Entonces existe un
MF-refinamiento Vw = (wi , Vi )i∈ J de Ww con E (W, V) = 1.
Demostración. Para cada i ∈ I, notemos por Ei la copia de Wi en KW . Supongamos que
no existe ningún MF-refinamiento Vw de Ww , con E (W, V) = 1. Entonces, por el Lema
15.6.3, para todo i ∈ I y todo vector unitario y ∈ Ei , se tiene que R(TWw P{y}⊥ ) 6= H. Por
la Proposición 8.2.3 y Ec. (8.6),

c N (TWw ) , {y}⊥ = c N (TWw )⊥ , span {y} < 1 =⇒ R(TWw P{y}⊥ ) v H .


   

Tomemos x ∈ R(TWw P{y}⊥ )⊥ = N (P{y}⊥ TW



w
) un vector unitario. Entonces
∗ ∗
0 6= TW w
x ∈ span {y} , i.e. y ∈ R(TW w
).
[
∗ ∗
Luego Ei ⊆ R(TW w
) (que es cerrado), por lo que TW w
es suryectivo y E (Ww ) = 0. 
i∈I

Teorema 15.6.5. Sea Ww = (wi , Wi )i∈I un MF para H. Entonces


n o
E (Ww ) = sup E (W, V) : Vw = (wi , Vi )i∈ J es un MF-refinamiento de Ww . (15.14)

Además, si E(Ww ) = ∞, entonces, para todo n ∈ N, existe un MF-refinamiento Vw =


(wi , Vi )i∈ J de Ww tal que E (W, V) = n.
Demostración. Notemos por α el supremo de (15.14). El item 3 del Lema 15.6.3 nos dice
que α ≤ E (Ww ). Si E (Ww ) < ∞, combinando la Observación 15.6.2, el Lema 15.6.4 y el
ı́tem 4 del Lema 15.6.3, uno puede probar inductivamente que α ≥ E (Ww ).
Si E (Ww ) = ∞, un argumento inductivo similar muestra que para todo n ∈ N, existe
un MF-refinamiento Vv de Ww , tal que E (W, V) = n. 
Corolario 15.6.6. Sea Ww = (wi , Wi )i∈I un MF para H tal que E (Ww ) < ∞. Entonces

1. La sucesión w ∈ `∞ ∗
+ (I) .

2. Existe un MF-refinamiento Vw = (wi , Vi )i∈ J de Ww tal que:

(a) V es una BRS para H.


(b) E (W, V) = E(Ww ).

Demostración. Por el Teorema 15.6.5, existe un MF-refinamiento Vw = (wi , Vi )i∈ J de Ww ,


tal que E (W, V) = E(Ww ). Por el ı́tem 4 del Lema 15.6.3, E(Vw ) = 0. Es decir, Vw es
una BRS para H. Entonces, por la Prop. 15.4.2, la sucesión {wi }i∈J ∈ `∞ ∗
+ (J) . Dado que
∞ ∗
E (W, V) < ∞, entonces I \ J es finito, y se tiene además que w ∈ `+ (I) . 
Corolario 15.6.7. Sea Ww = (wi , Wi )i∈I un MF para H tal que E (Ww ) < ∞. Entonces

P (W) = `∞
+ (I)

y E (Wv ) = E (Ww ) para cualquier otro v ∈ P (W) .

385
Demostración. Por el Corolario 15.6.6, sabemos que w ∈ `∞ ∗
+ (I) . De la Proposición 15.4.2,
∞ ∗
se deduce que `+ (I) ⊆ P (W). Sea Vw = (wi , Vi )i∈ J un MF-refinamiento de Ww que
es una BRS para H, (existe por el Corolario 15.6.6). Tomemos v ∈ P (W). Necesitamos
verificar que la sucesión Vv = (vi , Vi )i∈ J es también un MF-refinamiento de Wv .
En efecto, consideremos el operador TVv = TWv K ∈ L(KV , H). Por el Lema 15.6.3,
V
dim KV⊥ = E (W, V) < ∞. Como en la prueba del Lema 15.6.4, esto implica que

R(TVv ) = R(TWv PKV ) v H .


( ) ( )
[ [
Por otro lado, span Vi ⊆ R(TVv ). Pero span Vi es denso en H, porque TVw
i∈J i∈J
es suryectivo (recordemos que Vw es un MF). Esto muestra entonces que TVv es también
suryectivo, i.e. Vv es un MF.
Tenı́amos que V es una BRS, y ahora sabemos que vJ = {vi }i∈ J ∈ P(V). Por la
Proposición 15.4.2, podemos asegurar que vJ ∈ `∞ ∗
+ (J) . Como antes, como I \ J es finito,
esto implica que v ∈ `∞ ∗ ∞ ∗
+ (I) . Ası́ se ve que `+ (I) = P (W). Usando la Prop. 15.4.2 otra
vez, ahora por el hecho de que v y w son equivalentes, concluimos que E (Wv ) = E (Ww ). 
Teorema 15.6.8. Sea Ww = (wi , Wi )i∈I un MF para H. Entonces

E (Wv ) = E (Ww ) para cualquier otro v ∈ P (W) .

Demostración. Si E (Ww ) < ∞, aplicamos Corolario 15.6.7. Por otro lado, si E (Ww ) = ∞ y
tomamos otro v ∈ P (W), entonces también debe valer que E (Wv ) = ∞, porque si E (Wv )
fuera finito, podrı́a aplicarse el Corolario 15.6.7 a Wv , llegando a una contradicción. 

15.7 Ejemplos.
Observemos que, si {Ei }i∈I es una base ortonormal de subespacios para K y T ∈ L(K, H) es
un operador suryectivo tal que T (Ei ) v H para todo i ∈ I, entonces W = {T Ei }i∈I es una
sucesión generadora para H. Sin embargo, el primer ejemplo muestra que, en general, tal
sucesión W puede tener P (W) = ∅, i.e. Ww no es un MF para H, para cualquier sucesión
w ∈ `∞+ (I).

Ejemplo 15.7.1. Sea B = {en }n∈N una base ortonormal de H. Para k ∈ N, consideremos
el espacio Ek = span {e2k−1 , e2k } . Entonces Ek resulta una base ortonormal de subespacios
para H. Sea T : H → H el operador (definido en un denso) dado por

−k
2 e1 si n = 2k − 1

T en = .

ek+1 si n = 2k

Entonces, T puede extenderse a un operador acotado y suryectivo (a quien seguimos llamando


T ), dado que la sucesión {T ek }k∈N es claramente un marco ajustado para H. Veremos que

386
la sucesión de subespacios cerrados

W = {Wk }k∈N tal que Wk = T (Ek ) = span {e1 , ek+1 } , k∈N

cumplen que P (W) = ∅. Supongamos


\ que, por el contrario, w ∈ P (W). Entonces, por la
Ec. (15.2) aplicada a f = e1 ∈ Wk , tenemos que w ∈ ` 2 (N). Pero esto contradice la
k∈N
existencia de una cota inferior de marco AWw para Ww = (wk , Wk )k∈N , porque para todo
k ∈ N, X
AWw = AWw kek+1 k2 ≤ wj2 kPWj ek+1 k2 = wk2 −−−→ 0 .
k→∞
j∈N

γ(T PEk ) −k
Notemos que, por definición, = 21 −−−→ 0. 4
kT PEk k k→∞

El operador T y la base ortonormal E = {En }k∈N del ejemplo anterior no satisfacen la Ec.
(15.7) del Teorema 15.3.4. Sin embargo, (15.7) no es una condición necesaria que asegure
que P (W) 6= ∅, si W = T E. Esto se muestra en el próximo ejemplo, en donde se muestra
un MF, imagen por un epimorfismo de una base ortonormal de subespacios, pero que no
satisfacen la Ecuación (15.7).
Ejemplo 15.7.2. Sea {ek }k∈N una base ortonormal para H y consideremos el marco (de
vectores) 
e k
 si n = 2k − 1
F = {fn }n∈N dado por fn = .
 ek+1
si n = 2k
√
k+1

Sea T = TF ∈ L(`2 (N), H) su operador de sı́ntesis (que es suryectivo). Si {bn }n∈N es la base
canónica de `2 (N), entonces T bn = fn . Para cada k ∈ N hacemos Ek = span {b2k−1 , b2k }. En-
tonces, por construcción {Ek }k∈N es una base ortonormal de subespacios de `2 (N). Tomemos
las sucesiones

w = e ∈ `∞
+ (N) y Wk = T Ek = span {ek , ek+1 } , k∈N.

Entonces Ww = (wk , Wk )k∈N es un MF para H. Sin embargo, T no cumple la Ec. (15.7),


1 , mientras que kT P k = 1, para todo k ∈ N.
dado que γ(T PEk ) = √k+1 4
Ek

En el Ejemplo 15.7.1, se tiene una sucesión generadora W = {Wi }i∈I con P (W) = ∅. El
argumento clave fue que ∩i∈I Wi 6= {0}. Esto es suficiente para asegurar que P (W) es vacı́o
si span {Wi : 1 ≤ i ≤ n} 6= H para todo n ∈ N. Sin embargo, como mostrará el siguiente
ejemplo, esta condicion no es necesaria, aún si dim Wi < ∞ para todo i ∈ I. Este ejemplo
sirve además para mostrar que existen sucesiones generadoras, minimales de subespacios
tales que P (W) = ∅.

387

X e2k
Ejemplo 15.7.3. Fijemos una base ortonormal B = {ei }i∈N para H. Sea g = ∈H
k=1
2k/2
(kgk = 1). Para todo n ∈ N, notemos por Pn ∈ L(H) a la proyección ortogonal sobre
Hn = span {e1 , e2 , . . . , en }. Consideremos la sucesión generadores W = {Wk }k∈N dada por
( k )
X e2j
Wk = span {P2k g , e2k−1 } = span , e2k−1 , k ∈ N .
j=1
2j/2

Es fácil ver que W es una sucesión minimal.


Lo que está sucediendo en este caso particular es que c [ Wi , Wj ] −−−−→ 0 (rápidamente),
i,j→∞
y por esta razón P (W) = ∅. De hecho, supongamos que w ∈ P (W), y el marco de
subespacios Ww = (w, W) tiene cotas 0 < AWw ≤ BWw . Entonces
X X X
BWw = BWw kgk2 ≥ wk2 kPWk gk2 = wk2 kP2k gk2 = wk2 (1 − 2−k ) , (15.15)
k∈N k∈N k∈N

lo que implica que wk −−−→ 0. Por otro lado, para todo k ∈ N,


k→∞
X
AWw = AWw ke2k−1 k2 ≤ wi2 kPWi e2k−1 k2 = wk2 (15.16)
i∈N

por lo que AWw = 0, contradiciendo la suposición inicial de que Ww era un MF. Por lo tanto,
P (W) = ∅. 4

Sabemos que {fj }j∈N es un marco de Parseval para H si y sólo si existe un espacio de
Hilbert K que contiene a H tal que fj = PH bj para todo j ∈ N, donde {bj }j∈N es una base
ortonormal para K. En la sección 15.5 se probó que en el caso de marcos de subespacios una
implicación era cierta, si reemplazábamos convenientemente las bases ortonormales por bases
ortonormales de subespacios. Concretamente, se vio que un marco Parseval de subespacios es
la imagen por una proyección ortogonal de una base ortonormal de subespacios. El siguiente
ejemplo muestra que la recı́proca no es cierta en este contexto.
Ejemplo 15.7.4. Sea {ek }k∈N una base ortonormal para H. Consideremos el vector unitario
X e2k−1
g= k/2
, y sea M = span { {g} ∪ {e2k : k ∈ N} } .
k∈N
2

Por otro lado, tomemos la sucesión E = {Ek }k∈N dada por Ek = span {e2k−1 , e2k } (k ∈ N).
Entonces E es una bon de subespacios para H. Sea la sucesión W = {Wk }k∈N dada por

Wk = PM Ek = span {g , e2k } , para todo k ∈ N .


\
Entonces P (W) = ∅ por la misma razón que en el Ejemplo 15.7.1, porque g ∈ Wk 6= {0}.
k∈N
4

388
El próximo ejemplo muestra que en el caso de marcos de subespacios, la existencia de un
marco ajustado canónico no es cierta, a diferencia de los marcos de vectores.
Ejemplo 15.7.5. Sea E = {en }n∈N una base ortonormal de H. Definamos la sucesión
W = {Wk }k∈N como

W1 = span {ek : k ≥ 2} = {e1 }⊥ y Wk = span {e1 , ek } , para k≥2.

Notemos que P (W) = `+2 (N). De hecho, una inclusión es clara, y



X ∞
X
w ∈ P (W) =⇒ wk2 = wk2 kPWk e1 k2 ≤ BWw =⇒ w ∈ `+2 (N) .
k=2 k=2

Ahora veamos que Ww no puede ser un marco ajustado de subespacios para ningún w ∈
P (W). Si Ww fuera un marco ajustado, con cota de marco A, entonces para todo k ≥ 2,
X
A = Akek k2 = wi2 kPWi ek k2 = w12 + wk2 =⇒ wk2 = A − w12 ,
i∈N

lo que contradice w ∈ `+2 (N). Veamos ahora que el operador de marco SWw ∈ L(H) es
diagonal con respecto a la base ortonormal E, para todo w ∈ P (W). De hecho,

!
X
∗ ∗
TW e = {wk PWk e1 }k∈N = 0 ⊕ {wk e1 }k≥2 =⇒ SWw e1 = TWw TW
w 1
e =
w 1
wk2 e1 .
k=2

Por otro lado, si Ek es la copia de Wk en KW , entonces para todo k ∈ N y j ≥ 2,



w 1 e j
 si k = 1
∗ ∗
e = (w12 + wj2 )ej .

PEk TWw ej = wj ej si k = j =⇒ SWw ej = TWw TW w j

0 si k 6= 1, j

−1/2 −1/2
En particular, SWw es también diagonal. Esto implica que SWw W = W, que sabemos que
no puede ser ajustado para ninguna sucesión de pesos.
Otra propiedad del presente ejemplo es la siguiente: Ww es un MF para H, pero la
sucesión (wk , Wk )k>1 no es una sucesión MF (i.e. un MF para span {Wk : k > 1}). Esto
puede probarse con los mismos argumentos utilizados en el Ejemplo 15.7.1, usando que
∩k>1 Wk 6= {0}. 4
Ejemplo 15.7.6. Sea B4 = {en }n≤4 una base ortonormal para C4 . Consideremos la sucesión
W = {Wk }k∈N dada por

W1 = span {e1 , e2 } , W2 = span {e1 , e3 } y W3 = span {e4 } .

Veremos que la sucesión GWw = (wk , GWk )k∈I3 no es un marco de Parseval para todo
invertible G ∈ M4 (C) y todo peso w ∈ R3+ .

389
Tomemos base ortonormal en cada GWi

GW1 = span {g1 , g2 } , GW2 = span {g1 , g3 } y GW3 = span {g4 } ,

Ge1
donde g1 = , lo mismo para g4 . Si GWw fuera de Parseval, entonces el marco
kGe1 k
E = {TGWw gk }k∈I5 = {w1 g1 , w1 g2 , w2 g1 , w2 g3 , w3 g3 } ,
serı́a un marco de Parseval (de vectores). Sea T ∈ M4,5 (C) la matriz con los vectores de E
como columnas. Bajo un cambio de coordenadas adecuado, T es de la forma
 
w1 w2 ~v C
T = con ~v = (0, 0, a) ∈ C3 y V ∈ M3 (C) .
0 0 V C3

Dado que T T ∗ = I4 , es fácil ver que V ∈ U(3). Pero esto es imposible dado que las
dos primeras columnas de V tienen normas kw1 g2 k = w1 y kw2 g3 k = w2 , mientras que
1 = w12 + w22 + |a|2 . 4

390
Bibliografı́a

Frames

[1] J. A. Antezana, G. Corach, M. Ruiz and D. Stojanoff, Weighted projections and frame
de Rieszs, Lin. Alg. Appl., to appear.

[2] R. Balan, Equivalence relations and distances between Hilbert frames. Proc. Amer.
Math. Soc. 127 (1999), 2353-2366.

[3] R. Balan, P. Casazza, C. Heil and Z. Landau, Deficits and excesses of frames, Advances
in Computational Mathematics 18 (2003) 93-116.

[4] J. J. Benedetto, and M. Fickus, Finite normalized tight frames. Frames. Adv. Comput.
Math. 18 (2003), 357-385.

[5] R. Bhatia, Matrix Analysis, Berlin-Heildelberg-New York , Springer 1997.

[6] B. Bittner and A. M. Lindner, An angle criterion for Riesz bases, preprint.

[7] R. Bouldin, The product of operators with closed range, Tôhoku Math J. 25(1973),
359-363.

[8] P.G. Casazza, Characterizing Hilbert space frames with the subframe property, Illinois
J. Math. 41 (1997), 648-666.

[9] P.G. Casazza, The art of frame theory, Taiwanese J. Math. 4 (2000), no. 2, 129-201.

[10] P. G. Casazza and O. Christensen, Hilbert space frames containing a Riesz basis and
Banach spaces which have no subspace isomorphic to c0 . J. Math. Anal. Appl. 202
(1996), 940-950.

[11] P. G. Casazza and O. Christensen, Frames containing a Riesz basis and preservación of
this property under perturbations. SIAM J. Math. Anal. 29 (1998), 266-278.

[12] P.G. Casazza and O. Christensen, frame de Rieszs and approximación of the frame
coefficients, Approx. Theory Appl. N.S. 14 (1998), 1-11.

391
[13] P.G. Casazza, D. Han and D.R.Larson, Frames for Banach spaces, Contemp. Math. 247
(1999), 149-182.
[14] P.G. Casazza, and J. Kovacevic, Equal-norm tight frames with erasures, Adv. Comput.
Math. 18 (2003), 387-430.
[15] O. Christensen, An introducción to frames and Riesz bases, Birkhäuser, Boston, 2003.
[16] O. Christensen, Frames and the projection method, Appl. Comput. Harmon. Anal. 1
(1993), 50-53.
[17] O. Christensen, Frames and pseudo-inverses, J. Math. Anal. Appl. 195 (1995), 401-414.
[18] O. Christensen, Frames containing a Riesz basis and approximación of the frame coef-
ficients using finite-dimensional methods, J. Math. Anal. Appl. 199 (1996), 256-270.
[19] O. Christensen and A. Lindner, Decomposition of Riesz frames and wavelets into a
finite union of linearly independent sets, Lin. Alg. Appl. 355 no. 1 (2002), 147-159.
[20] G. Corach, M. Pacheco and D. Stojanoff, Geometry of epimorphisms and frames, Proc.
Amer. Math. Soc. 132 (2004), 2039 - 2049.
[21] F. Deutsch, The angle between subspaces in Hilbert space, in ”Approximación theory,
wavelets and applications” (S. P. Singh, editor), Kluwer, Netherlands, 1995, 107-130.
[22] K. Dykema, D. Freeman, K. Kornelson, D. Larson, M. Ordower and E. Weber, El-
lipsoidal tight frames and projection decompositions of operators, Illinois J. Math.
48(2004), 477-489.
[23] V. K. Goyal, J. Kovacevic, and J. A. Kelner, Quantized frame expansions with erasures.
Appl. Comput. Harmon. Anal. 10 (2001), 203-233.
[24] V. K. Goyal, M. Vetterli, and N.T. Thao, Quantized overcomplete expansions in RN :
analysis, synthesis, and algorithms, IEEE Trans. Inform. Theory 44 (1998), 16-31.
[25] D. Han and D.R.Larson, Frames, bases and group representations, Mem. Amer. Math.
Soc. 147 (2000), no. 697.
[26] V. Havin and B. Jöricke, The uncertainty principle in harmonic analysis. Ergebnisse
der Mathematik und ihrer Grenzgebiete 28, Springer-Verlag, Berlin, 1994.
[27] C. E. Heil and D.F. Walnut, Continuous and discrete wavelet transforms, SIAM Rev.
31 (1989), 628-666.
[28] R. B. Holmes, and V. I. Paulsen, Optimal frames for erasures, Linear Algebra and Appl.
377 (2004), 31-51.
[29] J. R. Holub, Pre-frame operators, Besselian frames and near-Riesz bases in Hilbert
spaces, Proc. Amer. Math. Soc. 122 (1994) 779-785.

392
[30] T. Kato, Perturbación theory of linear operators, (second edition) Springer, New York,
1984.

[31] S. Kayalar, and H. Weinert, Error bounds for the method of alternating projections,
Math. Control Signal Systems 1 (1988), 43-59.

[32] P. A. Linnell, Von Neumann algebras and linear independence of translates, Proc. Am.
Math. Soc. 127, No.11 (1999), 3269-3277 .

[33] G.K. Pedersen, C∗ -algebras and their automorphism groups, Academic Press, London,
1979.

[34] T. Strohmer, and R. W. Heath, Grassmannian frames with applications to coding and
communication, Appl.-Comput.-Harmon.-Anal. 14 (2003), 257-275.

[35] R. M. Young, An introducción to nonharmonic Fourier series (revised first edition)


Academic Press, San Diego, 2001.

Marcos de fusión
[36] R. Abraham, J.E. Marsden, T. Ratiu Manifolds, Tensor Analysis, and Applications,
Second Edition , Applied Mathematical Sciences 75, Springer- Verlag, New York (1988).

[37] A. Aldroubi, C. Cabrelli, U. M. Molter, Wavelets on irregular grids with arbitrary


dilation matrices and frame atoms for L2 (Rd ), Appl. Comput. Harmon. Anal. 17 (2004),
119-140.

[38] P.M. Alberti, A. Uhlmann Stochasticity and partial order Doubly stochastic maps and
unitary mixing. Mathematische Monographien [Mathematical Monographs], 18. VEB
Deutscher Verlag der Wissenschaften, Berlin, (1981).

[39] T. Ando, Majorization, doubly stochastic matrices and comparison of eigenvalues, Lec-
ture Note, Hokkaido Univ., (1982).

[40] J.A. Antezana, Proyecciones Oblicuas y Complemento de Schur - Aplicaciones a prob-


lemas de cuadrados mı́nimos, teorı́a de marcos y teorı́a de muestreo, Tesis Doctoral,
Universidad de La Plata (2006).

[41] J.A. Antezana, G. Corach, M. Ruiz, D.Stojanoff, Oblique Projections and Frames ,
Proc. Amer. Math. Soc. 134 (2006), 1031-1037.

[42] J. Antezana, P. Massey, M. Ruiz, D. Stojanoff, The Schur-Horn Theorem for operators
and frames with prescribed norms and frame operator, Illinois Journal of Mathematics,
Vol. 51, No 2 (2007), 537-560.

393
[43] J. Antezana, D. Stojanoff, Análisis Matricial II - Operadores en espacios de Hilbert,
preprint.

[44] M.S. Asgari, A. Khosravi, Frames and bases of subspaces in Hilbert spaces, J. Math.
Anal. Appl., 308(2005), 541-553.

[45] R. Bhatia, Matrix analysis. Graduate Texts in Mathematics, 169. Springer-Verlag, New
York, (1997).

[46] J.J. Benedetto, M. Fickus, Finite normalized tight frames, Adv. Comput. Math., 18
(2003), 357-385.

[47] B. G. Bodmann, Optimal linear transmission by loss-insensitive packet encoding, Appl.


Com- put. Harmon. Anal. 22 (2007), 274-285.

[48] B. G. Bodmann, D. W. Kribs, V. I. Paulsen, Decoherence-insensitive quantum commu-


nications by optimal C ∗ -encoding, preprint (2006).

[49] P.G. Casazza, The art of frame theory, Taiwanese J. Math., 4 no. 2 (2000), 129-201.

[50] P.G. Casazza, Custom building finite frames, Wavelets, frames and operator theory,
Contemp. Math., 345, Amer. Math. Soc., Providence, RI, (2004),61-86.

[51] P.G. Casazza, J.Kovacević, M.T.Leon, J.C.Tremain Custom built frames, Preprint
(2000).

[52] P.G Casazza, M. Fickus, J. Kovacevic, M.T. Leon, J.C. Tremain A physical interpreta-
tion for tight frames, Harmonic analysis and applications, Appl. Numer. Harmon. Anal.,
Birkhäuser Boston, Boston, MA, (2006), 51-76.

[53] P.G. Casazza, J. Kovacevic, Equal-norm tight frames with erasures, Advances in Com-
putational Mathematics, special issue on Frames, (2002).

[54] P.G. Casazza,M.T.Leon, Frames with a given frame operator, preprint.

[55] P.G. Casazza, M.T.Leon, Existence and construction of finite tight frames, J. Concr.
Appl. Math. 4 (3) (2006), 277-289.

[56] P. G. Casazza, G, Kutyniok, Frames of subspaces, Wavelets, frames and operator theory,
Contemp. Math., 345, Amer. Math. Soc., Providence, RI, (2004),87-113.

[57] P. G. Casazza, G. Kutyniok, Robustness of Fusion Frames under Erasures of Subspaces


and of Local Frame Vectors, preprint.

[58] P. G. Casazza, G. Kutyniok, S. Li, Fusion Frames and Distributed Processing, Applied
and Computational Harmonic Analysis, en prensa.

[59] O. Christensen, An introduction to frames and Riesz bases, Birkhäuser, Boston, (2003).

394
[60] I. Daubechies, Ten Lectures on Wavelets, SIAM Philadelphia, PA, (1992).

[61] I.Daubechies, A. Grossman, Y. Meyer, Painless nonorthogonal expansions, Journ. Math.


Phys. 27 (1986), 1271-1283.

[62] P.I. Davies y N.J. Higham, Numerically stable generation of correlation matrices and
their factors, BIT, 40 (2000), 640-651.

[63] I.S. Dhillon, R.W. Heath Jr., M.A. Sustik, J.A. Tropp, Generalized finite algorithms for
constructing Hermitian matrices with prescribed diagonaly spectrum, SIAM J. Matrix
Anal. Appl. 27(1) (2005), 61-71.

[64] R.J. Duffin, A. C, Schaeffer, A class of nonharmonic Fourier series, Trans. Amer. Math.
Soc. 72 (1952) 341-366.

[65] D. J. Feng, L. Wang, Y. Wang Generation of finite tight frames by Householder trans-
formations, Advances in Computational Mathematics, 24 (2006), 297-309.

[66] M.Fornasier, Quasi-orthogonal decompositions of structured frames, J.Math. Anal. Appl.


289 (2004),180-199.

[67] M.Fornasier, Decompositions of Hilbert spaces: local construction of global frames, Proc.
Int. Conf. on Constructive function theory, Varna (2002), B. Bojanov Ed., DARBA,
Sofia, (2003), 275-281.

[68] M. Fickus, B.D.Johnson, K. Kornelson, K.A.Okoudjou Convolutional frames and the


frame potential, Appl. Comput. Harmon. Anal., 19 (2005), 77-91.

[69] M. Frank, D.R. Larson, Frames in Hilbert C ∗ -modules and C ∗ -algebras J. Oper. Theory
48 (2) (2002), 273-314.

[70] P. Gavruta, On the duality of fusion frames, J. Math. Anal. Appl. 333 (2007), 871-879.

[71] V. K Goyal, J. Kovacevic, J.A. Kelner, Quantized frame expansions with erasures, jour-
nal of Appl. and Comput. Harmonic Analysis 10(3) (2001), 203-233.

[72] K. Gröchenig, Describing functions: Atomic decompositions versus frames, Monatshefte


fur Math. 112 (1991), 1-41.

[73] K. Gröchenig, Foundations of time-frequency analysis, Birkhäuser, Boston (2000).

[74] D. Han, D.R. Larson, Frame, Bases and Group Representations, Mem. Amer. Math.
Soc. 147 no. 697 (2000).

[75] R. Holmes, V. Paulsen Optimal Frames for Erasures, Lin. Alg. Appl. 377 (2004), 31
-51.

[76] R. Horn, C. Johnson, Matrix analysis, Cambridge University Press, Cambridge, (1985).

395
[77] K. Kornelson, D. Larson, Rank-one decomposition of operators and construction of
frames. Wavelets, frames and operator theory, Contemp. Math., 345, Amer. Math.
Soc., Providence, RI, (2004), 203-214.

[78] R. S. Leite, T. R. W. Richa, C. Tomei Geometric proofs of some theorems of Schur-Horn


type Linear Algebra Appl. 286 (1999), 149-173.

[79] J.Lindenstrauss, L Tzafriri, Classical Banach spaces I, Springer, New York 1977.

[80] P.G. Massey, Teorema de Schur-Horn, mayorización conjunta, modelado de operadores


y aplicaciones, Tesis Doctoral, Universidad de La Plata, (2006).

[81] P. Massey, M. Ruiz, Tight frame completions with prescribed norms, Sampl. Theory
Signal Image Process, aceptado para su publicación.

[82] P. Massey, M. Ruiz Minimization of convex functionals over frame operators, preprint.

[83] M. Ruiz, D. Stojanoff, Some properties of frames of subspaces obtained by operator


theory methods, Journal of Mathematical Analysis and Applications, aceptado para su
publicación.

[84] W. Sun G-frames and g-Riesz bases, J. Math. Anal. Appl., 322(2006), 437-452.

[85] S. Waldron, Generalised Welch Bound Equality sequences are tight frames, IEEE Trans.
Info. Th., vol., 49(9) (2003), 2307-2309.

[86] R. M. Young, An introduction to nonharmonic Fourier series (revised first edition)


Academic Press, San Diego, (2001).

Operadores en espacios de Hilbert

[87] W. N. Anderson Jr. and G. E. Trapp, Shorted operators II, SIAM J. Appl. Math., 28
(1975), 60-71.

[88] W. N. Anderson Jr., T. D. Morley and G. E. Trapp, Positive solutions to X = A −


BX −1 B ∗ , Linear Algebra Appl. 134 (1990), 53-62

[89] W. N. Anderson, Shorted operators, SIAM J. Appl. Math. 20 (1971), 520-525.

[90] W. N. Anderson and G. E. Trapp, Shorted operators II, SIAM J. Appl. Math. 28 (1975),
60-71.

[91] T. Ando, Generalized Schur complements, Linear Algebra Appl. 27 (1979), 173-186.

[92] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math (Szeged)
34 (1973), 11-15.

396
[93] T. Ando; Unitarily invariant norms related to the numerical radius, Linear Algebra and
its Applications, In Press, Corrected Proof, Available online 22 April 2005.
Linear Algebra Appl. 90 (1987), 165-219.

[94] R. Bhatia; Matrix Analysis, Springer, New York, 1997.

[95] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe Técnico interno


No.86, INMABB, Bahı́a Blanca, 2003.

[96] R. G. Douglas, On majorization, factorización and range inclusion of operators in


Hilbert space, Proc. Amer. Math. Soc. 17 (1966) 413-416.

[97] M. C. González; Relaciones de Mayorización para el Producto de Hadamard, Tesis de


licenciatura, Depto. Mat. FCEA-UNC, Neuquén, 2003.

[98] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cambridge, 1985.

[99] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press, Cam-
bridge, 1991.

[100] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the numer-
ical radius, Linear and Multilinear Algebra 23 (1988) 183-191.

[101] P. D. Lax, Linear Algebra, Springer Verlag, Berlı́n, 1998.

[102] L. Mirsky, An introducción to Linear Algebra, Clarendon Press, Oxford, 1963.

[103] M. L. Metha, Matrix Theory, 2a Ed., Hindustan Publishing Co. 1989.

[104] R. Bellman, Introducción to Matrix Analysis, 2a Ed., McGraw-Hill, New York, 1970.

[105] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation, Springer-
Verlag, Berlı́n, 1974.

[106] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its Applications,
Academic Press, New York, 1979.

[107] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix completions, J.
Funct. Anal. 85 (1989), 151-178.

[108] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math.
(Szeged) 56 (1992), 147-163.

[109] B. Simon, Trace ideals and their applications, London Mathematical Society Lecture
Note Series, 35, Cambridge University Press, Cambridge-New York, 1979.

Proyecciones oblicuas
397
[110] E. Andruchow,G. Corach and D. Stojanoff, Geometry of oblique projections, Studia
Math. 137 (1) (1999) 61-79.
[111] D. Carlson, What are Schur complements, anyway?, Linear Algebra Appl. 74 (1986),
257-275.
[112] R. W. Cottle, Manifestations of the Schur complement, Linear Algebra Appl. 8 (1974),
189-211.
[113] G. Corach, A. Maestripieri and D. Stojanoff, Oblique projections and abstract splines,
preprint.
[114] G. Corach, A. Maestripieri and D. Stojanoff, Schur complements and oblique projec-
tions, Acta Sci. Math. (Szeged) 67 (2001), 439-459.
[115] J. Dieudonné, Quasi-hermitian operators, Proc. Internat. Symp. Linear Spaces,
Jerusalem (1961), 115-122.
[116] M. Golomb, Splines, n-Widths ans optimal approximations, MRC Technical Summary
Report 784 (1967).
[117] S. Hassi, Nordström, K.; On projections in a space with an indefinite metric, Linear
Algebra Appl. 208/209 (1994), 401-417.
[118] E. Haynsworth, Determinación of the inertia of a partitioned Hermitian matrix, Linear
Algebra Appl. 1 (1968), 73-81.
[119] M. G. Krein, The theory of self-adjoint extensions of semibounded Hermitian operators
and its applications, Mat. Sb. (N. S.) 20 (62) (1947), 431-495
[120] P. D. Lax, Symmetrizable linear transformations, Comm. Pure Appl. Math. 7 (1954),
633-647.
[121] K. Löwner, Über monotone Matrixfunktionen. Math. Zeit. 38 (1934), 177-216.
[122] Z. Pasternak-Winiarski, On the dependence of the orthogonal projector on deforma-
tions of the scalar product , Studia Math., 128 (1998), 1-17.
[123] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math.
(Szeged) 56 (1992), 147-163.
[124] V. Ptak, Extremal operators and oblique projections, Casopis pro pestovánı́ Matem-
atiky, 110 (1985), 343-350.
[125] A.C. Thompson, On certain contracción mappings in a partially ordered vector space.
Proc. Amer. Math. Soc. 14 (1963), 438-443.

398
Parte IV

Resultados Preliminares

399
Apéndice A

Topologı́a

A.1 Definiciones básicas


Definición A.1.1. Sea X un conjunto. Una topologı́a en X es un sistema de subconjuntos
τ ⊆ P(X) que verifica las siguientes tres propiedades básicas.
S
1. Si σ ⊆ τ , entonces σ ∈ τ .
T
2. Si F ⊆ τ es finita, entonces F ∈ τ .
3. ∅ ∈ τ y X ∈ τ .
En otras palabras, τ es una topologı́a si contiene a X y ∅, y es cerrada por uniones arbitrarias
y por intersecciones finitas.
En tal caso, decimos que el par (X, τ ) es un espacio topológico (ET). Si no hay ambigüegdad
sobre qué topologı́a se está usando, escribiremos X solo en lugar de (X, τ ). Los elementos
de τ se llamarán subconjuntos abiertos (o τ -abiertos) de X. 4
La familia más conocida de espacios topológicos proviene de dotar a un conjunto X de una
métrica o distancia:
Definición A.1.2. Sea X un conjunto. Una métrica en X es una función d : X × X → R≥0
que verifica las siguientes propiedades: Dados x, y, z ∈ X,
1. d(x, y) = d(y, x), es decir que d es simétrica.
2. d(x, y) = 0 ⇐⇒ x = y (d es fiel).
3. d(x, y) ≤ d(x, z) + d(z, y), o sea que d cumple la desigualdad triagular.
En tal caso, (X, d) es un espacio métrico, y usaremos las notaciones:
1. Dados x ∈ X y N ∈ R>0 , los conjuntos
B(x, N ) = {y ∈ X : d(x, y) < N } y B(x, N ) = {y ∈ X : d(x, y) ≤ N } ,
son la bola abierta y la bola cerrada de centro x y radio N .

400
2. Un conjunto A ⊆ X es abierto (o d-abierto) si para todo x ∈ A existe un ε > 0 tal que
B(x, ε) ⊆ A.

3. Dados A, B ⊆ X, la distancia entre ellos es

d(A, B) = inf {d(x, y) : x ∈ A e y ∈ B} .

Si x ∈ X, escribiremos d(x, B) = inf {d(x, y) : y ∈ B} en lugar de d({x}, B). 4

Observación A.1.3. Si (X, d) es un espacio métrico, es fácil ver que el sistema de conjuntos
τd = {A ⊆ X : A es d-abierto } es una topologı́a en X. Pensando al revés, si τ es una
topologı́a para X, diremos que el espacio topológico (X, τ ) es metrizable si existe alguna
distancia d en X tal que τ = τd .
La mayorı́a de los espacios topológicos son metrizables. Sin embargo, hay dos razones im-
portantes para que las teorı́as topológica y métrica se desarrollen separadamente (o en par-
alelo). Por un lado, existen importantes ejemplos en la matemática de espacios topológicos
no metrizables (pocos pero buenos). Por otro lado, las dos teorı́as hacen incapié en aspectos
bien diferenciados entre sı́, hasta el punto de que es usual hablar de propiedades topológicas
(como las enumeradas al principio del capı́tulo) y de propiedades métricas. Como ejem-
plo de estas últimas, podemos mencionar propiedades como “ser acotado”, ser “completo”,
diámetro, sucesiones de Cauchy, etc. Todas estas son puramente métricas y no tienen un
correlato topológico. 4
A continuación seguiremos introduciendo lenguaje topológico:
Definición A.1.4. Sea (X, τ ) un ET y fijemos un punto x ∈ X.

1. Diremos que un conjunto

A⊆X es un entorno de x si existe U ∈τ tal que x∈U ⊆A.

A se llamará entorno abierto de x si se tiene que x ∈ A y el mismo A ∈ τ .

2. Denotaremos por O(x) = {A ⊆ X : A es entorno de x} al f iltro de entornos de x.


Llamaremos Oa (x) = {A ⊆ O(x) : A es entorno abierto de x} = O(x)∩τ . Cuando haga
falta especificar el espacio o la topologı́a en cuestión, escribiremos OX (x) o también
Oτ (x). Lo mismo para Oa (x).

3. Dado un conjunto Y ⊆ X denotaremos por

Y ◦ = {x ∈ Y : Y ∈ O(x)} = {x ∈ Y : Y es entorno de x} , (A.1)

al interior de Y . Los elementos x ∈ Y ◦ se llamarán puntos interiores de Y . 4

Proposición A.1.5. Sea (X, τ ) un ET y sean A, B ⊆ X. Entonces

1. A◦ es abierto.

401
2. Si A ⊆ B, entonces A◦ ⊆ B ◦ .

3. A es abierto si y sólo si A = A◦ , o sea si A es entorno de todos sus puntos.

4. (A◦ )◦ = A◦ .

5. A◦ es el mayor abierto contenido en A.

6. (A ∩ B)◦ = A◦ ∩ B ◦ .
Demostración. Sea x ∈ A◦ , y sea U ∈ τ tal que x ∈ U ⊆ A. Por la definición de ser entorno,
vemos que todos los otros y ∈ U también cumplen que A ∈ O(y). Es decir que U ⊆ A◦ . De
ahı́ podemos deducir que [
A◦ = {U ∈ τ : U ⊆ A} . (A.2)
Es claro que esta igualdad sirve para demostrar los primeros 5 items del enunciado. Como
A◦ ∩ B ◦ ⊆ A ∩ B y es abierto, el ı́tem 5 asegura que A◦ ∩ B ◦ ⊆ (A ∩ B)◦ . La otra inclusión
también se deduce de la Ec. (A.2). 

A.2 Cerrados, lı́mites y clausuras


Sea (X, τ ) un ET. Los subconjuntos cerrados de X serán los complementos de los conjuntos
abiertos. Es decir, F ⊆ X es cerrado si y sólo si X \ F ∈ τ . Usando la Def. A.1.1 y las leyes
de De Morgan, tenemos las siguientes propiedades:
• Intersecciones arbitrarias de cerrados son cerradas.

• Uniones finitas de cerrados son cerradas.

• ∅ y X son cerrados.
Usando estos hechos, podemos definir la noción de clausura de un subconjunto, que es la
dual de la noción de interior (comparar con la Ec. (A.2) ):
Definición A.2.1. Sea (X, τ ) un ET y sea A ⊆ X. El conjunto
\
A = {F ⊆ X : F es cerrado y A ⊆ F } (A.3)

se denomina la clausura de A. Los elementos x ∈ A se llamarán puntos lı́mite de A. 4


Veamos ahora la versión dual de la Prop. A.1.5, cuya prueba dejamos como ejercicio.
Proposición A.2.2. Sea (X, τ ) un ET y sean A, B ⊆ X. Entonces
1. A es cerrado.

2. Si A ⊆ B, entonces A ⊆ B

3. A es cerrado si y sólo si A = A.

402
−
4. A = A.

5. A es el menor cerrado que contiene a A.


6. A ∪ B = A ∪ B. 

La dualidad mencionada se manifiesta mejor en la siguiente fórmula:


Proposición A.2.3. Sea (X, τ ) un ET y sea A ⊆ X. Entonces

X \ A = (X \ A)◦ y X \ A◦ = X \ A . (A.4)

Demostración. Se deduce de las fórmulas (A.2) y (A.3). Por ejemplo,


[ [
X \A= {X \ F : F es cerrado y A ⊆ F } = {U ∈ τ : U ⊆ X \ A} .

La otra igualdad se muestra en forma semejante. 


Daremos ahora una caracterización especial de ser punto lı́mite:
Proposición A.2.4. Sea (X, τ ) un ET. Dados A ⊆ X y x ∈ X, las siguientes condiciones
son equivalentes:
1. x ∈ A
2. A ∩ V 6= ∅ para todo V ∈ O(x).
3. A ∩ U 6= ∅ para todo U ∈ Oa (x).
Demostración. Supongamos que A ∩ V = ∅ para cierto V ∈ O(x). Entonces tenemos que
V ⊆ X \ A por lo que x ∈ (X \ A)◦ = X \ A . Esto prueba 1 → 2. Es claro que 2 → 3.
Finalemnte, para ver que 3 → 1, supongamos que x ∈ / A. Como U = X \ A es abierto,
a
tenemos que x ∈ U ∈ O (x). Pero como A ⊆ A, se tiene que U ∩ A = ∅. 
Por la Prop. A.2.4, un x ∈ X es punto lı́mite de un conjunto A ⊆ X si y sólo si se cumple
que A ∩ V 6= ∅ para todo V ∈ O(x), o sea si A corta a todo entorno de x. En forma
similar, pero un poco más sofisticada, se define la noción de punto de acumulación:
Definición A.2.5. Sea (X, τ ) un ET. Dados A ⊆ X y x ∈ X, decimos que

x es punto de acumulación de A si A \ {x} ∩ V 6= ∅ para todo V ∈ O(x) .

Es decir, si A corta a todo entorno de x en algún punto y distinto de x. Denotaremos por


A0 = {x ∈ X : x es punto de acumulación de A}. 4
Ejercicios A.2.6. 1. Sea (X, τ ) un ET. Dado A ⊆ X, probar que A = A ∪ A0 .
2. Sean (X, d) un EM y A ⊆ X. Probar que

x∈A ⇐⇒ 0 = d(x, A) .
 
Deducir que A es cerrado si y sólo si d(y, A) = 0 =⇒ y ∈ A . 4

403
Definición A.2.7. Sea (X, τ ) un ET. Dado A ⊆ X, llamaremos borde de A al conjunto

∂A = A ∩ X \ A = A \ A◦

= {x ∈ X : A ∩ V 6= ∅ 6= (X \ A) ∩ V , para todo V ∈ O(x)} .

Es fácil ver que ∂A = ∂(X \ A). 4

A.3 Bases y sub-bases


En esta sección estudiaremos construcciones que producen nuevas topologı́as a partir de una
topologı́a dada, o basándose en familias arbitrarias de conjuntos.
Sean τ1 y τ2 dos topologı́as en X. Diremos que τ1 es más fuerte (o que es mayor) que τ2 si
τ2 ⊆ τ1 , es decir que τ1 tiene más conjuntos abiertos que τ2 . La menor de todas las topologı́as
es la llamada trivial, y consiste de {∅, X}. La mayor es la llamada topologı́a discreta, que
es tomar todo P(X) (en la que todos los puntos son abiertos). Se puede, además, construir
ı́nfimos y supremos de familias arbitrarias de topologı́as. En efecto, si {τi : i ∈ I} es una
familia de topologı́as en X, entonces es fácil ver que los sitemas
^ \ _ ^ [
τi = τi y τi = τ : τ es una topologı́a y τi ⊆ τ
i∈I i∈ I i∈I i∈I

son topologı́as, la primera el ı́nfimo y la segunda el supremo de la familia {τi : i ∈ I}. Estas
construcciones permiten generar topologı́as a partir de familias arbitrarias de subconjuntos
de X, con la sola condición de que cubran a X.
S
Definición A.3.1. Sea X un conjunto y sea ρ ⊆ P(X) tal que ρ = X.

1. La topologı́a generada por ρ es la menor topologı́a que contiene a ρ, o sea


^
τ (ρ) = τ : τ es una topologı́a y ρ ⊆ τ .

2. Diremos que ρ es una sub-base de una topologı́a τ si τ = τ (ρ).

3. Dada una topologı́a τ en X, diremos que ρ es una base de τ si

(a) τ = τ (ρ)
S
(b) Todo V ∈ τ cumple que V = {U ∈ ρ : U ⊆ V }. 4

En resumidas cuentas, sabemos generar una topologı́a en X a partir de una familia arbitraria
ρ ⊆ P(X), y sabemos qué queremos que cumpla una familia para ser base de una topologı́a
(notar la analogı́a con las bolas abiertas en una topologı́a que proviene de una métrica). El
problema es saber cuándo ρ es o no base de τ (ρ), o bien cómo contruir una base de τ (ρ) a
partir de ρ. Esto se responde ahora:

404
S
Proposición A.3.2. Sea X un conjunto y sea ρ ⊆ P(X) tal que ρ = X.
1. Se tiene que ρ es base de τ (ρ) si y sólo si se cumple que
dados U , V ∈ ρ y x ∈ U ∩ V , existe W ∈ ρ tal que x ∈ W ⊆ U ∩ V . (A.5)
En particular, esto pasa si ρ es cerrado por intersecciones finitas.
2. La siguiente familia es base de τ (ρ):
β = {V1 ∩ V2 ∩ · · · ∩ Vn : n ∈ N y V1 , . . . , Vn ∈ ρ} , (A.6)
es decir que β consiste de las intersecciones finitas de elementos de ρ.
S
En conclusión, si ρ ⊆ P(X) cumple que ρ = X, se tiene que
τ (ρ) = { uniones arbitrarias de intersecciones finitas de elementos de ρ } . (A.7)
Demostración. Si ρ es base de τ (ρ), la condición (A.5) se verifica de inmediato (notar que
U ∩ V ∈ τ (ρ) ). Supongamos ahora que ρ cumple la condición (A.5), y consideremos
 [
τ= α : α ⊆ ρ = { uniones de elementos de ρ } ,

Es claro que ρ ⊆ τ ⊆ τ (ρ), ya que τ está contenido en toda topologı́a que contenga a ρ.
Probaremos que τ es una topologı́a, de lo que podremos deducir que τ = τ (ρ), por lo que ρ
será una base de τ (ρ).
S
Tomando α = ρ, o bien α = ∅, vemos que X y ∅ están en τ (recordar que ρ = X). Por su
construcción, τ es cerrado por uniones arbitrarias. Sólo falta ver que lo es para intersecciones
finitas. Es fácil ver que la condición (A.5) muestra que si U, V ∈ ρ, entonces U ∩ V ∈ τ . Si
ahora tomamos α, γ ⊆ ρ, y consideramos los conjuntos
[ [ [ [
A= α y B= γ en τ , =⇒ A ∩ B = U ∩V ∈ τ .
U ∈α V ∈γ

Inductivamente, se ve que τ es cerrado para intersecciones finitas, lo que prueba 1.


El conjunto β de la Ec. (A.6) claramente cumple la condición (A.5), puesto que β es cerrado
para intersecciones finitas. Por ello, β es base de τ (β). Pero es fácil ver que τ (ρ) = τ (β), lo
que prueba 2. La fórmula (A.7) es consecuencia de lo visto anteriormente. 
Proposición A.3.3. Sea (X, τ ) un ET. Dada β ⊆ τ , son equivalentes:
1. β es base de τ .
2. Para todo x ∈ X y todo U ∈ O(x) existe V ∈ β tal que x ∈ V ⊆ U .
Demostración. Si β es base y U ∈ O(x), sabemos que x ∈ U ◦ = {V ∈ β : V ⊆ U }. Basta
S
tomar uno de tales V tal que x ∈ V . La recı́proca es similar. 
Si ahora aislamos la condición anterior, para cada x ∈ X fijo, obtenemos la noción natural
de base de entornos de ese x:

405
Definición A.3.4. Sea (X, τ ) un ET y sea x ∈ X. Una base de entornos de x es una
subfamilia βx ⊆ O(x) tal que para todo U ∈ O(x) existe V ∈ βx tal que x ∈ V ⊆ U . 4

Observación A.3.5. Si βx es base de entornos de un x ∈ X, en todos los enunciados


anteriores, donde se decı́a “para todo U ∈ O(x)” puede decirse “para todo V ∈ βx ” y
obtener las mismas conclusiones. 4

Ejemplos A.3.6. 1. Sea (X, τ ) un ET y sea β ⊆ τ una base. Entonces, para todo x ∈ X,
O(x) ∩ β = {U ∈ β : x ∈ U } (A.8)
es una base de entornos de x.
2. Sea (X, d) un EM, y pensémoslo como un ET (X, τd ). Sea (an )n∈N una sucesión en R>0
tal que an −−−→ 0. Sea D ⊆ X un subconjunto denso, i.e., tal que D = X. Entonces
n→∞

(a) Para todo x ∈ X, la familia {B(x, an ) : n ∈ N es una base de entornos de x.

(b) La familia β = B(y, an ) : y ∈ D y n ∈ N es una base de τd .
Las pruebas de 1 y de 2 (a) son inmediatas a partir de las definiciones. La de 2 (b) es un
poquito más trabajosa: si x ∈ U ∈ τd , existe una B(x, ε) ⊆ U . Tomemos un an < 2ε . Como
D es denso, en la bola B(x, an ) debe haber un y ∈ D. Pero
y ∈ B(x, an ) =⇒ x ∈ B(y, an ) ⊆ B(x, ε) ⊆ U ,
ya que si z ∈ B(y, an ) se tiene que d(x, z) ≤ d(x, y) + d(y, z) < 2 an < ε. Ahora se puede
aplicar la Prop. A.3.3 y deducir que β es base de τd . 4

A.3.1 Topologı́a inducida


Sea (X, τ ) un ET y fijemos un subconjunto Y ⊆ X. Hay una manera natural de dotar a Y
de una topologı́a a partir de τ : Consideremos el sistema
τY = {U ∩ Y : U ∈ τ } = {A ⊆ Y : existe U ∈ τ tal que A = U ∩ Y } ⊆ P(Y ) .
Usando las propiedades básicas de conjuntos, se verifica sin dificultades que τY es una
topologı́a en Y . Se la llamará la topologı́a inducida por τ a Y . Enumeraremos a contin-
uación varias propiedades del ET (Y, τY ) cuyas demostraciones son elementales:
Proposición A.3.7. Sea (Y, τY ) ⊆ (X, τ ) como recién. Dados y ∈ Y y B ⊆ Y , se tiene que
1. El conjunto OY (y) de τY -entornos de y se calcula como OY (y) = {V ∩ Y : V ∈ O(y)}.
Análogamente se puede hacer con los entornos abiertos de y en Y .
2. Si β es una base de τ , entonces βY = {U ∩ Y : U ∈ β} es una base de τY . Lo mismo
puede hacerse con sub-bases de τ y con bases de entornos de cada punto de Y .
3. B es τY -cerrado si y sólo si existe un conjunto cerrado F ⊆ X tal que B = Y ∩ F .
Y X
4. La clausura B de B en Y es igual a Y ∩ B . 

406
A.4 Clases de ET’s
La gracia de la topologı́a es que es tan general que se confunde con la teorı́a de conjuntos,
pero en cualquier ET se puede hacer algo de análisis. Sin embargo tanta generalidad hace que
pocos resultados interesantes y sofisticados puedan probarse para todo ET. Por eso, la teorı́a
se construye definiendo diversas clases especı́ficas de ET’s que tengan algunas propiedades
más restrictivas, en las que se muestra que valen teoremas cada vez más ambiciosos. Un
tı́pico teorema topológico tiene un enunciado del siguiente estilo: Sea (X, τ ) un ET de la
clase tal y cual. Entonces en X vale una propiedad sofisticada.
Este tipo de construcción teórica a veces suena un poco acomodaticia. Se corre el riesgo de
hacer el siguiente procedimiento:
1. Primero uno averigua qué se necesita que cumpla X para que camine la demostración,
que uno pensó, de que en X vale la propiedad P .

2. Luego uno define la clase de C de los ET’s que cumplen esos prerrequisitos.

3. Se enuncia un Superteorema: Todo ET de la clase C cumple la propiedad P !!


En realidad, este fue el procedimiento que se fue usando. Pero la teorı́a quedó bien, porque
hay propiedades P que son necesarias e importantes. Las clases C donde ellas valen no se
definieron para que camine una prueba concreta, sinó que se fueron extendiendo (mejorando
las pruebas) hasta llegar a los mı́nimos prerrequisitos posibles en X para que valga P . Y
tuvieron prioridad las clases C que fueran razonablemente fáciles de detectar en la larga lista
de ejemplos importantes.
Luego de muchos años de mezclar propiedades y clases, el proceso decantó en una buena
clasificación de los ET’s, tal que combinando dos o tres de los ingredientes fijados (clases de
espacios) se encuentran hipótesis óptimas para la mayorı́a de las propiedades P que sirven
en la mayorı́a de las teorı́as matemáticas donde se usa la topologı́a.
A continuación enumeraremos las clasificaciones que quedaron aceptadas por consenso.
A lo largo de todo el texto se verá cómo estas clases se irán combinando para ir obteniendo
los distintos teoremas de la teorı́a.

A.4.1 Numerabilidad
Recordemos que un EM se dice separable si tiene un subconjunto denso numerable. En el
contexto general de ET’s, tenemos varias clases diferentes de numerarabilidad, que definire-
mos a continuación. Para abreviar, si queremos decir que un conjunto D es numerable,
escribiremos |D| ≤ ℵ0 . Recordar que |D| es el cardinal de D y ℵ0 = |N|.
Definición A.4.1. Sea (X, τ ) un ET, y asumamos que τ está fijada. Diremos que
1. X es separable si existe D ⊆ X tal que |D| ≤ ℵ0 y D = X.

2. X es N1 (o que cumple el primer axioma de numerabildad), si para todo x ∈ X


existe una base βx de entornos de x tal que |βx | ≤ ℵ0 .

407
3. X es N2 (o que cumple el segundo axioma de numerabildad), si existe una base
β de τ tal que |β| ≤ ℵ0 .
S
4. X es de Lindeloff, si para todo cubrimiento abierto
S σ ⊆ τ de X (i.e., σ = X),
existe un subcumbrimiento numerable σ0 ⊆ σ, (i.e., σ0 = X y |σ0 | ≤ ℵ0 ). 4

Proposición A.4.2. Sea (X, τ ) un ET. Si X es N2 , entonces es separable, N1 y Lindeloff.


Demostración. Sea β = {Un : n ∈ N} una base de τ (si hay un β finito todo es muy fácil).
Usando la Ec. (A.8), es fácil ver que N2 =⇒ N1 . Para ver la separabilidad, elijamos un
xn ∈ Un para cada n ∈ N. Se toma D = {xn : n ∈ N}. Entonces D es denso, porque “toca”
todo entorno de todo punto de X (usar la Prop. A.3.3).
Para ver que X es Lindeloff, fijemos un cubrimiento σ ⊆ τ . Sea

Jσ = {m ∈ N : Um ⊆ V para algún V ∈ σ} y βσ = {Um : m ∈ Jσ } ⊆ β .


[ [
Como σ cubre X y β es una base, podemos ver que βσ = Um = X. Elijamos ahora,
m∈Jσ
para cada m ∈ Jσ , un Vm ∈ σ tal que Um ⊆ Vm . Luego la familia σ0 = {Vm : m ∈ Jσ } ⊆ σ
es numerable y cubre X. 
Observación A.4.3. Es falso en general que alguna de las otras 3 condiciones de separa-
bilidad impliquen ser N2 o cualquier otra. Pero en EM’s todo es mejor: 4
Proposición A.4.4. Sea (X, d) un EM. Entonces

1. (X, τd ) es N1 .

2. (X, τd ) es N2 si y sólo si es Lindeloff si y sólo si es separable.

Demostración. Todo EM es N1 porque, para cada x ∈ X, basta tomar la base de entornos


βx = {B(x, n1 ) : n ∈ N}. Ya vimos (para ET’s generales) que N2 =⇒ Lindeloff. Si X es
Lindeloff, para cada n ∈ N se puede cubrir a X con numerables bolas B(xn,m , n1 ), m ∈ N.
Tomando D = {xn,m : n, m ∈ N}, obtenemos un denso numerable para X. Si asumimos que
X es separable, podemos ver que es N2 usando el item 2 (b) del Ejem. A.3.6. 

A.4.2 Separación
Sea (X, τ ) un ET. Si no se le pide algo especı́fico a τ , puede haber puntos distintos de X
que resulten indistingibles desde el punto de vista topológico. Por ejemplo puede pasar que
existan x, y ∈ X tales que x 6= y, pero O(x) = O(y). O que O(x) ⊆ O(y). Observar que
en tal caso, x ∈ {y}, por lo que {y} no es cerrado. Pedir condiciones para que estas cosas
no pasen se llama dar propiedades de separación a la topologı́a τ . Estas condiciones están
estratificadas en cinco clases estandarizadas, denominadas Tk , con 0 ≤ k ≤ 4.
Definición A.4.5. Sea (X, τ ) un ET. Diremos que X es de la clase:

408
T0 : Si dados x, y ∈ X distintos, existe

U ∈ O(x) tal que y∈


/U o bien V ∈ O(y) tal que x∈
/V .

Puede verse que esto equivale a que x 6= y =⇒ O(x) 6= O(y).


T1 : Si dados x, y ∈ X distintos, existen
T U ∈ O(x) y V ∈ O(y) tales que x ∈
/V ey∈
/ U.
Otra forma de decirlo es que O(x) = {x}, para todo x ∈ X.
T2 : Si dados x, y ∈ X distintos, existen

U ∈ O(x) y V ∈ O(y) tales que U ∩V =∅ .

Los ET’s de clase T2 son más conocidos como espacios de Hausdorff.


T3 : Si X es T1 y, para todo x ∈ X y todo F ⊆ X cerrado tales que x ∈
/ F , existen

U ∈ O(x) y V ∈τ tales que F ⊆V y U ∩V =∅ .

Los ET’s de clase T3 son también conocidos como espacios regulares.


T4 : Si X es T1 y, para todo par F1 , F2 ⊆ X de subconjuntos cerrados y disjuntos,

existen U y V ∈ τ tales que F1 ⊆ U , F2 ⊆ V y U ∩V =∅ .

Los ET’s de clase T4 son conocidos como espacios normales. 4


T
Observación A.4.6. Sea (X, τ ) un ET. Vimos que X es T1 si y sólo si O(x) = {x}, para
todo x ∈ X. Es claro que esto a su vez equivale a que {y} sea cerrado para todo y ∈ X.
Entonces las espacios T1 son aquellos en los que los puntos son cerrados.
Teniendo esto en cuenta, es inmediato verificar que las clases recién definidas son cada vez
más restrictivas, en el sentido de que

X es de clase Tk =⇒ X es de clase Tk−1 , para todo k ∈ I4 ,

o bien que: normal =⇒ regular =⇒ Hausdorff =⇒ puntos cerrados =⇒ T0 . Ninguna


de las implicaciones anteriores vale en el sentido inverso, por lo que se justifica darle nombres
distintos a las 5 clases. Ahorita ya podemos ver que T1 6⇒ Hausdorff: 4
Ejemplo A.4.7. Sea X un conjunto infinito. Consideremos en X la topologı́a cofinita:

τCF (X) = {∅} ∪ {X \ V : V ∈ PF (X)} = {∅} ∪ {U ⊆ X : X \ U es finito } .

Es fácil ver que τCF (X) es una topologı́a. Este ejemplo es un caso bastante patológico, que
induce a pensar que los axiomas de la topologı́a pueden ser demasiado débiles si uno no pide
condiciones extra. Lo único bueno que tiene es que los puntos de X son cerrados.
Por lo tanto, una topologı́a τ en un conjunto X es de tipo T1 si y sólo si τCF (X) ⊆ τ . Sin
embargo, es claro que (X, τCF (X) ) no es un espacio de Hausdorff, porque no tiene abiertos
disjuntos (no vacı́os). 4

409
La observación que sigue da versiones equivalentes a la definición de regularidad y normal-
idad. Todo es cuasi tautológico, pero conviene tenerlo enunciado y aceptado claramente
desde el principio para encarar más cómodos, y no enturbiar los argumentos de numerosas
demostraciones posteriores (con complementos, clausuras e interiores y más yerbas).
Observación A.4.8. Sea (X, τ ) un ET de calse T1 . Son equivalentes:
1. X es regular

2. Dados x ∈ X y un abierto W ∈ Oa (x), existe U ∈ τ tal que x ∈ U ⊆ U ⊆ W .

3. Dados x ∈ X y un cerrado F2 tales que x ∈


/ F2 , se verifica que

existe un abierto U ∈ τ tal que x ∈ U pero F2 ∩ U = ∅ .

Análogamente, son equivalentes las condiciones


1. X es normal

2. Dados un cerrado F ⊆ X y un abierto W ∈ τ tales que F ⊆ W ,

existe un abierto U ∈ τ tal que F ⊆U ⊆U ⊆W .

3. Para todo par F , F2 ⊆ X de subconjuntos cerrados y disjuntos,

existe un abierto U ∈ τ tal que F ⊆ U pero F2 ∩ U = ∅ .

Como decı́amos antes, las pruebas son casi confusas de tan directas. Demostremos la segunda
tanda para dar una idea. Si X es normal y tenemos F ⊆ W como en 2, se toma el cerrado
F2 = X \ W , y se los separa con abiertos disjuntos U ⊇ F y U2 ⊇ F2 . Ahora basta observar
que F ⊆ U ⊆ U ⊆ X \ U2 ⊆ X \ F2 = W .
Asumamos 2. Para probar 3, llamemos W = X \ F2 ⊇ F . El abierto U que provee 2 cumple
que F ⊆ U y que U ⊆ W , por lo que F2 ∩ U = ∅ .
Asumamos ahora 3, y tomemos F y F2 dos cerrados disjuntos. El abierto U que provee 3
cumple que F ⊆ U y que U2 = X \ U es abierto, es disjunto con U , y contiene a F2 . 4

En general, la normalidad es mucho más restrictiva (y más útil) que la regularidad. Pero
como veremos a continuación, un poco de numerabilidad empata las cosas:
Proposición A.4.9. Sea (X, τ ) un ET que es regular y Lindeloff. Entonces X es normal.
Demostración. Ver el Apunte de topologı́a. 
La clasificación no termina acá. Falta definir varias clases importantes de ET’s (por ejemplo
compactos, conexos, completamente regulares o de Tychonoff, etc), pero debemos posponerlo
porque nos faltan ver y estudiar las nociones involucradas en sus definiciones, o porque son
clases que ameritan capı́tulo propio, y se las definirá entonces.

410
Las clases de separación recién definidas carecen de interés entre los EM’s porque, como
veremos a continuación, son todos normales. La prueba de esto pasa por una propiedad
que parece aún más fuerte que la normalidad, pero que a la larga (y con notable esfuerzo)
veremos que equivale a ella para cualquier ET.
Lema A.4.10. Sea (X, d) un EM. Dado un A ⊆ X, la función dA : X → R≥0 dada por

dA (x) = d(x, A) = inf {d(x, z) : z ∈ A} , para cada x ∈ X ,

es continua. Además, se tiene que A = {x ∈ X : dA (x) = 0}. O sea que ser punto lı́mite se
describe como “distar cero” de A.
Demostración. Sean x, y ∈ X. Para cada z ∈ A tenemos que

d(x, A) ≤ d(x, z) ≤ d(x, y) + d(y, z) =⇒ dA (x) ≤ d(x, y) + inf d(y, z) = d(x, y) + dA (y) .
z∈A

Cambiando roles, también sale que dA (y) ≤ d(x, y) + dA (x). Por lo tanto nos queda que

|dA (x) − dA (y)| ≤ d(x, y) para todo par x, y ∈ X ,

con lo que dA es recontinua. Observar que, dado x ∈ X, el hecho de que dA (x) = 0 equivale
a que en toda bola B(x, ε) haya puntos de A, o sea que x ∈ A. 
Proposición A.4.11. Todo espacio métrico (X, d) es normal. Más aún, dados F1 y F2 ⊆ X
dos cerrados disjuntos, existe una función continua

f : X → [0, 1] tal que f F1 ≡ 0 y f F2 ≡ 1 .

Demostración. Sean F1 y F2 ⊆ X dos cerrados disjuntos. Definamos la función continua


d(x, F1 )
f : X → [0, 1] dada por f (x) = para x ∈ X .
d(x, F1 ) + d(x, F2 )
Observar que el denominador no puede anularse, puesto que

d(x, Fi ) = 0 =⇒ x ∈ Fi (para i = 1, 2) y que F1 ∩ F2 = ∅ .

Ahora bien, notar que si x ∈ F1 entonces f (x) = 0, y que f (y) = 1 para todo y ∈ F2 . Para
deducir la normalidad, basta tomar los conjuntos abiertos y disjuntos

U = {x ∈ X : f (x) < 1/3} ⊇ F1 y V = {x ∈ X : f (x) > 2/3} ⊇ F2 ,

que separan a F1 y a F2 . 
Ejercicio A.4.12. Sea (X, τ ) un ET de clase T1 , y sea A ⊆ X. Probar que

x ∈ A0 ⇐⇒ V ∩A es infinito , para todo V ∈ O(x) .

Mostrar también que lo anterior puede ser falso si X no era T1 . 4

411
A.4.3 Herencias
Una clase C de ET’s se llama hereditaria, si para todo espacio X de clase C, se tiene
que cualquier subespacio Y ⊆ X sigue siendo C con la topologı́a inducida. Veremos a
continuación cuales de las clases antes definidas son o no hereditarias. La herramienta
básica es la Prop. A.3.7, que reenunciamos para comodidad del lector:
Proposición A.3.7. Sea (Y, τY ) ⊆ (X, τ ). Dados y ∈ Y y B ⊆ Y , se tiene que
1. El conjunto OY (y) de τY -entornos de y se calcula como OY (y) = {V ∩ Y : V ∈ O(y)}.
Análogamente se puede hacer con los entornos abiertos de y en Y .

2. Si β es una base de τ , entonces βY = {U ∩ Y : U ∈ β} es una base de τY . Lo mismo


puede hacerse con sub-bases de τ y con bases de entornos de cada punto de Y .

3. B es τY -cerrado si y sólo si existe un conjunto F ⊆ X cerrado tal que B = Y ∩ F .


Y X
4. La clausura B de B en Y es igual a Y ∩ B . 
Proposición A.4.13. Las siguientes clases de ET’s son hereditarias:

N1 , N2 , T0 , T1 , T2 y T3 .

Las clases de espacios Lindeloff, separables y normales no son hereditarias.


Demostración. Las clases N2 y N1 dependen de la existencia de bases y de bases de en-
tornos. Las clases T0 , T1 y T2 dependen de la existencia de entornos de puntos con ciertas
propiedades. Luego todas ellas son hereditarias por la Prop. A.3.7. El hecho de que las tres
clases mencionadas no sean hereditarias se muestra en los ejemplos (Ejercicio: Buscarlos).
Veamos el caso de la regularidad:
Sea B ⊆ Y un subconjunto Y -cerrado y sea y ∈ Y \ B. Por la Prop. A.3.7,
Y X X
/ B =B =Y ∩B
y∈ =⇒ y ∈
/F =B .

Como X es regular, existen dos abiertos disjuntos U, V ∈ τ tales que y ∈ U y F ⊆ V . Basta


entonces tomar U0 = U ∩ Y y V0 = V ∩ Y ∈ τY y estamos (recordar que el ser T1 también se
heredaba). Este argumento no camina para la normalidad, porque si tenemos dos conjuntos
X X
A, B ⊆ Y que son Y -cerrados y disjuntos, nadie nos garantiza que A ∩ B = ∅. 

A.5 Continuidad básica


Definición A.5.1. Sean (X, τ ) e (Y, σ) dos ET’s, y sea f : X → Y una función.
1. Diremos que f es continua si

f −1 (V ) = {x ∈ X : f (x) ∈ V } ∈ τ para todo V ∈σ .

Es decir, si la contraimagen por f de todo abierto de Y , queda abierta en X.

412
2. Diremos que f es continua en un punto x ∈ X si

f −1 (A) ∈ Oτ (x) para todo A ∈ Oσ (f (x) ) .


  
3. Denotaremos por C (X, τ ), (Y, σ) = C X, Y al conjunto de todas las funciones
continuas g : (X, τ ) → (Y, σ). 4

Proposición A.5.2. Una función f : (X, τ ) → (Y, σ) es continua si y sólo si f en continua


en x para todo x ∈ X.
Demostración. Si f es continua, sean x ∈ X y A ∈ Oσ (f (x) ). Luego existe un

V ∈ σ tal que f (x) ∈ V ⊆ A =⇒ f −1 (V ) ∈ τ y x ∈ f −1 (V ) ⊆ f −1 (A) .

Luego f −1 (A) ∈ Oτ (x). Si ahora asumimos que f es continua en todos los puntos de X
y tomamos un abierto V ∈ σ, para cada x ∈ f −1 (V ) se tiene que V ∈ Oσ (f (x) ). Por la
continuidad en x, vemos que f −1 (V ) ∈ Oτ (x). Esto muestra que f −1 (V ) es entorno de todos
sus elementos. Y por la Prop. A.1.5, deducimos que f −1 (V ) ∈ τ . 
Observación A.5.3. Sea f : (X, τ ) → (Y, σ) una función. Luego

1. Dado un x ∈ X, se tiene que f es continua en x si y sólo si

Para cada A ∈ Oσ (f (x) ) exite un B ∈ Oτ (x) tal que f (B) ⊆ A . (A.9)

2. La f es continua (en todo X) si y sólo si f −1 (F ) es τ -cerrado para todo σ-cerrado


F ⊆ Y . Esto se debe a que ser cerrado equivale a tene complemento abierto, y a que
la operación A 7→ f −1 (A) tiene la siguiente propiedad:

f −1 (Y \ A) = X \ f −1 (A) para todo A ∈ P(Y ) , (A.10)

cuya verificación es inmediata.

3. Como el operador A 7→ f −1 (A) respeta también uniones e intersecciones arbitrarias,


para verificar que f es continua, basta testar que f −1 (U ) ∈ τ para los elementos U de
una base o incluso sub-base de σ. 4

Observación A.5.4. Sean X e Y dos EM’s y sea f : X → Y una función. Entonces f es


continua en un x ∈ X si y sólo si vale la fórmula ε, δ de siempre:

para todo ε > 0 existe un δ > 0 tal que dX (z, x) < δ =⇒ dY (f (z), f (x) ) < ε , (A.11)

donde estamos hablando de la continuidad relativa a las topologı́as inducidas por las métricas.
En efecto, basta aplicar la Ec. (A.9), más el hecho de que las bolas alrededor de un punto
forman una base de entornos de ese punto. 4

413
A continuación juntaremos en un enunciado numerosas propiedades de las funciones contin-
uas que, si bien parecen muy elementales, conviene testear cuidadosamente si uno las postula
en el contexto hipergeneral de ET’s.
Proposición A.5.5 (Miscelánea). Sea (X, τ ) un ET. Se tienen las siguientes propiedades:
1. Toda función f : X → Y que es constante es continua.
2. La composición de dos funciones continuas es continua.
3. Sea A ⊆ X, pensado con la topologı́a inducida. La función inclusión JA : A → X
dada por JA (x) = x (x ∈ A) es continua.

4. Si f : X → Y es continua y A ⊆ X, entonces la restricción f A : A → Y es continua.
Z
Si f (X) ⊆ Z ⊆ Y , entonces también la correstricción f : X → Z es continua (en
ambos casos con las topologı́as inducidas).
S
5. Dada una función f : X → Y y un cubrimiento {Uα }α∈A de X (i.e., Ui = X) por
i∈I
conjuntos abiertos tales que f Uα es continua para todo α ∈ A, entonces f es continua.

6. Sean f, g : (X, τ ) → A ⊆ R dos funciones continuas. Entonces


(a) La función (f, g) : X → R2 dada por (f, g)(x) = (f (x), g(x) ) es continua.
(b) Las funciones x 7→ f (x) + g(x) y x 7→ f (x) · g(x) son continuas.
1
(c) Si f (x) 6= 0 para todo x ∈ X, entonces x 7→ es continua.
f (x)
(d) Las funciones f ∧ g = mı́n{f, g} y f ∨ g = máx{f, g} son continuas.
Demostración. Los ı́tems 1, 2, 3 y 4 se deducen directamente de las definiciones de con-
tinuidad
y−1de la topologı́a−1inducida. Observar que, dado un subconjunto M ⊆ Y , se tiene
−1 −1
que f A (M ) = A ∩ f (M ) y que, si f (X) ⊆ Z, entonces f (M ) = f (M ∩ Z).

5. Sea V ∈ σ. Como cada Uα es abierto,


sus abiertos relativos estan en τ . Luego, como
para todo α ∈ A sabemos que f Uα es continua, se tiene que
 −1
f Uα (V ) = f −1 (V ) ∩ Uα es abierto en Uα =⇒ f −1 (V ) ∩ Uα ∈ τ ,

para todo α ∈ A.
S Pero del hecho de que {Uα }α∈A sea un cubrimiento, podemos deducir
−1 −1
que f (V ) = f (V ) ∩ Uα ∈ τ .
α∈ A

6. La parte (a) sale usando que (f, g)−1 U × V = f −1 (U ) ∩ g −1 (V ), para cualquier




par de abiertos U, V ⊆ R. La parte (b) porque las funciones de R2 a R dadas por


(s, t) 7→ s + t y (s, t) 7→ s · t son continuas (componiendo). La (c) porque la función
t 7→ t−1 es continua en R \ {0}. La (d) porque R2 3 (s, t) 7→ mı́n{s, t} es continua. Y
lo mismo con el máximo. Los detalles quedan como ejercicio. 

414
Muchas veces uno tiene que definir una función en distintas partes de un espacio X, y después
necesita testear la continuidad de la f “pegoteada”. Por ejemplo, en los items 4 y 5 de la
Prop. A.5.5 vimos que si me dan una f : (X, τ ) → (Y, σ) y una familia {Ui }i∈I de abiertos
de τ que cubren a X, entonces se tiene que
 
f ∈ C (X, τ ), (Y, σ) ⇐⇒ f Ui es continua , para todo i ∈ I .

Y no importa cuán grande sea el conjunto I. Algo parecido vale para cubrimientos con
cerrados, aunque ahı́ hace falta restringirse al caso de finitos:
Proposición A.5.6 (Lema del pegoteo). Sea f : (X, τ ) → (Y, σ). Sean F1 y F2 dos
cerrados en X tales que F1 ∪ F2 = X. Luego se tiene que

f F1 ∈ C(F1 , Y ) y f F2 ∈ C(F2 , Y ) =⇒ f ∈ C(X , Y ) .

Otra manera de decir lo mismo que suele ser más útil


es: Si tenemos dos funciones continuas
g ∈ C(F1 , Y ) y h ∈ C(F2 , Y ) tales que g F1 ∩F2 = h F1 ∩F2 , entonces la función

(
g(x) si x ∈ F1
f :X→Y dada por f (x) = es continua .
h(x) si x ∈ F2

Demostración. Ejercicio. 

A.6 Redes y subredes


Recordemos que un conjunto ordenado I (por el orden parcial ≤ ) está dirigido si para todo
par i, j ∈ I, existe un k ∈ I tal que i ≤ k y j ≤ k. En tal caso, una inducción muestra que

si F ⊆ I es finito, existe k F ∈ I tal que j ≤ k F para todo j ∈ F . (A.12)

Decimos que un subconjunto J ⊆ I es cofinal si para todo i ∈ I existe un j ∈ J tal que


j ≥ i. O sea que J tiene elementos más grandes que cualquiera de I.
Ejercicio A.6.1. Probar las siguientes afirmaciones:
1. Si un orden ≤ en un conjunto I es total, entonces I está dirigido por ≤.

2. Si X es un conjunto y ordenamos a P(X) con la inclusión al revés (o sea que U ≤ V


si V ⊆ U ), entonces ≤ dirige a P(X), pero no es un orden total.

3. Un subconjunto A ⊆ N es cofinal (con el orden usual de N) si y sólo si A es infinito.

4. Sin embargo A = {2 − n1 : n ∈ N} es infinito y “creciente”, pero no es cofinal en R. 4

Las redes, que reemplazarán en esta teorı́a a las sucesiones, son familias indexadas en con-
juntos dirigidos. Para entender la necesidad de este concepto, veamos el siguiente ejemplo:

415
Ejemplo A.6.2. Sea (X, τ ) un ET y sea x ∈ X. Entonces el conjunto O(x), ordenado por
inclusión al revés (o sea que V ≥ U si V ⊆ U ), está dirigido. Lo mismo pasa con cualquier
base de entornos βx de x. En efecto, si V, U ∈ βx , sabemos que existe W ∈ βx tal que
W ⊆ U ∩ V . Luego U ≤ W y V ≤ W . Observar que un subconjunto β ⊆ O(x) es base de
entornos de x si y sólo si es cofinal en O(x) con éste orden. 4

Para poder definir adecuadamente la noción de convergencia en ET’s generales (y describir


a traves de ella las clausuras de conjuntos y, más adelante, las nociones de continuidad y
compacidad), será crucial considerar redes indexadas en bases de entornos de puntos. La
insuficiencia de las sucesiones surge de que si X es un ET que no es N1 , para alguno de sus
puntos ninguna de estas bases será numerable, por lo que tales redes no serán sucesiones. En
el caso de EM’s, ese proceso puede hacerse con las bolas B(x, 1/n), n ∈ N. Pero en general
uno no tiene ese recurso.
Una noción alternativa para definir convergencia es la de filtros, que definiremos más ade-
lante. El ejemplo que suguiere los axiomas que definen a un filtro es, nuevamente, el conjunto
O(x), para x ∈ X, un ET. Las propiedades clave son:
• Si U ∈ O(x) y V ⊇ U , entonces V ∈ O(x).
• O(x) es cerrado por intersecciones finitas y ∅ ∈
/ O(x).
Observar que ni Oa (x) ni las bases de entornos βx cumple lo anterior. Por esta especie de
inflexibilidad de los filtros, y por el hecho de que las redes tienen más “afinidad notacional”
con las sucesiones a las que estamos acostumbrados, es mayoritaria entre los especialistas
(salvo los muy francófilos) la elección de las redes en vez de los filtros para describir la noción
de convergencia.
Sin embargo, en algunos ámbitos de aplicación de la topologı́a, y en ciertos procesos
maximales que veremos más adelante, los filtros (y los ultraf iltros) serán una herramienta
necesaria. Esta es una vieja polémica retratada jocosamente por G. Pedersen como la eterna
discusión entre los net-men y los fiter-fans. Nosotros estamos en el primer bando, pero
usaremos a los filtros como ayudantes de sus enemigas las redes.
El defecto más grave de las redes (ahı́ sacan ventaja los filtros) es que la noción necesaria
de “subred” no es muy feliz, porque se empasta bastante. Pero igual le damos para adelante:
Definición A.6.3. Sea X un conjunto.
1. Una red en X es una función x : I → X, donde el conjunto I está dirigido por un
orden ≤ . Usaremos siempre la siguiente notación más agradable: la red se escribirá
x = (xi )i∈ I , donde identificamos xi = x(i), i ∈ I.
2. Fijada una red x = (xi )i∈ I en X, una subred de x será otra red y = (yj )j∈ J dotada
de una función h : J → I tales que
(a) h es creciente, en el sentido de que j1 ≤J j2 =⇒ h(j1 ) ≤I h(j2 ).
(b) La imagen de h es un subconjunto cofinal de X (abreviaremos diciendo que h es
cofinal), o sea que para todo i ∈ I, existe j ∈ J tal que i ≤ h(j).

416
(c) Se tiene que y = x ◦ h, es decir que yj = xh(j) para todo j ∈ J.

Observar que el único dato relevante de la red y, y de su entidad de subred de x, es el


conjunto dirigido J y la función creciente y cofinal h : J → I, ya que al tenerlos, la condición
(c) determina automaticamente a la función y = x ◦ h. 4
Ejercicio A.6.4. Probar que si z es una subred de una subred y de una red x, entonces z es
una subred de x (la primera parte del ejercicio es entender qué significa este trabalenguas).
Se sugiere componer las funciones que conectan los ı́ndices, y usar que son crecientes para
ver que la composición es creciente y cofinal. 4
Ejercicio A.6.5. Sea x = (xi )i∈ I una red en un conjunto X. Probar que:

1. Dado K ⊆ I un subconjunto
cofinal, o sea que para todo i ∈ I existe un k ∈ K tal que
k ≥ i, entonces la red x K = (xk )k∈ K es una subred de x. La h es la inclusión K ,→ I.

2. En particular, fijado cualquier i0 ∈ I, la red (xi )i≥i0 , que está dada por el conjunto
I0 = {i ∈ I : i ≥ i0 } ⊆ I, es subred de x. 4

Observación A.6.6. Es evidente que hace falta aclarar un poco lo de las subredes. Repase-
mos con sucesiones: ellas serán las redes tales que I = N, con su orden usual. Es claro que
dar x : N → X dada por x(n) = xn es la definición formal de ser sucesión. En la notación
anterior, una subsucesión de x será una y que es subred de x, y a la vez es sucesión, o
sea que J = N. También hay que pedirle que h sea estrictamente creciente. Observar
que llamando h(k) = nk para k ∈ N, tendrı́amos que nk < nr si k < r, y nos queda que
y = (yk )k∈N = (xnk )k∈N como estamos acostumbrados. Otra manera de recuperar las sub-
sucesiones en este contexto es observar que un conjunto K ⊆ N es cofinal si y sólo si K es
infinito. Luego uno aplica el Ejer. A.6.5.
Releyendo la definición de subred (ahora en el caso general), vemos que y toma sus valores
entre los de x, y que los ı́ndices de x que aparecen en y son “arbitrariamente grandes” (eso
es que sean un conjunto cofinal de los de x). Esto es parecido a las subsucesiones. Las dos
diferencias fundamentales son

• El conjunto que indexa a y no tiene porqué ser numerable.

• La función h no tiene que ser estrictamente creciente, ni siquiera inyectiva.

La primera diferencia es parecida a lo que pasa con las redes: hacen falta conjuntos bien
grandes de ı́ndices. La segunda es más sutil y más importante. Uno hubiese querido que se
eligiera al J como un subconjunto cofinal de I, y que h sólo sea la inclusión. Eso parece una
generalización honesta y razonable, si hacen falta conjuntos grandes. De hecho, estas son
subredes (Ejer. A.6.5). Y si habı́amos empezado con una sucesión, todas sus subsucesiones
se construyen de ésta manera. El problema es que todas las subredes construidas de esa
manera (a partir de una sucesión) serı́an subsucesiones.
Pero más adelante veremos que no alcanza con ellas para que la teorı́a camine. Y en realidad
la definición dada enriquece la cosa, porque las subredes podrán ser mucho más grandes

417
que la red original, permitiendo refinarla poniendo muchı́simos yj ’s arriba de cada xi del
conjunto cofinal h(J), y complicar notablemente el tipo de orden de I. Esto es completamente
nuevo, y veremos que además de necesario, será sumamente útil. 4
Observación A.6.7. En muchos textos de topologı́a, en la definición de subred no se pide
que la función h que conecta los ı́ndices sea creciente. Sólo que sea cofinal. La teorı́a,
en tal caso se hace mucho más intrincada y difı́cil, pero gana un poco de generalidad.
Nosotros preferimos dar la versión con h creciente porque con ella se obtienen “almost
all” los resultados que uno quiere que arreglen las subredes, y se gana notablemente en
“transparencia” para las demostraciones. 4

A.7 Convergencia
A continuación daremos unas definiciones lingüı́sticas sobre las redes, que serán convenientes
para manejarse con las nociones de convergencia y de puntos de acumulación.
Definición A.7.1. Sean X un conjunto, A ⊆ X y x = (xi )i∈ I una red en X.

1. Dado i0 ∈ I denotaremos por Ci0 (x) = {xi : i ≥ i0 } a la cola de la red x, pero pensada
como conjunto.
E E
2. Diremos que x está eventualmente en A, y escribiremos x ,→ A o bien (xi )i∈I ,→ A,
si existe un i0 ∈ I tal que Ci0 (x) ⊆ A, o sea que xi ∈ A para todo i ≥ i0 .
F
3. La red x está frecuentementemente en A, y escribiremos x ,→ A, si para todo i ∈ I
se tiene que Ci (x) ∩ A 6= ∅, o sea que existe un j ∈ I tal que j ≥ i y xj ∈ A. 4

Ahora si podemos definir las nociones de convergencia y puntos de acumulación para redes
en un ET:
Definición A.7.2. Sean (X, τ ) un ET, x ∈ X y x = (xi )i∈ I una red en X. Diremos que

1. (xi )i∈I converge a x, y escribiremos xi −−→ x, si para todo entorno U ∈ O(x) se tiene
i∈ I
E
que (xi )i∈I ,→ U (i.e., que existe un iU ∈ I tal que xi ∈ U para todo i ≥ iU ).

2. x es un punto de acumulación (PA) de x si para todo entorno U ∈ O(x) se tiene


F
que (xi )i∈I ,→ U (i.e., que para todo i ∈ I existe un j ∈ I tal que j ≥ i y xj ∈ U ).

Observar que en ambas definiciones basta verificar que las condiciones pedidas se cumplen
para los entornos U de Oa (x) o los de cualquier base βx de O(x). 4
Ejemplo A.7.3 (Convergencia en EM’s). Sea (X, d) un EM, y pensémoslo como ET vı́a la
topologı́a τd . Dados un punto x ∈ X y una red x = (xi )i∈ I en X, se tiene que
τd
xi −−→ x ⇐⇒ la red en R d(xi , x) −−→ 0 ,
i∈ I i∈ I

418
E
y que ambos equivalen a que x ,→ B(x, ε) para todo ε > 0. Para probarlo, basta recordar
que las bolas B(x, ε) son una base de Oτd (x), y que las bolas BR (0, ε) son base de OR (0). 4
Ejercicio A.7.4. Sea (X, τ ) un ET y sea x = (xi )i∈ I una red en X.
E
1. Si A ⊆ X cumple que x ,→ A, entonces toda subred y = (yj )j∈ J de x también cumple
E
que y ,→ A . Para probar esto será util usar que la función h : J → I que determina
a y es creciente y cofinal, por lo que Cj (y) ⊆ Ch(j) (x), y al h(j) se lo puede hacer tan
grande como haga falta.

2. Si xi −−→ x ∈ X, toda subred y = (yj )j∈ J de x también converge a x.


i∈ I

τ τ
Y
3. Si x vive en un Y ⊆ X e y ∈ Y , entonces xi −−→ y ⇐⇒ xi −−→ y , donde τY es la
i∈ I i∈ I
topologı́a inducida por τ a Y . Lo mismo vale si el y es PA de x (en Y o en X).
E
4. Si xi −−→ x ∈ X, y me dan un cerrado F ⊆ X tal que x ,→ F , entonces x ∈ F . 4
i∈ I

Proposición A.7.5. Sea (X, τ ) un ET y sean x = (xi )i∈ I una red en X y x ∈ X. Las
siguientes propiedades son equivalentes:

1. Se tiene la convergencia xi −−→ x.


i∈ I

2. Toda subred de x tiene una subred que converge a x.

Demostración. Si vale 1, las subredes enteras de x convergen a x, por el Ejer. A.7.4. Pero
E
si fuera falso que xi −−→ x, existirı́a un U ∈ Oa (x) tal que x ,→
6 U . Esto significarı́a que
i∈ I
F
x ,→ F = X \ U . En otras palabras, J = {i ∈ I : xi ∈ F } serı́a cofinal para I. Ahora
tomemos la red xJ = (xi )i∈J , que junto con la función inclusión de J en I es una subred de x.
Finalmente, como xJ vive en el cerrado F , todas sus subredes convergentes (si las tuviera)
tendrı́an su lı́mite en F (por el Ejer. A.7.4), ası́ que xJ no tendrı́a subredes que puedan ir
hacia el x en cuestión. 
El siguiente Teorema es la justificación del nombre puntos lı́mite para los elementos de la
clausura de un conjunto:
Teorema A.7.6. Sea (X, τ ) un ET. Dados A ⊆ X y z ∈ X, son equivalentes:

1. z es punto lı́mite de A, o sea z ∈ A.

2. Existe una red x = (xi )i∈I en A tal que xi −−→ z.


i∈ I

Demostración. 2 → 1: Si existe la red xi −−→ z, entonces todo U ∈ O(z) contiene a una cola
i∈ I
Ci0 (x) de x, que vive en A. Eso significa que z ∈ A.

419
1 → 2: Si ahora suponemos que z ∈ A, definamos una red cuyos ı́ndices se muevan en
el conjunto O(z), ordenado con la inclusión al reves, como en el Ejem. A.6.2. Para cada
U ∈ O(z), como sabemos que U ∩ A 6= ∅, elijamos un xU ∈ U ∩ A. Veamos que nuestra red
x = (xU )U ∈O(z) converge a z. La prueba es tan simple que confunde: Si a un U ∈ O(z) lo
pensamos como entorno de z, a partir del mismo U , pero ahora como ı́ndice, tenemos que

V ≥ U =⇒ V ⊆ U y entonces xV ∈ V ∩ A ⊆ V ⊆ U .
E
Esto prueba que x ,→ U , lo que demuestra la convergencia a z. 

Observación A.7.7. El resultado anterior muestra que el operador clausura A 7→ A, que


determina la clase de los conjuntos cerrados, y por ello a la topologı́a τ , está a su vez
caracterizado por la convergencia de redes en X. Luego para mostrar que dos topologı́as
coinciden en X, bastará ver que producen las mismas convergencias de las redes en X.
Más aún, si tenemos σ y τ dos topologı́as en un conjunto X, se tiene que
h i
σ ⊆ τ ⇐⇒ τ -convergencia =⇒ σ-convergencia .

La prueba se sigue de las definiciones (en τ hay más entornos). En parte por eso es que,
en tal caso, se dice que τ es más fuerte que σ, ya que se dice que una convergencia es más
débil en tanto sea más fácil converger, y más fuerte si pocas series pueden hacerlo.
Sin embargo, si no se ponen algunas restricciones, el fenómeno de la convergencia puede
tener propiedades raras (el tı́pico es que una red tenga más de un lı́mite). Para tener una
idea de esto veamos un ejemplo catastrófico: 4
Ejemplo A.7.8. Sea X un conjunto infinito y consideremos en X la topologı́a cofinita
τCF (X) que ya vimos en el Ejem. A.4.7. En este espacio, muchas redes convergen a todos
los puntos de X.
Por ejemplo, asumamos que una red x = (xi )i∈ I en X cumple que I es infinito, y que la
función x : I → X es inyectiva. Luego, si U ∈ τCF (X), el conjunto {i ∈ I : xi ∈
/ U } es finito,
E
por lo que x ,→ U . Y estamos hablando de todos los abiertos de X, o sea los entornos de
todos los puntos. Si la red cumple algo menos: que las colas

Ci (x) = {xj : j ≥ i} son infinitas para todo i ∈ I ,

entonces todo x ∈ X es punto de acumulación de x. 4

La siguiente Proposición muestra que los espacios de Hausdorff son un ámbito en donde las
cosas son más normales en este sentido:
Proposición A.7.9. Sea (X, τ ) un ET. Las siguientes condiciones son equivalentes:
1. Toda red convergente en X tiene un único lı́mite.

2. X es un espacio de Hausdorff.

420
Demostración. Ejercicio. 
Ahora veamos el primer resultado básico de subredes:
Proposición A.7.10. Sea (X, τ ) un ET y sea x = (xi )i∈I una red en X. Luego un punto
z ∈ X es de acumulación para x si y sólo si existe una subred y de x que converge a z.
Demostración. Ver en el Apunte de topologı́a. 
Observación A.7.11. Tenemos dos apariciones del nombre punto de acumulación (abre-
viemos PA): para conjuntos y para redes. Conviene aclarar que los conceptos son semejantes,
pero de equivalencias ni hablar. A pesar de que uno podrı́a pensar en una red x = (xi )i∈ I
en un (X, τ ) y en el subconjunto Ax = {xi : i ∈ I} ⊆ X y en sus PA’s. Pero ninguna cosa
implica la otra. La palabra acumulación refiere a que aparecen muchı́simos términos cerca
del punto. Pero en el caso de conjuntos eso refiere a que sean distintos elementos, y en el de
las redes a que aparezcan en distintos momentos (apariciones muy frecuentes).
Observar que la red puede ser constantemente igual a un x ∈ X. Allı́ x es PA de la red x
pero no de Ax . Incluso puede haber una cantidad cofinal de apariciones del x en x y que la
otra mitad se vaya a cualquier otro lado. Pasa lo mismo.
O bien puede pasar que x : I → X sea inyectiva, y que haya un conjunto infinito numerable
J = {in : n ∈ N} ⊆ I tal que la sucesión xin −−−→ x. Entonces se tiene que x ∈ A0x . Pero si
n→∞
J no es cofinal en I (lo que bien puede pasar si, por ejemplo, I = R con su orden), nadie nos
asegura que x sea un PA de x.
Donde las cosas se parecen un poco más es cuando se toman sucesiones. Ahi sı́ puede verse
que, si x : N → X es inyectiva, entonces x es PA de x si y sólo si x ∈ A0x . 4

A.8 Sucesiones en espacios N1


En los espacios N1 (en particular todos los EM’s), las redes siguen siendo útiles, pero no
son imprescindibles. Esto es algo complicado de formular explı́citamente. A continuación
enumeraremos los resultados concretos que nos permitirán trabajar sistemáticamente con
sucesiones (y subsucesiones) cuando estemos en el contexto N1 . En principio vienen un ejer-
cicio y un lema técnico, donde uno concentra las dificultades del pasaje de redes a sucesiones:
Ejercicio A.8.1. Sea I un conjunto dirigido con el orden ≤. Si no existe un elemento
máximo iM ∈ I, probar que para todo j ∈ I hay un k ∈ I tal que k > j (k ≥ j pero k 6= j).
Otra manera de decirlo: En un dirigido, maximal =⇒ máximo. 4
Lema A.8.2. Sea (X, τ ) un ET de tipo N1 . Sean x = (xi )i∈ I una red en X y x un punto de
acumulación de x. Supongamos que I no tiene un elemento máximo. Entonces debe existir
un subconjunto numerable J = {ik : k ∈ N} ⊆ I, no necesariamente cofinal, tal que

1. Usando el orden de I en J, se tiene que ik ≤ ir si y sólo si k ≤ r.

2. La sucesión y = (yk )k∈ N = (xik )n∈N cumple que yk −−−→ x.


k→∞

421
Demostración. Sea {Vm : m ∈ N} ⊆ τ una base de O(x). Para cada n ∈ N, tomemos el
Tn
abierto Un = Vm ∈ τ . Luego βx = {Un : n ∈ N} ⊆ τ es otra base de O(x), que ahora
m=1
cumple que Un+1 ⊆ Un para todo n ∈ N.
F
Tomemos i1 ∈ I tal que xi1 ∈ U1 . Como x ,→ U2 e I no tiene un elemento máximo,
podemos tomar i2 > i1 (o sea que i1 ≤ i2 6= i1 ) tal que xi2 ∈ U2 (se usa el Ejer. A.8.1).
Recursivamente, podemos construir el conjunto J = {ik : k ∈ N} ⊆ I tal que el orden de I
en J cumpla la condicón (a), y tal que xik ∈ Uk para todo k ∈ N. Luego, si tomamos un
Uk ∈ βx , fijamos ese k ∈ N y tomamos cualquier m ≥ k (o sea un im ≥ ik ), se tiene que
ym = xim ∈ Um ⊆ Uk . Esto muestra que yk = xnk −−−→ x. 
k→∞

Proposición A.8.3. Sea (X, τ ) un ET de tipo N1 . Si una sucesión x = (xn )n∈ N en X


tiene una subred y = (yi )i∈ I que converge a un x ∈ X, entonces existe una subsucesión
(xnk )k∈ N de x tal que xnk −−−→ x.
k→∞

Demostración. Observar que, por la Prop. A.7.10, el tal x es un PA de x. Como N no tiene


elementos máximos, el Lema A.8.2 nos asegura que existe un conjunto infinito numerable
J = {nk : k ∈ N} ⊆ N (ordenado en forma estrictamente creciente) tal que la sucesión
(xnk )k∈ N cumple que xnk −−−→ x. Pero como todo conjunto infinito de N es cofinal, la
k→∞
sucesión (xnk )k∈ N es, de hecho, una subsucesión de x, como buscábamos. 
Ejercicio A.8.4. Volviendo a la Porp. anterior: Si tomamos la subred y con su función
h : I → N cofinal creciente, sabemos que h(I) ⊆ N es infinito. Lo numeramos en forma
creciente h(I) = {nk : k ∈ N} y tomamos la subsucesión (xnk )k∈ N de x. Como h es creciente
y sabemos que yi −−→ x, vemos que xnk −−−→ x. Y san se acabó.
i∈ I k→∞

El ejercicio consiste en ver qué parte de lo de arriba esta mal. No puede ser correcto porque
no se usa que X sea N1 . Y ese enunciado es falso en general. 4
Proposición A.8.5. Sea (X, τ ) un ET de tipo N1 . Se tienen las siguientes propiedades

1. Dado A ⊆ X, un punto x ∈ A si y sólo si existe una sucesión y = (yn )n∈ N en A tal


que yn −−−→ x.
n→∞

2. Un x ∈ X es punto de acumulación de una sucesión x = (xn )n∈ N en X si y sólo si


existe una subsucesión (xnk )k∈ N de x tal que xnk −−−→ x.
k→∞

Demostración.

1. Sea x ∈ A talT que ninguna sucesión constante en A converge a x (o sea que en A no


hay un y ∈ O(x) ∩ A). Por el Teo. A.7.6, existe una red x = (xi )i∈ ITen A tal que
xi −−−→ x. Si I tuviera un elemento máximo iM , se tendrı́a que xiM ∈ O(x), lo que
n→∞
está excluido porque el tal xiM ∈ A. Como x es el lı́mite de x, entonces x es punto de
acumulación de x. Sea (yn )n∈ N la sucesión asociada vı́a el Lema A.8.2. Observar que,
como x está en A, también (yn )n∈ N está en A, porque sus términos son algunos de los

422
de x. Y se tiene que yn −−−→ x. La vuelta sale por el Teo. A.7.6, porque una sucesión
n→∞
es también una red.

2. Se deduce de la Prop. A.8.3 y de la Prop. A.7.10. Observar, para la vuelta, que una
subsucesión es también una subred. 

A.9 Conexos
Definición A.9.1. Sea (X, τ ) un ET.

1. Un subconjunto U ∈ X es clopen si U ∈ τ y también V = X \ U ∈ τ (en castellano


podrı́a ser “cerrierto” o “abirrado”, o ya que estamos “beodo”).

2. Decimos que X es conexo si los únicos clopen que tiene son ∅ y X.

3. X es disconexo en caso contrario (si tiene algún clopen no trivial). 4

La mayorı́a de ejemplos interesantes donde se plantea la conexidad es en el caso de subespa-


cios Y de un ET (X, τ ) ambiente, pensando a Y con la inducida τY . Ahı́ conviene poner
una notación ad hoc:
Definición A.9.2. Sea (X, τ ) un ET y sea Y ⊆ X. Una X-separación fuerte de Y es un
par (U, V ) de subconjuntos abiertos de X tal que

Y ⊆U ∪V , U ∩V ∩Y =∅ pero U ∩ Y 6= ∅ 6= V ∩ Y . (A.13)

Diremos que (U, V ) es una X-separación si se cumplen solamente las dos condiciones de la
izquierda en (A.13). 4

Es claro que Y es disconexo si y sólo si existe una X-separación fuerte (U, V ) de Y , porque
en tal caso U ∩ Y queda clopen y propio (en esto se usa la fortaleza) en (Y, τY ). La recı́proca
sale fácil por la definición de τY . Pero es más util para hacer cuentas la siguiente formulación
Proposición A.9.3. Sea (X, τ ) un ET y sea Y ⊆ X. Si Y es conexo y (U, V ) es una
X-separación de Y , entonces se tiene que Y ⊆ U o bien Y ⊆ V .
Demostración. Si no pasara lo asegurado, (U, V ) serı́a una X-separación fuerte de Y . 
Teorema A.9.4. Sea f : X → Y una función continua. Luego f manda conexos en conexos.
Demostración. Basta observar que si A ⊆ X y (U, V ) es una Y -separación fuerte de f (A),
entonces f −1 (U ), f −1 (V ) es una X-separación fuerte de A.


Teorema A.9.5. Sea (X,Tτ ) un ET y tomemos unaSfamilia {Ai }i∈ I de subconjuntos conexos
de X. Si asumimos que Ai 6= ∅, entonces A = Ai es conexo.
i∈ I i∈ I

423
Demostración. Es claro que toda X-separación (U, V ) de A también lo es de cada Ai . Como
éstos son conexos, tienen que caer dentro de U o de V . Pero como U ∩ V ∩ A = ∅ y todos
los Ai se cortan, todos ellos tienen que caer del mismo lado. Por ello no hay separaciones
fuertes de A, que resulta conexo. 
Teorema A.9.6. Sea (X, τ ) un ET. Si A ⊆ X es conexo, entonces todo conjunto B tal
que A ⊆ B ⊆ A es también conexo. En particular podemos asegurar que la clausura de un
conexo es conexa.
Demostración. Dada una X-separación (U, V ) de B, y por ende de A, podemos suponer que
A ⊆ U . Si hubiera un x ∈ B ∩ V , como x ∈ A y V ∈ Oa (x), deberı́a suceder que A ∩ V 6= ∅,
lo que no estaba permitido, porque A ∩ V = A ∩ U ∩ V = ∅. Ası́ que B es conexo. 

A.10 Productos y cocientes


A.10.1 Topologı́a inicial
Definición A.10.1. Sea X un conjunto y sea F = {fα : α ∈ A} una familia indexada en
A de funciones fα : X → (Yα , τα ) hacia sendos ET’s. Denotaremos por
^n   o
τF = τ ⊆ P(X) : τ es una topologı́a tal que fα ∈ C (X, τ ), (Yα , τα ) ∀ α ∈ A .

O sea que τF a la mı́nima topologı́a en X que hace de todas las fα funciones continuas.
Esta τF se llama la topologı́a inicial asociada a F, y se caracteriza por el hecho de que
tiene como sub-base a la familia
[n o
ρF = fα−1 (U ) : U ∈ τα . (A.14)
α∈ A

Observar que si F = {f } (una sola función), entonces ρF ya da toda τF . 4


Proposición A.10.2. Sea τF la topologı́a inicial en X dada por la familia F = {fα : α ∈ A}.
Dada una red x = (xi )i∈ I en X y un punto x ∈ X, se tiene que
F τ τ α
xi −→ x ⇐⇒ fα (xi ) −→ fα (x) para todo α∈A.
i∈I i∈I

Demostración. La flecha =⇒ es clara por la definición de τF . Para ver la recı́proca,


tomemos V ∈ OτF (x). Por la Ec. (A.14) y las propiedades de bases y sub-bases, deben
existir
n ∈ N , α1 , . . . , αn ∈ A y entornos Uk ∈ Oταk (fαk (x) ) , k ∈ In ,
fα−1
T
tales que x ∈ k
(Uk ) ⊆ V . Como las redes fαk (xi ) −−→ fαk (x), para cada k ∈ In
k∈ In i∈ I
podemos tomar un ik ∈ I tal que fαk (xi ) ∈ Uk para todo i ≥ ik . Como I es dirigido, existe
un iM ∈ I que mayora a todos los ik . Luego,
\
si i ≥ iM =⇒ fαk (xi ) ∈ Uk para todo k ∈ In =⇒ xi ∈ fα−1
k
(Uk ) ⊆ V .
k∈ In

424
E
O sea que x ,→ V . Como esto pasa para todo V ∈ OτF (x), deducimos que xi −−→ x. 
i∈ I

Corolario A.10.3. Sea τF la topologı́a inicial en X dada por la familia F = {fα : α ∈ A},
con las fα : X → (Yα , τα ). Sea (Z, σ) otro ET. Dada g : (Z, σ) → (X, τF ), se tiene que
   
g ∈ C (Z, σ), (X, τF ) ⇐⇒ fα ◦ g ∈ C (Z, σ), (Yα , τα ) para todo α ∈ A . (A.15)

Demostración. Como antes, la flecha =⇒ es clara, y la gracia es la vuelta. Para probar


la continuidad de g, tomemos un z ∈ Z y una red z = (zi )i∈ I en Z tal que zi −−→ z. Si
i∈ I
asumimos lo que dice a la derecha de (A.15), sabremos que fα (g(zi ) ) −−→ fα (g(z) ) para todo
i∈ I
α ∈ A. Ahora, por la Prop. A.10.2, podemos deducir que g(zi ) −−→ g(z). O sea que g debe
i∈ I
ser continua en cada z ∈ Z. 

A.10.2 Topologı́a producto


 
Notaciones: Sea (Xα , τα ) una familia de ET’s.
α∈ A
Q
1. Llamemos P = Xα a su producto cartesiano.
α∈ A

2. Para no confundirnos con las redes, un elemento tı́pico de P se denotará por {xα }α∈ A
(llaves en vez de paréntesis), donde cada xα ∈ Xα .
3. Para cada α ∈ A, llamaremos πα : P → Xα a la proyección que a un elemento
{xα }α∈ A ∈ P lo manda al correspondiente xα .
Q
4. Si para cada α ∈ A tenemos subconjuntos Yα ⊆ Xα , asumiremos que α∈ A Yα ⊆ P.
4
Se busca una topologı́a para el conjunto P que tenga propiedades agradables. Se puede
pensar como modelo a R2 donde, si bien la base común de su topologı́a está formada por
bolas redondas, uno puede también tomar una base de rectangulitos abiertos
   
(a, b) × (c, d) = (a, b) × R ∩ R × (c, d) = π1−1 (a, b) ∩ π2−1 (c, d) .
 

Este será, en efecto, el modelo a seguir para la construir lo que se llamará “la topologı́a
producto” en P. Pero hay una decisión a tomar: ¿Qué se hace en el caso de que A sea
infinito? Una opción serı́a multiplicar abiertos de cada τα en todas las cordenadas. Esto se
llamará la topologı́a caja en P. La otra opción (la buena), será mirar el lado derecho de la
ecuación de arriba, y compararla con la Ec. (A.14) de las topologı́as iniciales.

Pensando ası́ podemos tomar la familia de funciones F = πα : α ∈ A , y construir la
topologı́a inicial asociada a F que llamaremos τP = τF . Ya vamos a ver qué pinta tienen
sus abiertos, pero de antemano, sin saber cómo son, sabemos que tendrá las propiedades
agradables en las que pensábamos, que son las traducciones a P de la Prop. A.10.2 y el
Cor. A.10.3. Formalizemos todo esto en el siguiente enunciado:

425
  Q
Proposición A.10.4. Sea (Xα , τα ) una familia de ET’s. Sea P = Xα , dotado
α∈ A
α∈ A

de la topologı́a producto τP , que es la inicial asociada a la familia F = πα : α ∈ A . Se
tienen las siguientes propiedades:

1. Una base βP de τP está dada por los conjuntos construidos con el siguiente proceso:

(a) Sea F ⊆ A un subconjunto finito de ı́ndices.


(b) Sean Uα ∈ τα , un abierto para cada α ∈ F.
(c) Un elemento de βP construido con estos datos será:
\ n o Y Y
U= πα−1 (Uα ) = {xα }α∈ A ∈ P : xα ∈ Uα , α ∈ F = Uα × Xα .
α∈ F α∈ F α∈F
/

La base βP constará de todos los abiertos de este tipo, moviendose en todos los con-
juntos finitos de ı́ndices F ⊆ A y todas las elecciones de abiertos Uα en los α ∈ F.

2. Una f : Z → P será continua si y sólo si cada fα = πα ◦ f es continua.

3. Una red x = {xi,α }α∈ A )i∈I en P convergerá a un punto {xα }α∈ A ∈ P si y sólo si

cada red πα ◦ x = (xi,α )i∈I en Xα converge a xα ,

o sea que xi,α −−→ xα , para todo α ∈ A (todo esto dentro de cada espacio Xα y en su
i∈ I
topologı́a τα ).

Demostración. Cada ı́tem no es otra cosa de la traducción a este caso particular de los tres
resultados vistos para topologı́as iniciales: El ı́tem 2. es el Cor. A.10.3, y el ı́tem 3. es la
Prop. A.10.2. El ı́tem 1. se basa en la Ec. (A.14). Aquı́ hace falta una aclaración: al inter-
sectar finitas contraimágenes de abiertos (o sea elementos de la sub-base ρF ), como indica la
Prop. A.3.2, podrı́an aparecer varias correspondientes al mismo α, pero con distintos abiertos
de τα . Sin embargo, eso no hace falta escribirlo al describir un elemento de βP , porque la
operación V 7→ πα−1 (V ) respeta intersecciones. Luego uno puede intersectar primero todos
los abiertos correspondientes dentro del mismo τα , y quedarse con un solo Uα para cada α
que aparezca en la lista finita. 
Gracias a la Prop. A.10.4 muchas propiedades de los espacios cordenados Xα (si todos ellos
las tienen) siguen siendo válidas en el espacio producto P, siempre que uno use la topologı́a
producto τP . El caso más importante será la compacidad, que veremos más adelante (esto es
el famoso Teorema de Tychonoff). Este tipo de propiedades son las que justifican la elección
consensuada de usarla a ella y no a la de la caja, que podrı́a verse como más intuitiva. Demás
está decir que en el caso de que A sea finito ambas coinciden. Esto muestra, por ejemplo,
que en Rn la topologı́a usual (inducida por la métrica euclı́dea) conicide con la topologı́a
producto, que proviene de pensar a Rn = R × · · · × R.

426
Q
Proposición A.10.5. Sea P = Xα , dotado de la topologı́a producto. Para cada α ∈ A
α∈ A
tomemos subconjuntos Bα ⊆ Xα . Luego la “cajita” B ⊆ P dada por
Y Y
B= Bα , verifica que B = Bα .
α∈ A α∈ A

En particular, si los Bα eran todos cerrados (o densos), también B lo será.


Q
Demostración. Llamemos C = B α . Dado y = {yα }α∈ A ∈ C, tomemos un entorno
Q α∈ A Q
básico de y de la forma V = Uα × Xα , para cierto F ⊆ A finito. Para cada α ∈ F ,
α∈ F α∈F
/
tomemos un xα ∈ Bα ∩Uα , que existe porque yα ∈ B α . Rellenemos con xα ∈ Bα cualesquiera
para los α ∈
/ F . Luego x = {xα }α∈ A ∈ B ∩ V . Esto muestra que C ⊆ B.
Por otro lado, tomando redes en B y aplicando el ı́tem 3. de la Prop.
SA.10.4, uno muestra
inmediatamente que B ⊆ C. Otra forma de verlo es usar que P\C = πα−1 (Xα \B α ) ∈ τP ,
α∈A
por lo que C debe ser cerrado. 
  Q
Proposición A.10.6. Sea (Xα , τα ) una familia de ET’s, y sea P = Xα , dotado
α∈ A α∈ A
de la topologı́a producto τP . Si todos los espacios (Xα , τα ) son de una de las siguientes
clases: T0 , T1 , Hausdorff o regular, entonces P es también de esa clase. Sin embargo, P
puede no ser normal aunque todos los Tα lo sean, incluso para el caso de A finito.
Demostración. En los tres primeros casos (T0 , T1 y T2 ), el problema se describe a partir de
un par de puntos de P que, por ser distintos, deben diferir en alguna cordenada α ∈ A. Y la
cosa se arregla operando en esa sola cordenada, con abiertos πα−1 (U ) de la sub-base ρF .
Probaremos en detalle solo el caso asociado a la regularidad, que no sale por aquel método.
Por la Obs. A.4.8, basta ver que si x = {xα }α∈ A ∈ W ∈ τP , entonces existe V ∈ τP tal que
x ∈ V ⊆ V ⊆ W . Para empezar, por la Prop. A.10.4 sabemos que existe
Y Y
U= Uα × Xα ∈ βP (con F finito) , tal que x ∈ U ⊆ W .
α∈ F α∈F
/

Para cada α ∈ F, tenemos que xα ∈ Uα y, por la regularidad de las cordenadas, existen


sendos Vα ∈ τα tales que xα ∈ Vα ⊆ V α ⊆ Uα , para todo α ∈ F. Finalmente, si tomamos
Y Y Y Y
V = Vα × Xα ∈ τP , se tiene que x ∈ V ⊆ V = Vα× Xα ⊆ U ⊆ W ,
α∈ F α∈F
/ α∈ F α∈F
/

donde la igualdad de la derecha sobre las clausuras vale por la Prop. A.10.5. El hecho de que
la cosa no camina para espacios normales se puede ver en el Apunte de topologı́a. 
Q
Ejercicio A.10.7. Sea P = (Xα , τα ) , dotado de la topologı́a producto τP . Supongamos
α∈ A
que, para cada α ∈ A, tenemos un denso Dα ⊆ Xα . Por la Prop. A.10.5 sabemos que el

427
Q
producto α∈ A Dα es denso en P. Pero se puede construir un denso mucho más chico:
Asumamos que P 6= ∅, y fijemos un x = {xα }α∈ A ∈ P. Definamos los conjuntos
Y Y
DF = Dα × {xα } ⊆ P , para cada F ∈ PF (A) .
α∈ F α∈ A\F

S
Luego el conjunto D = DF es denso es P. 4
F∈ PF (A)

Proposición A.10.8. Producto de conexos (con la topologı́a producto) es conexo. Lo


mismo pasa con los productos de arcoconexos (quedan idem).
Q
Demostración. Sea P = Xα , con todos los (Xα , τα ) conexos. Como el vacı́o es conexo
α∈ A
(porque todo subconjunto es impropio), podemos asumir que P 6= ∅.
Paso 1: Supongamos que A es finito. Por un argumento inductivo evidente podemos
reducirnos al caso A = {1, 2}. Si fijamos un par (x1 , x2 ) ∈ P, consideremos las “cruces”
 S 
Cx = X1 × {x} {x1 } × X2 , para cada x ∈ X2 .
S S
Observar que P = X1 × {x} ⊆ Cx . Además, el Teo. A.9.5 asegura que cada Cx es
x∈X2 x∈X2
conexo, porque los dos cachosTse cortan en el punto (x1 , x) . Finalmente, como sabemos
que (x1 , x2 ) ∈ {x1 } × X2 ⊆ Cx 6= ∅, el mismo Teorema nos dice que P es conexo.
x∈X2

Paso 2: A lo que sea. Tomemos un x = {xα }α∈A ∈ P. Definamos los conjuntos


Y Y
BF = Xα × {xα } ⊆ P para cada F ∈ PF (A) .
α∈F α∈A\F

Q
Como cada BF (con la inducida de la producto) es hómeo al respectivo Xα , el paso
α∈F
anterior dice que todos los BF son subconjuntos conexos de P. Por el Teo. A.9.5, también
[
B= BF es conexo ( porque todos los BF se cortan en x) .
F∈ PF (A)

Finalmente, el Ejer. A.10.7 muestra que B es denso es P. Luego el Teo. A.9.6 asegura que
todo P es conexo. La prueba para arcoconexos es más fácil:
Dados x = {xα }α∈A e y = {yα }α∈A ∈ P, tomamos sendas curvas continuas γα : [0, 1] → Xα
que unan cada entrada xα con la respectiva yα , y definimos la curva
γ : [0, 1] → P dada por γ(t) = {γα (t)}α∈A para t ∈ [0, 1] .
Esta γ queda continua por el item 2 de la Prop. A.10.4. Y une x con y. 

428
A.10.9 (Producto de funciones). Sean fα : Xα → Yα una familia de funciones indexada por
α ∈ A. Asumamos que todos los conjuntos involucrados son ET’s. Entonces definimos
Y Y Y  
F = fα : Xα → Yα , por F {xα }α∈ A = {fα (xα )}α∈ A ,
α∈ A α∈ A α∈ A

la función producto, que opera como las fα en cada cordenada α ∈ A. Si asumimos que
todas las fα tienen la propiedad P , se ve fácilmente que también F tendrá P , para las
propiedades de ser

inyectiva , suryectiva , continua , hómeo , embbeding , suryectiva + abierta .

Observemos que, para cada α ∈ A tenemos el diagrama conmutativo


Q Q
Xα F / Yα
α∈ A α∈ A
πα πα
 
Xα / Yα

Eso, más la el item 2 de la Prop. A.10.4 muestra que F es continua. Esto sale también
usando redes, aunque la notación es engorrosa. La prueba de los otros casos es directa y se
deja como ejercicio. 4
Q
Ejercicios A.10.10. Sea P = (Xn , τn ) , dotado de la topologı́a producto τP .
n∈N

1. Si suponemos que todos los Xn son de tipo N2 , entonces anche P es N2 .

2. Idem con N1 y separable.

3. Si suponemos que todos los Xk son Lindeloff, aún si asumimos que P = X1 ×X2 , puede
suceder que P no sea Lindeloff.

4. Si cada τn proviene de una métrica dn en Xn , entonces


0 0
(a) Si para cada n ∈ N, definimos dn (x, y) = mı́n{dn (x, y) , 1}, para x, y ∈ Xn ,
0
entonces dn es otra métrica en Xn y se tiene que τn = τdn = τdn0 .
(b) La función dP : P × P → R≥0 dada por
  X d 0 (xn , yn )
n
dP {xn } , {yn } = , {xn } , {yn } ∈ P
n∈N
2n

es una métrica en P tal que τdP = τP .

En otras palabras, producto numerable de metrizables es metrizable. 4

Ejercicio A.10.11. Sea (X, τ ) un ET. Probar que

429
1. X es Hausdorff si y sólo si la diagonal
∆X = { (x, y) ∈ X × X : x = y }
es cerrada en la topologı́a producto de X × X.
2. Si X es Hausdorff, (Y, σ) es otro ET y nos dan f, g ∈ C(Y, X), entonces
Zf, g = { y ∈ Y : f (y) = g(y) } es cerrado en Y .
Lamentablemente no vale usar a f − g, porque X no siempre tiene − ni 0. 4
Ejercicio A.10.12. Sea (X, τ ) un ET que es regular y sean x = (xi )i∈ I e y = (yj )j∈ J dos
redes en X, anbas convergentes. Entonces son equivalentes:
• Las dos redes tienen el mismo lı́mite.
• La red “doble” (x , y) = (xi , yj )i,j∈I×J , que vive en X × X, cumple que
E
(x , y) ,→ U para todo abierto U ⊆ X × X tal que ∆X = { (x, x) : x ∈ X} ⊆ U .

El orden de I × J es en las dos entradas a la vez. 4

A.10.3 Topologı́a final


Definición A.10.13. Sea Y un conjunto y sea G = {fα : α ∈ A} una familia indexada en
A de funciones gα : (Xα , τα ) → Y con dominios en sendos ET’s. Denotaremos por
_n   o
τG = τ ⊆ P(Y ) : τ es una topologı́a tal que fα ∈ C (Xα , τα ), (Y, τ ) ∀ α ∈ A .

O sea que τG a la máxima topologı́a en Y que hace de todas las fα funciones continuas.
Esta τ G se llama la topologı́a final asociada a G, y se caracteriza por el hecho de que
n o
τ G = U ⊆ Y : fα−1 (U ) ∈ τα para todo α ∈ A . (A.16)

El hecho de que tal familia sea una topologı́a se deduce de las propiedades conjuntı́sticas del
operador “tomar contraimagen”. 4
Proposición A.10.14. Sea τ G la topologı́a final en Y dada por la familia G = {fα : α ∈ A},
con las fα : (Xα , τα ) → Y . Sea (Z, σ) otro ET. Entonces, dada g : Y → Z, se tiene que
   
G
g ∈ C (Y, τ ), (Z, σ) ⇐⇒ g ◦ fα ∈ C (Xα , τα ), (Z, σ) para todo α ∈ A . (A.17)

Demostración. Como en el Cor. A.10.3, la flecha =⇒ es clara y lo nuevo es la vuelta. Si


todas las composiciones g ◦ fα son continuas y tomamos un V ∈ σ, tenemos que
(g ◦ fα )−1 (V ) = fα−1 g −1 (V ) ∈ τα , para todo α ∈ A .


Por definción, eso significa que g −1 (V ) ∈ τ G . O sea que g es continua. 

430
A.10.4 Cocientes
Recordemos que hay tres conceptos en teorı́a de conjuntos que son esencialmente el mismo:

1. Dar una relación de equivalencia ∼ en un conjunto X.

2. Dar una partición de X.

3. Dar una función suryectiva P : X → Y .

En efecto, dada ∼, uno elige un sistema de represntantes A ⊆ X (i.e, todo x ∈ X es


equivalente a un a ∈ A, pero dos elementos distintos de A no pueden ser equivalentes) y uno
construye la partición de X que consiste en las clases de equivalencia a = {x ∈ X : x ∼ a},
para los a ∈ A.
Y uno tiene el espacio cociente X/∼ = {a : a ∈ A}, y la proyección Q : X → X/∼ dada
por Q(x) = x, que es suryectiva. Y se tiene una función al revés, g : X/∼ → A ⊆ X dada
por g(a) = a, para cada a ∈ A. Ella cumple que Q ◦ g = IX/∼ .
Si empezamos con una P : X → Y , se define que x1 ∼ x2 cuando P (x1 ) = P (x2 ), y
nos queda una relación de equivalencia. Además existe un función g : Y → X (inyectiva)
tal que P ◦ g = IY . Definiendo A = g(Y ), tenemos un sistema de representantes para ∼,
cuyas clases son a = P −1 ({y}), para a = g(y), y ∈ Y . Ası́ que X/∼ = {P −1 ({y}) : y ∈ Y },
que se identifica naturalmente con el conjunto Y . Módulo esa identificación (o biyección),
recuperamos a P como la proyección Q asociada a ∼.

El asunto ahora es suponer que tenemos una topologı́a τ en X y queremos encontrar una
topologı́a piola en el espacio cociente X/∼ . O lo que es lo mismo, dada una función suryectiva
P : (X, τ ) → Y , se busca topologı́a para Y . Esto tiene un sentido geométrico mucho más
sabroso que la cosa conjuntista a secas: Podemos pensar, por ejemplo, al cı́rculo S 1 como
un cociente del intevalo [0, 1] vı́a “pegar” los bordes, identificando al 0 con el 1 y dejando
a los t ∈ (0, 1) solitos. Podemos pensarlo tomando P : [0, 1] → S 1 dada por P (t) = e2π i t ,
donde solo pegamos P (0) = P (1) = 1 ∈ C. Y ya que estamos, seguimos: definimos ahora
P : R → S 1 con la misma fórmula, enrollando R infinitas veces para cada lado (ahı́ las clases
son todas infinitas y discretas). Y ası́ siguiendo aparecen las esferas, los toros y cuanta figura
a uno se le ocurra.
El proceso de considerar la que llamaremos topologı́a cociente, ya sea en X/∼ o en Y ,
de acuerdo a lo que convenga, nos permitirá

1. Por un lado, topologizar espacios cocientes nuevos, lo que agranda la familia de ET’s,
pero también puede aportar al estudio del espacio X original.

2. Por otro lado, aplicar un paquete teórico (las topologı́as finales) a espacios conocidos
como los de los ejemplos, al realizarlos como cocientes de otros más simples de estudiar.

Hacı́a falta toda esta perorata, porque los espacios cociente son de lo más complicado e
intrincado de la teorı́a. Ası́ que ahora que estamos remotivados, empezamos.

431
Definición A.10.15. Sea (X, τ ) un ET, y sea g : X → Y una función suryectiva. Se define
la topologı́a cociente τg en Y como la topologı́a final asociada a la familia unipersonal
G = {g}. Luego
U ⊆ Y : g −1 (U ) ∈ τ .

τg = (A.18)
En otras palabras, dado U ⊆ Y , tenemos que U ∈ τg si y sólo si g −1 (U ) ∈ τ . Observar que
también se tiene que un F ⊆ Y es τg -cerrado si y sólo si g −1 (F ) es τ -cerrado. 4
Proposición A.10.16. Sea (X, τ ) un ET, y sea g : X → Y una función suryectiva. Se
toma en Y la topologı́a cociente τg . Sea (Z, σ) otro ET. Entonces una función

f : (Y, τg ) → (Z, σ) es continua ⇐⇒ f ◦ g : (X, τ ) → (Z, σ) es continua .

Demostración. Esto no es otra cosa que la Prop. A.10.14 en este caso particular. 
Observación A.10.17. Por el espı́ritu con que se contruye τg , uno está tentado de pensar
que la función cociente g : (X, τ ) → (Y, τg ) (se asume g suryectiva) deberı́a ser abierta. O
cerrada. En realidad esto es suficiente pero no necesario.
En efecto, una aplicación cociente no siempre tiene que ser abierta y/o cerrada, como veremos
en los ejemplos. Pero se tiene el siguiente resultado que explica en que sentido ser abierta o
cerrada es una condición suficiente: 4
Proposición A.10.18. Sea g : (X, τ ) → (Y, σ) una función suryectiva, continua y abierta
(o cerrada i.e. g manda cerrados en cerrados). Entonces uno puede asegurar que σ no es
otra que la topologı́a cociente τg .
Demostración. Por ser g continua, sabemos que σ ⊆ τg , porque la topologı́a final es la
máxima de las que hacen continua a g. Si g fuera abierta, como cada V ∈ τg cumple que
g −1 (V ) ∈ τ , se tendrı́a que g g −1 (V ) ∈ σ. Pero el hecho de que g sea suryectiva asegura
que g g −1 (V ) = V . Ası́ se llega a que τg ⊆ σ, y ambas coinciden. La versión de g cerrada
sale igual, usando la observacón final de la Def. A.10.15. 
Corolario A.10.19. Sea g : (X, τ ) → (Y, σ) una función suryectiva y continua. Si asumimos
que X es compacto y que Y es Hausdorff, entonces σ es la topologı́a cociente τg .
Demostración. Observar que g es cerrada, porque manda compactos en compactos. 
Ejemplo A.10.20. La topologı́a usual del cı́rculo S 1 (la que hereda de la inclusión S 1 ⊆ C)
es la topologı́a cociente de la función g : R → S 1 dada por g(t) = ei 2πt , t ∈ R. En efecto, es
bien claro que g es suryectiva y continua. Pero además g es abierta, como se puede verificar
tomando intervalos abiertos U = (a, b) con b − a < 1/2, porque
  
1
n a+b  b−a o
g(U ) = S ∩ z ∈ C : z, g > cos ,
2 2

donde hz, wi = Re (zw) es el producto interno pensando C = R2 . Se usa que g( a+b 2


) es
ortogonal al vector g(b) − g(a), y cortamos a S 1 con el semiplano abierto con borde en la

432
recta generada por g(a) y g(b). El número cos b−a 2
se visualiza imaginando que a+b2
= 0.
También sale tomando una rama holomorfa adecuada del logaritmo.
En realidad, este ejemplo es interesante desde otro punto de vista: R y S 1 son grupos,
y g es un morfismo. Por ello el núcleo de g, que es Z, es un subgrupo. Y las clases de
equivalencia (ahora pensamos en la ∼ dada por g, que es la congruencia módulo Z) son las
coclases t · Z, para t ∈ [0, 1). En otras palabras, estamos diciendo que la topologı́a cociente
en el grupo cociente R/Z , lo hace homeomorfo a S 1 . Este punto de vista da otra prueba
de que g es abierta (pensada con proyección al cociente): Si U ⊆ R es abierto, entonces
−1
S
g g(U ) = U + n = V . Como en R las translaciones son hómeos, queda que V es
n∈Z
abierto, por lo que g(U ) lo es en S 1 , para la topologı́a cociente. 4
Ejercicio A.10.21. Probar que la g : R → S 1 dada por g(t) = ei 2πt no es cerrada. 4
Definición A.10.22. Sea g : X → Y una función suryectiva y sea A ⊆ X. El g-saturado
de A es el conjunto Sg (A) = g −1 g(A) . Observar queSla clase de g-equivalencia en X de un
x ∈ X, es el conjunto x = g −1 (g(x) ), y que Sg (A) = x. 4
x∈A

Proposición A.10.23. Sea (X, τ ) un ET, y sea g : X → Y una función suryectiva. Se


toma en Y la topologı́a cociente τg , con lo que g se torna la proyección al cociente. Se tiene
que

1. La función g es abierta si y sólo si Sg (U ) ∈ τ para todo U ∈ τ .

2. La función g es cerrada si y sólo si Sg (F ) es cerrado para todo F ⊆ X cerrado.

Demostración. Recordar que g(U ) ∈ τg si y sólo si g −1 g(U ) = Sg (U ) ∈ τ . Con los




cerrados es igual. 
Observación A.10.24. Sigamos con las notaciones del Ejem. A.10.20. Se tenı́a la función
g : R → S 1 dada por g(t) = ei 2πt , t ∈ R. Consideremos ahora la función (suryectiva)
g1 = g [0,1] : [0, 1] → S 1 , tomando en S 1 la topologı́a cociente asociada. En este caso g1 no es
abierta, porque [0, 1/2) es abierto en [0, 1], pero g1 ([0, 1/2) ) no es abierto en S1 . En efecto,

Sg1 ([0, 1/2) ) = g1−1 (g1 ([0, 1/2) ) ) = [0, 1/2) ∪ {1} ,

que no es abierto en [0, 1]. Sin embargo, en este caso la topologı́a cociente de S1 asociada a
g1 también coincide con su topologı́a usual. Esto sale porque [0, 1] es compacto, y se puede
aplicar el Cor. A.10.19. Desde este punto de vista, podemos ver de nuevo porqué g1 ([0, 1/2) )
no es abierto en S1 . Basta dibujarlo. 4

A.11 Espacios métricos completos


Proposición A.11.1. Sea (X, d) un EM y sea x = (xn )n∈ N una sucesión de Cauchy en X
y sea x ∈ X un punto. Supongamos que se verifica alguna de las siguientes condiciones:

433
1. Existe una subsucesión (xnk )k∈ N de x tal que xnk −−−→ x .
k→∞

2. El tal x es un punto de acumulación de la sucesión (xn )n∈ N .

3. Nuestro x es punto de acumulación del conjunto A = C1 (x) = {xn : n ∈ N}.

Cualquiera de esas tres cosas implica que xn −−−→ x.


n→∞

Demostración. Es claro 1 ⇐⇒ 2. Supongamos que vale 1, tomemos un ε > 0 y un n0 ∈ N


tal que si n ≥ n0 y m ≥ n0 , entonces d(xn , xm ) < 2ε .
ε
Dada la subsucesión xnk −−−→ x, tomemos un k0 ∈ N tal que d(xnk , x) < 2
siempre que
k→∞
k ≥ k0 (o lo que es lo mismo, que nk ≥ nk0 ). Fijemos un k ∈ N tal que nk ≥ máx{nk0 , n0 }.
Por fin, si ahora tomamos un n ≥ n0 , tenemos que
ε ε
d(xn , x) ≤ d(xn , xnk ) + d(xnk , x) < + =ε =⇒ xn −−−→ x .
2 2 n→∞

Por otro lado, dado ε > 0, si un n0 es suficientemente grande, el hecho de que x ∈ A0 permite
E
suponer que xn0 ∈ A ∩ B(x , 2ε ), y la Cauchycidad que x ,→ B(xn0 , 2ε ) ⊆ B(x , ε). 
Definición A.11.2. Sea (X, d) un EM. Diremos que X es competo si toda sucesión de
Cauchy en X es convergente. 4
Proposición A.11.3. Sea (X, d) un EM. Las siguientes condiciones son equivalentes:

1. X es completo.

2. Dada una familia {Fn }n∈N de subconjuntos cerrados de X tales que

(a) Para todo n ∈ N, se tiene que Fn+1 ⊆ Fn 6= ∅ .


(b) La sucesión diam (Fn ) −−−→ 0.
n→∞
T
se debe cumplir que Fn 6= ∅.
n∈N

Demostración. Si X es completo y tenemos la sucesión {Fn }n∈N como en el ı́tem 2, elijamos


un xn ∈ Fn para cada n ∈ N. Las condiciones (a) y (b) aseguran que x = (xn )n∈ N es de
E
Cauchy (dado ε > 0, basta tomar n0 ∈ N tal que diam (Fn0 ) < ε). Observar que x ,→ Fn
para todo n ∈ N (por (a) ). Si xn −−−→ x, el hecho de los Fn sean todos cerrados termina
T n→∞
de mostrar que x ∈ Fn 6= ∅.
n∈N

Supongamos ahora que se cumple la condición 2, e imaginemos que una sucesión de Cauchy
y = (yn )n∈ N en X no tiene lı́mite. Definamos Fn = Cn (y) = {ym : m ≥ n}. El hecho de
que y sea de Cauchy dice exactamente que diam (Fn ) −−−→ 0. Y los Fn están encajados por
n→∞
definición. Como todas las colas yn = (ym )m≥n son también sucesiones de Cauchy, y están
tan carentes de lı́mite como y, la Prop. A.11.1 nos dice que Fn0 = ∅ para todo n ∈ N. Ası́

434
llegamos a que cada Fn = Fn ∪ Fn0 = Fn , por T
lo que son todos cerrados. Y de que sean vacı́os
ni hablar. Podemos tomar entonces el x ∈ Fn . Para cada n ∈ N se tiene que tanto xn
n∈N
como x están en Fn . Luego d(xn , x) ≤ diam (Fn ) −−−→ 0 . Ya fué. 
n→∞

Ejercicio A.11.4. Sea (X, d) un EM. Entonces se tiene que

1. Existe un EM completo X c y una isometrı́a f : X → X c tal que f (X) es denso en X c .

2. Más aún, si me dan otro par (g, Y ) que cumpla lo mismo (Y es completo y g manda
isométricamente a X a un denso de Y ), enotnces existe una isometrı́a sobre

(o sea un hómeo isométrico) Φ : Xc → Y tal que Φ◦f =g .

Esto se reinterpreta como que Φ es “la identidad” en X, si preferimos pensar que las
completaciones X c e Y son conjuntos que contienen a X y que f y g son las inclusiones
de X en ellos.

Sugerimos construir X c como el conjunto de sucesiones de Cauchy en X, dividido por la


relación de equivalencia “ir hacia el mismo lado” (o sea que d(xn , yn ) −−−→ 0). El espacio
n→∞
X “entra” en X c como las clases de las sucesiones contantes. 4

A.12 Compactos
Sea (X, τ ) un ET y sea K ⊆ X un subconjunto. Recordemos que llamamos cubrimiento
por abiertos de K a una familia
[
σ ⊆ τ tal que K ⊆ σ.

Un subcubrimiento de σ es un ρ ⊆ σ que sigue cubriendo a K. A veces conviene escribirlos


en términos de ı́ndices: El cubrimiemto σ se presentará como una familia
[
{Uα }α∈ A tal que Uα ∈ τ para todo α ∈ A y además K ⊆ Uα .
α∈ A
S
Y un subcubrimiento estará dado por un F ⊆ A tal que siga pasando que K ⊆ Uα .
α∈ F

La versión dual de los cubrimientos se describe con intersecciones de cerrados: Dada una
familia F = {Fα }α∈ A de subconjuntos cerrados de X, se dice que
T
F tiene la PIF para K si K ∩ Fα 6= ∅ para todo subconjunto finito F ⊆ A .
α∈ F

Las letras PIF aluden a la propiedad de la intersección finita. Si K = X, se dice que F tiene
la PIF a secas. Comenzaremos con la definición tradicional de compactos (onda Heine-Borel):

435
Definición A.12.1. Sea (X, τ ) un ET. Un subconjunto K ⊆ X es compacto (en X) si
todo cubrimiento por abiertos de K tiene un subcubrimiento finito. En particular, diremos
que X es compacto si pasa lo anterior para los cubrimientos de todo el espacio X. 4
Observación A.12.2. Hace falta aclarar algo de esta Definición. Que el tal K ⊆ X sea
compacto (en X), como se definió arriba, equivale a que el espacio entero (K, τK ), donde τK
es la inducida por τ a K, sea compacto (en sı́ mismo). Esto es ası́ porque los cubrimientos
abiertos de K solito se levantan a cubrimietos abiertos de K dentro de X, y vice versa. En
adelante omitiremos las aclaraciones del tipo “(en X)”, salvo necesidad imperiosa. 4
Teorema A.12.3. Sea (X, τ ) un ET y tomemos un subconjunto K ⊆ X . Luego las
siguientes propiedades son equivalentes:
1. K es compacto.
T
2. Toda familia de cerrados F = {Fα }α∈ A con la PIF para K cumple que K ∩ Fα 6= ∅.
α∈ A

3. Toda red en K tiene un punto de acumulación en K.


4. Toda red en K tiene una subred que converge a un punto de K.
Demostración. Ver en el Apunte de topologı́a. 
Observación A.12.4. Sea X un conjunto infinito y consideremos en X la topologı́a cofinita
τCF (X). Entonces todo K ⊆ X es compacto, porque lo que le falte cubrir al “primer” abierto
de cualquier cubrimiento, es un conjunto finito. Y esto se va cubriendo de a un abierto por
elemento. Ası́ vemos que hay compactos que no son Hausdorff.
Algunos autores incluyen la condición de ser Hausdorff para la compacidad (como uno
pide T1 para regularidad y normalidad). Sin embargo, hay ejemplos importantes (sobre todo
en geometrı́a algebráica) de espacios compactos no Hausdorff, por lo que haremos la teorı́a
en el caso general, agregando la H cuando haga falta.
Observar que, si bien la convergencia de redes caracteriza la compacidad, en el caso no
Hausdorff hay lı́mites multiples, por lo que convendrá tener cuidado al usar técnicas de redes.
Por ejemplo, en un sentido genérico, las condiciones relativas a redes del Teo. A.12.3
hacen pensar que si un subconjunto K ⊆ X es compacto, deberı́a ser cerrado. O que un K
que sea cerrado dentro de un espacio compacto X debe ser también compacto (en ambos
casos, porque los lı́mites se quedan dentro de K).
Veremos que la segunda presunción es cierta siempre, pero la primera sólo cuando el
espacio ambiente X es Hausdorff (pensar en el ejemplo mencionado al principio). 4
Proposición A.12.5. Sea (K, τ ) un ET compacto, y sea F ⊆ K un subconjunto cerrado.
Entonces F es compacto.
Demostración. Toda red x en F tiene una subred que converge a algún x ∈ K. Pero como
F es cerrado, el lı́mite x ∈ F . Por el Teo. A.12.3, F es también compacto. 

Proposición A.12.6. Sea (X, τ ) un ET de Hausdorff. Entonces todo subconjunto compacto


K ⊆ X es cerrado en X.

436
Demostración. Sea y ∈ K, y tomemos una red y = (yi )i∈ I en K tal que yi −−→ y. Por el
i∈ I
Teo. A.12.3, y tiene una subred z que converge a un z ∈ K. Sin embargo, por ser subred de
y, la red z también converge a y. Como X es Hausdorff, por lo que los lı́mites son únicos,
tenemos que y = z ∈ K. Esto muestra que K es cerrado. 
Ahora veremos que en un espacio de Hausdorff, la propiedad de separar puntos se extiende
a separar subconjuntos compactos:
Proposición A.12.7. Sea (X, τ ) un ET de Hausdorff. Dados K1 , K2 ⊆ X compactos y
disjuntos, existen abiertos U, V ∈ τ tales que
K1 ⊆ U , K2 ⊆ V y U ∩V =∅ . (A.19)
Demostración. Fijemos un x ∈ K1 . Como X es Hausdorff, para cada y ∈ K2 existen abiertos
disjuntos Ay , By ∈ τ tales que y ∈ By y x ∈ Ay . La familia {By }y∈K2 es un cubrimiento de
K2 , del que podemos extraer finitos By1 , . . . , Byn que siguen cubriendo a K2 . Sean
n
\ n
[
Ux = Ayk y Vx = Byk .
k=1 k=1

Es claro que son abiertos, que x ∈ Ux y que K ⊆ Vx . Como Ux ∩ Byk ⊆ Ayk ∩ Byk = ∅ para
Sn
todo k ∈ In , podemos deducir que Ux ∩ Vx = Ux ∩ Byk = ∅.
k=1
Hagamos este laburo en todos los x ∈ K1 . Obtenemos una familia {Ux }x∈K1 que es un
cubrimiento de K1 . Extraigamos finitos Ux1 , . . . , Uxm que siguan cubriendo a K1 . Sean
m
[ m
\
U= Uxk y V = Vxk .
k=1 k=1

Es claro que son abiertos, que K1 ⊆ U y que K2 ⊆ V . Como antes, podemos ver que
U ∩ V = ∅, lo que termina de probar la fórmula (A.19). 

Corolario A.12.8. Sea (K, τ ) un ET compacto Hausdorff. Entonces K es normal.


Demostración. Sean F1 y F2 dos cerrados disjuntos en K. Como K es compacto, la
Prop. A.12.5 asegura que F1 y F2 son compactos. Como K es Hausdorff, la Prop. A.12.7
nos provee de los abiertos disjuntos que los separan. 

Proposición A.12.9. Sea f : (X, τ ) → (Y, σ) una función continua y sea K ⊆ X un


subconjunto compacto. Entonces se tiene que f (K) es compacto en Y .
Demostración. Notemos Z = f (K). Sea z = (zi )i∈ I una red en Z. Para cada i ∈ I, elijamos
un xi ∈ f −1 ({zi }) ∩ K. La red x = (xi )i∈ I , como vive en el compacto K, tiene una subred
y = (yj )j∈ J tal que yj −−→ y ∈ K. Pero como f es continua, la red f (yj ) −−→ f (y) ∈ Z.
j∈ J j∈ J
Observar que, si h : J → I es la función cofinal creciente que define a la subred y, entonces
f (yj ) = f (xh(j) ) = zh(j) para todo j ∈ J. Luego la red f ◦ y es subred de z (con la misma
función h), y además es convergente a alguien de Z. 

437
Proposición A.12.10. Sea f ∈ C(K, X) inyectiva, con K compacto y X Hausdorff.
Entonces f : K ,→ X es un embbeding, o sea que f : K → f (K) es un hómeo.
Demostración. Llamemos Z = f (K). Es claro que f : K → Z es biyectiva y continua.
Veamos que es abierta: Sea F ⊆ K un cerrado. Por la Prop. A.12.5, F es compacto. Por
la Prop. A.12.9, f (F ) es compacto en X. Al ser X un Hausdorff, la Prop. A.12.6 dice que
f (F ) es cerrado en X, y por lo tanto también cerrado en Z. En resumen, f : K → Z manda
cerrados en cerrados. Como es biyectiva, también manda abiertos en abiertos. Por lo tanto
f : K → Z es hómeo. 

Observación A.12.11. Sea (K, τ ) un ET compacto Hausdorff (en adelante abreviaremos


escribiendo K-H). Luego la topologı́a τ es rı́gida, en el siguiente sentido: Si uno la agranda,
K es más Hausdorff, pero no es más compacto. Y si uno la achica, K es más compacto, pero
deja de ser Hausdorff. Esto es consecuencia de la Prop. A.12.10.

En efecto si σ ⊇ τ , entonces IK ∈ C (K, σ), (K, τ ) . Si (K, σ) fuera compacto, como (K, τ )
es Hausdorff, IK quedarı́a hómeo. Y entonces σ = τ .

Por otro lado, si σ ⊆ τ , entonces IK ∈ C (K, τ ), (K, σ) . Si (K, σ) siguiera siendo Haus-
dorff, como (K, τ ) es compacto, IK también quedarı́a hómeo. Y entonces τ = σ. 4
Ejercicio A.12.12. Sea f : X → Y , donde X e Y son dos ET’s. Probar que

f ∈ C(X, Y ) =⇒ Grf = { (x, f (x) ) : x ∈ X } ⊆ X × Y es cerrado en X × Y .

Probar que la recı́proca es cierta si Y es compacto (usar la Prop. A.7.5). 4

El siguiente resultado es bastante esperable, y su prueba nos va a quedar cortita, porque el


laburo grosso lo fuimos haciendo antes. Pero es uno de los teoremas más importantes de la
teorı́a, en función de sus innumerables aplicaciones dentro y fuera de la topologı́a.
 
Teorema A.12.13 (Tychonoff). Sea (Xα , τα ) una familia de ET’s compactos. En-
Q α∈ A
tonces el producto P = Xα , con la topologı́a producto, es compacto. O sea que
α∈ A

“producto de compactos es compacto”, aunque sean “muchos” .


Demostración. Ver el Apunte de topologı́a. 
Sugerimos hacer como ejercicio una prueba a mano del teorema anterior, pero asumiendo
que A es finito. Inductivamente se reduce al caso de P = X × Y , con X e Y compactos.
Usando redes comunes, eso sale iterando la toma de subredes. Con cubrimientos tambien
sale, pero es más largo, aunque muy gráfico y divertido (ver en el libro de Munkres [10]).
Sin embargo ambos métodos colapsan en el caso infinito, donde las RU’s dan la prueba más
directa posible.

438
A.13 Compactos en EM’s
Hay varias caracterizaciones y propiedades asociadas a la compacidad que son especı́ficas de
los EM’s, y algunas más para subespacios de Rn .
Sea (X, d) un EM. Si uno toma un compacto K ⊆ X y fija un ε > 0, se puede cubrir a K
con bolas de radio ε, y luego quedarse con finitas. Esta propiedad será casi suficiente para
la compacidad, ası́ que le ponemos nombre:
Definición A.13.1. Sea (X, d) un EM. Diremos que A ⊆ X es totalmente S acotado (TA)
si, para todo ε > 0, existen n(ε) ∈ N y x1 , . . . , xn(ε) ∈ X tales que A ⊆ B(xk , ε). 4
k∈In(ε)

Las caracterizaciones de compacidad vı́a redes pueden cambiarse, en el contexto de EM’s, a


sucesiones y subsucesiones. También se pueden usar los puntos de acumulación (se abrevia
PA) de conjuntos. Antes de ir a los bofes, repasemos algunas de sus propiedades, particu-
larmente en el contexto métrico:
A.13.2. Sea (X, d) un EM y sea A ⊆ X. Un x ∈ X era un PA de A si
para todo ε > 0 existe un y 6= x tal que y ∈ B(x, ε) ∩ A .
Se llama A0 al conjunto de los PA’s de A. Veamos alguna variaciones y casos particulares:

1. x ∈ A0 ⇐⇒ B(x, ε) ∩ A es infinito para todo ε > 0.

2. Si A cumple que existe un δ > 0 tal que d(x, y) ≥ δ para todo par x 6= y en A, entonces
debe suceder que A0 = ∅.

3. En cambio, si (xn )n∈ N es una sucesión de Cauchy en X, y llamamos

A = {xn : n ∈ N} , entonces x ∈ A0 =⇒ xn −−−→ x .


n→∞

Las pruebas son elementales: Lo primero se deduce del Ejer. A.4.12 (esto vale en ET’s de
clase T1 ). Lo segundo sale porque en una bola B(x, δ/2) sólo puede haber un elemento de
A. Por el diámetro. Lo último fué probado en la Prop. A.11.1. 4
Teorema A.13.3. Sea (X, d) un EM y sea K ⊆ X. Son equivalentes:

1. K es compacto.

2. Toda sucesión en K tiene una subsucesión convergente, con su lı́mite en K.

3. Todo A ⊆ K infinito tiene un PA en K (o sea que A0 ∩ K 6= ∅).

4. K es totalmente acotado y el EM (K, d) es completo.

Demostración. Ver el Apunte de topologı́a. 


Corolario A.13.4. Sea (X, d) un EM completo y sea A ⊆ X. Entonces

439
A es compacto ⇐⇒ A es TA .
En particular, si A es TA, toda red en A tiene una subred convergente (a alguien de A).
Demostración. Observar que, por ser X completo, sus subconjuntos son completos si y
sólo si son cerrados (el lı́mite de las Cauchy existe, el tema es dónde está). El segundo
ingrediente es que A es TA ⇐⇒ A es TA. Esto es fácil y se deja como ejercicio (recordar
que B ∪ C = B ∪ C, y quien dice dos...). 

A.14 Compactificación de Alexandrov: Un punto


Definición A.14.1. Sea (X, τ ) un ET. Una compactificación de X es un par (g, K) tal
que

1. (K, σ) es un ET compacto.

2. g : X ,→ K es un embbeding (i.e. g es continua, inyectiva y hómeo con la imagen).

3. g(X) queda denso en K.

Diremos que (g, K) es una H-compactificación si K es, además, un espacio de Hausdorff.


Muchas veces, en presencia de una compactificación (g, K), identificaremos a X con su
imagen g(X), que está dentro de K y tiene la topologı́a inducida por K.
Desde ese punto de vista, una compactificación de un (Y, τ 0 ) serı́a un compacto (K, σ) que
contenga a Y como un subespacio denso, y tal que τ 0 sea la inducida a Y por σ. 4
Observación A.14.2. Por la Prop. A.12.5 (un cerrado en un compacto es compacto), si uno
tiene su espacio X incrustado dentro de un compacto K 0 , vı́a un embbeding g : X ,→ K 0 ,
entonces tomando K = g(X) ⊆ K 0 uno obtiene una compactificación (g, K).
Como veremos más adelante, todo ET tiene compactificaciones. El tema se pone más intere-
sante si uno quiere ver si tiene alguna H-compactificación. Sin embargo ese problema ya lo
tenemos resuelto de antes: 4

Ahora veremos el métodos para construir compactificacionesmás simple posible: agregar un


punto. Se llama la compactificación de Alexandrov. Lo único que hay que pedirle a X para
que el proceso camine es que él mismo no sea compacto. Ahora, el tema de cuándo esta
compactificación queda Hausdorff es otra historia (y otro Capı́tulo).
Proposición A.14.3. Sea (X, τ ) un ET que no es compacto. Inventemos un punto ∞ al
que sólo le pedimos que ∞ ∈
/ X. Sean X̃ = X ∪ {∞} y τ∞ ⊆ P(X̃) dada por

τ∞ = τ ∪ τ 0 , donde τ 0 = { V ∪ {∞} : V ∈ τ y X \ V es compacto en X } .

Luego τ∞ es una topologı́a en X̃ tal que

1. (X̃, τ∞ ) es compacto.

440
2. τ es la topologı́a inducida a X por τ∞ .

3. X queda denso y abierto en X̃.

O sea que la inclusión X ⊆ X̃ es una compactificación de X.


Demostración. Es claro que ∅ ∈ τ y X̃ ∈ τ 0 (porque ∅ es compacto!). Observar que

τ 0 = { V 0 ∈ P(X̃) : ∞ ∈ V 0 y X̃ \ V 0 es cerrado y compacto en X } . (A.20)

Veamos las uniones arbitrarias y las intersecciones finitas: Entre cosas de τ no hay drama.
Dada una familia de abiertos Vi0 ∈ τ 0 y sus complementos Fi = X̃ \ Vi0 , para i ∈ I, entonces
\ [ [ \
X̃ \ Vi0 = Fi y X̃ \ Vi0 = Fi .
i∈I i∈I i∈I i∈I
S
Cuando I es finito, la Fi queda cerrada y compacta. Y la intersección cumple eso siempre.
i∈I
Luego operando en τ uno se queda en τ 0 . Si hay de las dos clases (tanto en ∩ como en ∪ ),
0

uno primero reagrupa todas las de cada clase, y opera uno contra uno. Pero allı́ pasa que

si U ∈ τ y V 0 = {∞} ∪ V ∈ τ 0 =⇒ U ∩ V 0 = U ∩ V ∈ τ y U ∪ V 0 = {∞} ∪ (U ∪ V ) ∈ τ 0 .

Por lo tanto τ∞ es una topologı́a en X̃. Para ver que la inducida de τ∞ a X es τ , observar
que si V 0 ∈ τ 0 , entonces V 0 ∩ X ∈ τ (y los de τ estaban todos en τ∞ ). Para ver la densidad,
observar que τ 0 no es otra cosa que Oτa∞ (∞). Además, como X no es compacto, entonces
{∞} ∈ / τ 0 . Luego todo V 0 ∈ Oτa∞ (∞) corta a X, lo que muestra que X es denso en X̃.
Veamos ahora que (X̃, τ∞ ) es compacto: Como τ 0 = Oτa∞ (∞), si σ ⊆ τ∞ es un cubrimiento
de X̃, existe un V 0 ∈ σ ∩ τ 0 (para cubrir al ∞). Sólo falta cubrir X̃ \ V 0 , que es compacto
(en X y en X̃). Y sabemos que σ \ {V 0 } lo cubre. Entonces agregando finitos elementos de
σ a V 0 cubrimos todo X̃, que por ello es compacto. 
Por ahora no vamos a hacer nada con esta compactación que hemos construido. El resultado
se hace muy útil cuando X̃ es Hausdorff, y los espacios X que cumplen eso son los llamados
“localmente compactos” (Hausdorff). Para ellos usaremos sistematicamente su X̃, pero ese
laburo se hará en el Capı́tulo que viene (que es sobre esos espacios). Pero ahora daremos
unos ejemplos para entender un poco mejor la construcción.
Ejemplos A.14.4. 1. Tomemos X = R con su topologı́a usual. Entonces R̃ ∼ = S 1.
Esto se puede mostrar con la proyección estereográfica o, mejor dicho, su inversa que
2 −1
podemos explicitar: g(x) = ( x22x+1 , xx2 +1 ) ∈ S 1 , para x ∈ R. Otra manera es hacer
primero R ∼= (0, 1) y después incrustar al (0, 1) dentro de S 1 con la flecha t 7→ ei2πt .
en ∼
2. En forma análoga se puede ver que R = S n , que es la esfera de Rn+1 .

441
3. Sea ahora X = N con la topologı́a discreta. Observar que los únicos compactos de
N son los finitos. Por lo tanto tendremos que τ = P(N) mientras que τ 0 = τCF (N),
nuestra conocida topologı́a cofinita (agregándoles el ∞). Con esto en mente, se puede
ver que Ñ ∼
= { n1 : n ∈ N} ∪ {0}, con la topologı́a inducida de R. Lo lindo de este
1
ejemplo es que el hómeo que uno escribe justifica la polémica fórmula = 0.

4. Si tomamos X = (0, 1) ∪ (2, 3), queda que X̃ es un “ocho”, o el mismı́simo ∞. Y si
ponemos 3 o 4 intervalos abiertos disjuntos nos queda un trébol.
5. Los ejemplos anteriores justifican que se llame ∞ al punto que se agrega al hacer
Alexandrov. Sin embargo no siempre queda tan clarito “para dónde” está el infinito.
La cosa se pone más brava si tomamos X = Q. Intuitivamente, en Q tenemos al
infinito por todos lados, porque está lleno de redes sin lı́mites en Q, y no solo hacia los
dos costados. Lamentablemente no es fácil dar un modelo de Q̃, porque los compactos
de Q, además de los finitos, incluyen sucesiones convergentes junto con sus lı́mites, y
la cosa se complica bastante. De paso un ejercicio: Mostrar que, a diferencia de los
ejempos anteriores (donde X̃ quedaba metrizable), Q̃ no es ni Hausdorff. 4

A.15 Espacios localmente compactos


A.15.1. Hicimos muchas compactificaciones, y sabemos que “alguna” de ellas es una H-
compactificación si y sólo si el espacio base es de Tychonoff. Pero concentrémonos en la de
Alexandrov y preguntemos ¿para qué espacios X tendremos que X̃ es Hausdorff?
Con las notaciones de la Prop. A.14.3, vemos que si queremos separar un x ∈ X del ∞,
tendremos por un lado un V 0 ∈ τ 0 y necestaremos un U ∈ Oa (x) contenido en K = X \ V 0 ,
que es compacto. O sea que hay un compacto K ∈ O(x). Ya vimos que los ET’s que cumplen
esa condición son importantes por muchas otras razones, y ahora los definimos: 4
Definición A.15.2. Sea (X, τ ) un ET. Diremos que X es localmente compacto (y abre-
viaremos LK) si todo x ∈ X tiene algún entorno compacto. 4
Observación A.15.3. Si X es LK, y además le pedimos que sea Hausdorff, entonces todo
x ∈ X tiene un U ∈ Oa (x) tal que U es compacto. En efecto, basta poner el U dentro de un
entorno compacto K de x. Como X es Hausdorff, K debe ser cerrado, por lo que también
U ⊆ K. Si no pedimos que X sea Hausdorff, no hay garantı́a de lo anterior. A partir de
ahora usaremos las siglas LKH para denotar localmente compacto + Hausdorff. 4
Proposición A.15.4. Sea (X, τ ) un ET. Entonces
la compactificación X̃ = X ∪ {∞} es Hausdorff si y sólo si X es LKH.
Demostración. Usaremos las notaciones τ∞ = τ ∪ τ 0 de la Prop. A.14.3. Una implicación
(⇒) se vió en A.15.1 (la H se agrega porque es hereditaria). Si X es LKH, la H asegura que
los puntos de X se separan usando τ ⊆ τ∞ . Para separar a un x ∈ X del ∞, se toman
un compacto K ∈ Oτ (x) , un U ∈ Oτa (x) tal que U ⊆ K , y V 0 = {∞} ∪ V ,

442
donde V = X \ K. Como X es Hausdorff, K es cerrado, por lo que V ∈ τ y V 0 ∈ τ 0 . 
Ejemplo A.15.5. Todo subconjunto cerrado o abierto de algún Rn , incluso todo ET que
“localmente” es hómeo uno de esos (esto incluye a las variedades de la geometrı́a diferencial)
es automáticamente LKH. Aún ası́, esta clase es muy restrictiva (al asunción de ser LKH es
costosa), pero vale la pena estudiarla porque los LKH son los espacios más usados en análisis
y geometrı́a. Veremos además que tienen propiedades fuertes que justifican ese interés.
Observemos que, al contrario de lo que uno puede pensar por exceso de Rn , existen EM’s
completos que no son LK. Y muchos. Veremos bastantes de ellos en el Capı́tulo de EVT’s,
pero mostremos ahora uno concretito. Sea `∞ (N) el espacio de sucesiones acotadas de
números complejos con la métrica del supremo: Dados a = (an )n∈ N , b = (bn )n∈ N ∈ `∞ (N),

d∞ (a , b) = ka − bk∞ = sup |an − bn | .


n∈N

Es fácil ver que d∞ es un métrica en `∞ (N) (de hecho, `∞ (N) = Cb (N, C) y a d∞ ya la


conocı́amos). Para cada n ∈ N consideremos el punto en ∈ `∞ (N) que tiene un 1 en el lugar
n y todos los demás ceros. Todos los en viven en la bola cerrada de centro 0 y radio uno,
pero d∞ (en , em ) = 1 siempre que n 6= m. Por ello dicha bola no es compacta. Transladando
y achicando con múltimplos, uno deduce en seguida que ninguna bola cerrada alrededor de
ningún punto de `∞ (N) puede ser compacta. Como las bolas abiertas son una base de la
topologı́a de esta métrica, queda que `∞ (N) no es LK. 4
Observación A.15.6. Sea (X, τ ) un ET que es LK. No es cierto en general que sus sub-
conjuntos deban ser LK (LK no es hereditaria). Por ejemplo R es LKH, pero Q no puede
ser LKH, ya que ningún (a, b) ∩ Q tiene clausura compacta en Q (salvo que b ≤ a). 4

A.16 Stone Čech


Ahora vamos a mostrar otro método de compactificar, que es todo lo contrario del anterior,
porque es fabricar un compacto lo más grande posible, agregandole al ET original montones
de puntos nuevos. Lo que queda es difı́cil de describir explı́citamente, pero lo bueno es que
existe, y que permite extender cualquier función continua y acotada al compactado. Eso
requiere de mucho puntos nuevos, por las muchas maneras en que pueden comportarse esas
funciones en los bordes del espacio.
Por ejemplo, si empezamos con R, vimos que su compactificación de Alexandrov es S 1 . Las
funciones f ∈ Cb (R, R) que se pueden extender al ∞ = (0, 1) ∈ S 1 son solo aquellas tales
que existen M = lı́m f (t) y m = lı́m f (t), y además cumplen que m = M = f (∞). Y
t→ +∞ t→ −∞
nadie duda de que hay muchas más funciones acotadas que esas.
A.16.1. Sea (X, τ ) un ET de Tychonoff. Llamemos F = Cb (X), y consideremos el hiper-
disco Y
DX = Df , donde cada Df = {z ∈ C : |z| ≤ kf k∞ } .
f ∈F

443
Por el Teorema de Tychonoff y la Prop. A.12.8, DX es un compacto Hausdorff. El hecho de
que X sea CR significa que C(X, [0, 1]), y a fortiori Cb (X), separan a X. Luego

F : X ,→ DX , dada por F (x) = {f (x)}f ∈F , x ∈ X

es un embbeding. Llamemos β(X) = F (X). Por la Obs. A.14.2, el par (F, β(X) ) es una
H-compactificación de X, que se llama la compactificación de Stone Čech. 4
Teorema A.16.2. Sea (X, τ ) un ET de Tychonoff. Consideremos (F, β(X) ) su compacti-
ficación de Stone Čech. Entonces
1. Para toda g ∈ Cb (X) existe una unica g̃ ∈ C(β(X) ) que extiende a g, en el sentido de
que g̃ ◦ F = g.

2. Para toda H-compactificación (h, K) de X existe una ΦK ∈ C(β(X), K) tal que

(a) La función ΦK es continua y suryectiva.


(b) ΦK es “la identidad” en X, o sea que h = ΦK ◦ F .

3. Si una H-compactificación (h, K) de X tiene la misma propiedad que β(X) enunciada


en el ı́tem 1, entonces la función ΦK del ı́tem 2 es un hómeo.
Demostración.
1. Fijada la g ∈ Cb (X), consideremos la proyección Πg : DX → Ig ⊆ R a la g-ésima
cordenanda. Es claro que Πg es continua, por lo que también lo será g̃ = πg β(X) . Por
otra parte, para todo x ∈ X se tiene que

g̃ ◦ F (x) = Πg ◦ F (x) = Πg {f (x)}f ∈F = g(x) .

La unicidad de g̃ se deduce del hecho de que F (X) es denso en β(X).

2. Como K es un compacto Hausdorff, es normal, por ende CR, y por ello

G : K ,→ [0, 1]C(K,[0,1]) , dada por G(k) = {f (k)}f ∈C(K,[0,1]) , k ∈ K

es un embbeding. Sea m ∈ C(G(K), K) la inversa del hómeo G : K → G(K).


Si existiera la ΦK que buscamos, tomando Ψ = G ◦ ΦK : β(X) → G(K), deberı́a pasar
que Ψ ◦ F = G ◦ (ΦK ◦ F ) = G ◦ h. Luego, mirando en cada cordenada f ∈ C(K, [0, 1]),
deberı́amos tener que πf (Ψ ◦ F ) = πf (G ◦ h) = f ◦ h ∈ C(X, [0, 1]) ⊆ Cb (X).
Por lo tanto, las cordenadas de Ψ deberı́an ser funciones g̃f ∈ C(β(X) ) que cumplan
la igualdad g̃f ◦ F = f ◦ h. Afortunadamente, el item 1 nos provee de dichas funciones,
ası́ que empecemos por ellas, y construyamos Ψ desde abajo:
Para cada f ∈ C(K, [0, 1]), consideremos gf = f ◦ h ∈ Cb (X). Por el item 1, existe
una g̃f ∈ C(β(X) ) tal que g̃f ◦ F = gf . Como cada g̃f es continua, también lo será

Ψ : β(X) → [0, 1]C(K,[0,1]) , dada por Ψ(y) = {g̃f (y)}f ∈C(K,[0,1]) , y ∈ β(X) .

444
Observar que las g̃f toman valores en [0, 1] por que las gf = f ◦ h lo hacen, y porque
F (X) es denso en β(X) (recordar que g̃f ◦ F = gf ). Además, para cada x ∈ X,

Ψ(F (x) ) = {gf (x)}f ∈C(K,[0,1]) = {f (h(x) )}f ∈C(K,[0,1]) = G(h(x) ) .


(A.21)

O sea que Ψ ◦ F = G ◦ h. Por la densidad de F (X) en β(X), se tiene que Ψ β(X) es
un compacto que coincide con la clausura de G(h(X) ), que no es otra cosa que G(K).

O sea que Ψ β(X) = G(K). Tomemos finalmente ΦK = m ◦ Ψ ∈ C(β(X), K). Por
todo lo anterior ya tenemos probado que la función ΦK es continua y suryectiva. Pero
por la Ec. (A.21) vemos que

ΦK ◦ F = m ◦ Ψ ◦ F = m ◦ G ◦ h = h .

3. En caso de que (h, K) cumpliese 1, podrı́amos rehacer el ı́tem 2, pero con los papeles
cambiados. Esto es porque sólo se usó de β(X) el que tenga extensiones de las funciones
continuas acotadas en X. Ese laburo producirı́a una Φβ(X) ∈ C(K , β(X) ) tal que
Φβ(X) ◦ h = F . Pero estas condiciones funtoriales (la otra es ΦK ◦ F = h) permiten
porbar que ambas composiciones de las Φ’es coinciden con la identidad en los densos
F (X) y h(X). Luego son una la inversa de la otra y son hómeos. 

Observación A.16.3. Hay varias maneras de hacer la compactificación de Stone Čech.


Ya vimos una en el Ejer. 6.2.10. A continuación delinearemos otra, que es análoga a la
completación de EM’s a partir de sus sucesiones de Cauchy (ver Ejer. A.11.4), pero usando
las RU’s de X.
Asumamos que X es un ET de Tychonov, y llamemos RU (X) al conjunto de todas sus redes
universales. Dada una x = (xi )i∈ I ∈ RU (X) y una f ∈ Cb (X), la red f ◦ x es acotada y
universal en C, por lo que converge a un xf ∈ C. Consideremos las funciones

ϕf : RU (X) → C dadas por ϕf (x) = lı́m f (xi ) = xf , para x ∈ RU (X) .


i∈ I

En RU (X) se define la relación de equivalencia dada por

x∼y si ϕf (x) = xf = yf = ϕf (y) para toda f ∈ Cb (X) . (A.22)

El conjunto que buscamos será B(X) = RU (X)/ ∼ , que consta de las clases de equivalencia
(que notaremos x, para cada red universal x en X) de la relación que acabamos de definir.
Es claro que, para cada f ∈ Cb (X), su ϕf se “baja” bien al cociente B(X). Llamemos
ahora φf : B(X) → C a la función bajada dada ahora por φf (x) = xf , x ∈ RU (X). Sea
F = {φf : f ∈ Cb (X)}. Notar que ahora F separa puntos de B(X).
La topologı́a para B(X) seá la inicial τF , dada por la familia F. Y el embbeding será
G : X → B(X) dado por G(x) = cx , donde cx es la sucesión constantemente igual a x .

445
Se podrı́a probar a mano que el espacio (B(X), τF ) es compacto (Hausdorff es, porque F
separa puntos), pero es más fácil ver que hay un hómeo entre β(X) y B(X) que conmuta
con los embbedings (lo que de paso mostrará que G era un embbeding). Los detalles de esa
cuenta se dejan como ejercicio. 4
La construcción anterior es en escencia la misma que la original, pero describe mejor que
lo que se agrega a X son los lı́mites de redes en X hacia los “bordes”. La similitud está
en que ambas se basan en la acción de Cb (X), ya sea en un producto o en las RU’s de X.
Esta acción es clave en este ejemplo porque es la que define la relación de equivalencia de la
Ec. (A.22) en RU (X). 4

A.17 Métricas uniformes en C(X, Y ), con Y un EM


Como pasa siempre, una teorı́a produce objetos a los que se les aplica, a su vez, la teorı́a en
cuestión. En este caso, la topologı́a produce las funciones continuas, y uno quiere estudiar
los espacios de tales funciones desde un punto de vista topológico, con especial énfasis en
los distintos tipos de convergencias. Para hacerlo en general, necesitamos la noción de
compacidad. Pero por ahora desarrollaremos el caso en que las funciones tomen valores en
un espacio métrico acotado Y (o bien pidamos que las funciones lo sean). Allı́ podemos
definir la métrica de la convergencia uniforme:
Definición A.17.1. Sean X un conjunto e (Y, d) un EM. Se definen

1. `∞ (X, Y ) = {f : X → Y acotadas } (o sea que f ∈ `∞ (X, Y ) si diam (f (X) ) < ∞).

2. En `∞ (X, Y ) se define la distancia uniforme: dadas f, g ∈ `∞ (X, Y ),

d∞ (f, g) = sup { d(f (x), g(x) ) : x ∈ X } .

Es fácil ver que d∞ está bien definida (es < ∞) y que es una métrica en `∞ (X, Y ).

3. Si X tiene una topologı́a τ , consideraremos el espacio de funciones continuas y acotadas

Cb (X, Y ) = C(X, Y ) ∩ `∞ (X, Y ) = f ∈ C(X, Y ) : diam (f (X) ) < ∞ ,




donde también podemos usar la d∞ .

4. En el caso de que el espacio Y sea acotado, se tiene que `∞ (X, Y ) = Y X , o sea todas
las funciones f : X → Y . Además sucede que Cb (X, Y ) = C(X, Y ). 4

Observación A.17.2. La topologı́a de `∞ (X, Y ) inducida por d∞ es aquella cuya conver-


gencia es la uniforme en X: Dada una sucesión (fn )n∈ N en `∞ (X, Y ) y una f ∈ `∞ (X, Y ),
τd

fn −−−→ f ⇐⇒ ∀ ε , ∃ m ∈ N tal que: n ≥ m =⇒ d∞ (fn , f ) < ε , (A.23)
n→∞

o sea que d(fn (x) , f (x) ) < ε para todos los x ∈ X a partir del mismo m. 4

446
El siguiente enunciado da la máxima generalidad a la conocida frase “lı́mite uniforme de
funciones continuas es continua”.
Proposición A.17.3. Sean (X, τ ) un ET e (Y, d) un EM. Entonces se tiene que Cb (X, Y )
es d∞ -cerrado en `∞ (X, Y ). Si Y era acotado, reescribimos: C(X, Y ) es d∞ -cerrado en Y X .
d
Demostración. Sea (fn )n∈ N una sucesión en Cb (X, Y ) y sea f ∈ `∞ (X, Y ) tal que fn −−−

→ f.
n→∞
Para ver que f es continua, tomemos una red x = (xi )i∈ I en X tal que xi −−→ x. Dado ε > 0,
i∈ I
la Ec. (A.23) asegura que existe un n ∈ N tal que d∞ (fn , f ) < 3ε . Como fn ∈ C(X, Y ),
existe un i0 ∈ I tal que d(fn (xi ), fn (x) ) ≤ 3ε para todo i ≥ i0 . Luego

d(f (xi ) , f (x) ) ≤ d(f (xi ) , fn (xi ) ) + d(fn (xi ) , fn (x) ) + d(fn (x) , f (x) )

< 2 d∞ (fn , f ) + d(fn (xi ), fn (x) ) < ε .

Sólo falta ver que el lı́mite f es acotada (si todas las fn lo son). Pero si tomamos un n ∈ N
tal que d∞ (fn , f ) < 1, entonces es fácil ver que
 
diam f (X) ≤ 2 + diam fn (X) < ∞ , (A.24)

por lo que f ∈ Cb (X, Y ). 


Proposición A.17.4. Sean (X, τ ) un ET e (Y, d) un EM completo. Entonces se tiene que
tanto `∞ (X, Y ) como su subespacio Cb (X, Y ) son d∞ -completos.
Demostración. Sea (fn )n∈N una sucesión de Cauchy en `∞ (X, Y ). Dado un x ∈ X, sabemos
que d(fk (x) , fm (x) ) ≤ d∞ (fk , fm ) para todo k, m ∈ N. Luego cada sucesión (fn (x) )n∈N es
de Cauchy en Y . Como Y es completo, podemos definir la función

f :X→Y dada por f (x) = lı́m fn (x) , para todo x ∈ X ,


n→∞

que es nuestra candidata a lı́mite. Nos falta verificar dos cosas:


? ?
d∞ (fn , f ) −−−→ 0 y f ∈ `∞ (X, Y ) .
n→∞

ε
Dado ε > 0, sea n1 ∈ N tal que d∞ (fk , fm ) < 2
para todo k, m ≥ n1 . Luego, si k ≥ n1 ,
 ε
d(fk (x) , f (x) ) = lı́m d(fk (x) , fm (x) ) ≤ sup d(fk (x) , fm (x) ) ≤ < ε, (A.25)
m→∞ m≥n1 2

para todos los x ∈ X a la vez. La igualdad = se deduce de que fm (x) −−−→ f (x), usando
m→∞
el Lema A.4.10. La Ec. (A.25) muestra que d∞ (fn , f ) −−−→ 0. Tomando un n tal que
n→∞
d∞ (fn , f ) < 1, la Ec. (A.24) nos asegura que f ∈ `∞ (X, Y ) . Listo el caso `∞ (X, Y ) .
La completitud de Cb (X, Y ) sale usando ahora la Prop. A.17.3, porque Cb (X, Y ) es un sub-
conjunto cerrado del espacio completo `∞ (X, Y ) . 

447
En el caso particular de que Y = Rn o Cn , los espacios `∞ (X, Y ) y Cb (X, Y ), además de
métricos, son espacios “normados”. Esto significa son espacios vectoriales y que la métrica
es homogénea e invariante por translaciones. Por ejemplo, dada f ∈ RX , se define
kf k∞ = sup |f (x)| . Observar que kf k∞ < ∞ si y sólo si f ∈ `∞ (X, R) . (A.26)
x∈X

Además, si tenemos otra función g ∈ `∞ (X, R) y un escalar λ ∈ R, vale que


d∞ (f, g) = kf − gk∞ , kf + gk∞ ≤ kf k∞ + kgk∞ y k λ f k∞ = |λ| kf k∞ . (A.27)
Todo esto camina igual si las funciones viven en el subespacio cerrado Cb (X, R) ⊆ `∞ (X, R).
Además, el hecho de que Cb (X, R) sea completo da sentindo al siguiente enunciado:
Proposición A.17.5. Sea (X, τ ) un ET. En (Cb (X, R), d∞ ), una serie absolutamente
convergente es convergente. Es decir que dada una sucesión (fn )n∈N en (Cb (X, R), d∞ ),

X ∞
X
kfn k∞ < ∞ =⇒ la serie fn converge a una f ∈ Cb (X, R)
n=1 n=1


P
cuya norma verifica que kf k∞ ≤ kfn k∞ .
n=1

Demostración. Por la Prop. A.17.4, para mostrar la convergencia de la serie, basta ver que
n
P
la sucesión gn = fk es de Cauchy para la d∞ . Pero si n < m, por la Ec. (A.27),
k=1

m
X m
X
d∞ (gm , gn ) = kgm − gn k∞ = fk ≤ kfk k∞ −−−−−→ 0 ,

∞ n, m → ∞
k=n+1 k=n+1


P
por la hipótesis de que kfn k∞ < ∞. Además, como la función g 7→ kgk∞ es continua,
n=1

Xn n
X ∞
X
kf k∞ = lı́m kgn k∞ = lı́m fk ≤ lı́m kfk k∞ = kfk k∞ ,

n→∞ n→∞ ∞ n→∞
k=1 k=1 k=1

con lo que culmina la prueba. 


El resultado anterior también vale en `∞ (X, R). De hecho, vale en cualquier R o C espacio
vectorial normado completo (se los llama espacios de Banach). Lo enunciamos sólo para
Cb (X, Y ) porque es lo que necesitaremos más adelante.

A.18 Teoremas de Baire


Empecemos con un resultado fácil que motivará lo que sigue: Sea (X, τ ) un ET, y tomemos
A, B ⊆ X dos cerrados. Luego se tiene que
(A ∪ B)◦ 6= ∅ =⇒ A◦ 6= ∅ o B ◦ 6= ∅ , (A.28)

448
y quien dice dos, dice finitos (la inducción es directa). En efecto, tomando complementos,
esto equivale a decir que, dados dos abiertos U, V ⊆ X, vale que
si tanto U como V son densos en X , también debe ser denso U ∩ V .
Veamos esto: Si me dan un x ∈ X y un W ∈ Oa (x), usando que U es denso tenemos que
∅ 6= W ∩ U ∈ τ . Tomando cualquier y ∈ W ∩ U , nos queda que W ∩ U ∈ Oa (y). Ahora por
la densidad de V arribamos a que W ∩ (U ∩ V ) 6= ∅. Por ello, x ∈ U ∩ V .
Como decı́amos antes, estos resultados se extienenden a uniones finitas de cerrados sin inte-
rior, o intersecciones finitas de abiertos densos. Pensando en una generaliización a uniones
o interseccioines infinitas, uno no puede aspirar a algo completamente general, porque en
cualquier espacio X que sea razonable, todo abierto es unión de cerrados sin interior (los
singueletes de todos sus elementos).
Pero imginándose rectas en R2 o superficies en R3 , uno llegarı́a a arriesgar que si la cantinad
de cerrados es numerable, podrı́a valer una fórmula tipo (A.28). Sin embargo, algunas re-
stricciones habrá que poner. Por ejemplo, si X = Q, la obstrucción recién planteada seguirı́a
vigente (con numerables puntos uno llena lo que sea). De hecho, mirando el argumento de
arriba, si los abiertos fueran numerables harı́a falta “encajar” infinitos entornos y que quede
algo en todos a la vez.
Y ahora les contamos el final: Como uno podrı́a suponer por lo dicho antes, hay dos caminos
para asegurarse la extensión de (A.28) al caso numerable: que X sea un EM completo (bolas
cerradas encajadas), o que sea un ET localmente compacto Hausdorff (entornos compactos
+ la PIF). Y el “detective” que los descubrió es René-Louis Baire.
Teorema A.18.1 (Baire). Sea (X, τ ) un ET que cumple alguna de estas dos hipótesis:
EMC: X es un espacio métrico completo.
LKH: X es localmente compacto Hausdorff.
Entonces para toda familia numerable {Fn }n∈N de cerrados de X se tiene que
[ ◦
Fn◦ = ∅ para todo n ∈ N =⇒ Fn = ∅ .
n∈N

Existen otras dos maneras de enunciar lo mismo, que conviene explicitar:


 S ◦
Fn = X), entonces algún Fn◦ 6= ∅.
S
B2: Si Fn 6= ∅ (por ejemplo si
n∈N n∈N
T
B3: Dada una sucesión {Un }n∈N de abiertos densos, se tiene que Un es también densa.
n∈N

Demostración. Probaremos en ambos casos el enunciado B3. Observar que, si tenemos


cerrados Fn como em B2, y para cada n ∈ N hacemos Un = X \ Fn , queda que
\ [ [ ◦
Un = X \ Fn◦ y que Un = X \ Fn = X \ Fn .
n∈N n∈N n∈N

449
Caso EMC: Sea x ∈ X y ε > 0. Tomemos la bola cerrada B0 = B(x, ε). Como U1 es denso,
tenemos que ∅ 6= U1 ∩ B(x, ε) ∈ τ . Luego existe una bola B1 = B(x1 , ε1 ) ⊆ U1 ∩ B(x, ε),
donde podemos asumir que ε1 ≤ ε2 .
Ahora cortamos B1◦ = B(x1 , ε1 ) con U2 . Por la densidad de U2 podemos armar una bola
cerrada B2 , de radio no mayor a ε4 , tal que B2 ⊆ B1◦ ∩ U2 ⊆ U1 ∩ U2 . Recursivamente,
obtenemos una sucesión (Bn )n∈N de bolas cerradas tales que, para todo n ∈ N,
\ ε
Bn ⊆ Uk , Bn+1 ⊆ Bn◦ y diam (Bn ) ≤ n .
k∈ I
2
n

T
La Prop. A.11.3 nos dice ahora que existe un y ∈ Bn . Y la primera condición de arriba
T n∈N
fuerza a que y ∈ Un , además de estar en B(x, ε), que era un entorno genérico del puntito
n∈N T
x. Ası́ llegamos a que x está en la clausura de Un , para todo x ∈ X. 4
n∈N

Caso LKH: La construcción es similar. Recordemos que, como ahora X es LKH, es bien
sabido que todo punto de X tiene una base de entornos compactos. Si me dan x ∈ X y
un V ∈ Oa (x), como V ∩ U1 6= ∅, encuentro un y ∈ V ∩ U1 . Tomo un K1 ∈ O(y) que sea
compacto tal que K1 ⊆ V ∩ U1 . Después corto K1◦ con U2 , y tomo un entorno compacto K2
de algún punto de K1◦ ∩ U2 ⊆ U1 ∩ U2 (K1◦ 6= ∅ porque K1 es entorno de y). Ası́ siguiendo,
construyo la sucesión (Kn )n∈N de compactos (con interior) tales que, para todo n ∈ N,
\
Kn ⊆ Uk y Kn+1 ⊆ Kn◦ ⊆ K1 ⊆ V .
k∈ In

Ahora uso que K1 es compacto, y que la sucesión (Kn )n∈N tiene la PIF para K1 (toda
Kn 6= ∅ y además Kn ⊆ K1 ). Por ello, el Teo. A.12.3
intersección finita me da el último T
asegura que puedo tomar un z ∈ Kn 6= ∅. Como en el caso anterior, me queda que
n∈N
Un . Como V ∈ Oa (x) era genérico, volvemos a llegar que x está en la clausura
T
z∈V ∩
T n∈N
de Un , para todo x ∈ X. 
n∈N

Observación A.18.2. Las pruebas de las dos mitades del Teorema de Baire son casi iguales,
pero no se puede usar un solo argumento para ambas. Esto es ası́ porque hay espacios LKH
que, aún siendo métricos no son completos, como el intervalo (0, 1). Y porque hay EM’s
completos donde las bolas (cerradas) no pueden ser compactas. Esto pasa en todos los
espacios de Banach de dimensión infinita. 4

450

Potrebbero piacerti anche