Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Apuntes de un curso de
FISICA MATEMATICA
Tercera edicion, revision 080624-12
Jose Rogan C.
Vctor Munoz G.
Indice
I
An
alisis Tensorial
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . .
. . . . . .
. . . . . .
. . . . . .
de escala
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
8
9
11
15
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
19
20
21
21
21
22
23
24
25
27
30
33
34
35
35
36
37
39
.
.
.
.
.
41
41
42
45
47
47
INDICE
iv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
51
51
52
52
52
52
53
54
56
56
57
4. Introducci
on a tensores.
4.1. El tensor de conductividad y la ley de Ohm. . . . . . . . . . . . . . .
4.2. Notacion tensorial general y terminologa. . . . . . . . . . . . . . . .
4.3. Transformaciones entre sistemas de coordenadas. . . . . . . . . . . . .
4.3.1. Transformaciones vectoriales entre sistemas cartesianos. . . . .
4.3.2. La matriz de transformacion. . . . . . . . . . . . . . . . . . .
4.3.3. Resumen de transformaciones de coordenadas. . . . . . . . . .
4.3.4. Transformaciones tensoriales. . . . . . . . . . . . . . . . . . .
4.4. Diagonalizacion de tensores. . . . . . . . . . . . . . . . . . . . . . . .
4.4.1. Diagonalizacion y problema de valores propios. . . . . . . . . .
4.5. Transformaciones tensoriales en sistemas de coordenadas curvilneos.
4.6. Pseudo-objetos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.1. Pseudo-vectores. . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.2. Pseudo-escalares. . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.3. Pseudo-tensores. . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
59
59
62
63
63
64
67
68
69
70
76
77
77
82
83
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
85
87
88
90
92
95
98
101
103
.
.
.
.
107
. 107
. 114
. 121
. 129
6. Determinantes y matrices.
6.1. Determinantes. . . . . . . . . . . . . . .
6.2. Matrices. . . . . . . . . . . . . . . . . . .
6.3. Matrices ortogonales. . . . . . . . . . . .
6.4. Matrices Hermticas, matrices unitarias.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
145
145
149
162
166
168
8. Series infinitas.
8.1. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . . .
8.2. Pruebas de Convergencia . . . . . . . . . . . . . . . . . . . . . . . .
8.2.1. Pruebas de comparacion. . . . . . . . . . . . . . . . . . . . .
8.2.2. Prueba de la raz de Cauchy. . . . . . . . . . . . . . . . . . .
8.2.3. Prueba de la razon de D Alembert o Cauchy. . . . . . . . .
8.2.4. Prueba integral de Cauchy o Maclaurin. . . . . . . . . . . .
8.2.5. Prueba de Kummer. . . . . . . . . . . . . . . . . . . . . . .
8.2.6. Prueba de Raabe. . . . . . . . . . . . . . . . . . . . . . . . .
8.2.7. Prueba de Gauss. . . . . . . . . . . . . . . . . . . . . . . . .
8.2.8. Mejoramiento de convergencia. . . . . . . . . . . . . . . . .
8.3. Series alternadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1. Criterio de Leibniz. . . . . . . . . . . . . . . . . . . . . . . .
8.3.2. Convergencia absoluta. . . . . . . . . . . . . . . . . . . . . .
8.4. Algebra
de series. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1. Mejoramiento de la convergencia, aproximaciones racionales.
8.4.2. Reordenamiento de series dobles. . . . . . . . . . . . . . . .
8.5. Series de funciones. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.1. Convergencia uniforme. . . . . . . . . . . . . . . . . . . . . .
8.5.2. Prueba M de Weierstrass. . . . . . . . . . . . . . . . . . . .
8.5.3. Prueba de Abel. . . . . . . . . . . . . . . . . . . . . . . . . .
8.6. Expansion de Taylor. . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6.1. Teorema de Maclaurin. . . . . . . . . . . . . . . . . . . . . .
8.6.2. Teorema Binomial. . . . . . . . . . . . . . . . . . . . . . . .
8.6.3. Expansion de Taylor de mas de una variable. . . . . . . . . .
8.7. Series de potencias. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.7.1. Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8. Convergencia uniforme y absoluta. . . . . . . . . . . . . . . . . . .
8.8.1. Continuidad. . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8.2. Diferenciacion e integracion. . . . . . . . . . . . . . . . . . .
8.8.3. Teorema de unicidad. . . . . . . . . . . . . . . . . . . . . . .
8.8.4. Inversion de series de potencia. . . . . . . . . . . . . . . . .
8.9. Integrales elpticas. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.9.1. Definiciones. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.9.2. Expansion de series. . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
175
175
178
178
179
180
181
183
183
184
185
186
186
187
188
189
190
192
192
193
195
196
197
199
201
201
202
202
202
202
203
204
205
206
207
. . . . . .
. . . . . .
. . . . . .
. . . . . .
Maxwell.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE
vi
II
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
primer
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
208
209
211
212
213
216
216
217
219
220
221
221
222
223
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
orden lineales.
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
225
225
226
228
230
231
231
232
233
234
236
237
237
238
240
Variable Compleja
10.N
umeros Complejos
10.1. Introduccion. . . . . . . . . . . . . .
10.2. Plano complejo. . . . . . . . . . . . .
10.3. Representacion polar. . . . . . . . . .
10.4. Distancia en el plano complejo. . . .
10.5. Desigualdad triangular. . . . . . . . .
10.6. Isomorfismo con matrices. . . . . . .
10.7. Sucesion de n
umeros complejos. . . .
10.8. Series de n
umeros complejos. . . . . .
10.8.1. Pruebas mas comunes para la
10.8.2. Radio de convergencia. . . . .
245
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
convergencia absoluta.
. . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
247
. 247
. 249
. 251
. 251
. 251
. 253
. 253
. 253
. 254
. 254
INDICE
10.8.3. La serie exponencial.
10.9. Relacion de Euler. . . . . .
10.10.Formula de Moivre. . . . . .
10.11.Ecuacion ciclotonica. . . . .
vii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
255
256
257
257
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
259
259
260
260
261
262
263
264
265
266
267
268
268
269
12.Transformaciones homogr
aficas y rotaciones de la esfera.
271
13.Derivabilidad.
13.1. Identidades de Cauchy-Riemann. . . . . . . . . . . . . . . . . . . . .
13.2. Ecuaciones de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . .
13.3. Interpretacion hidrodinamica de las identidades de Cauchy-Riemann.
13.4. Familias ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
277
. 277
. 280
. 283
. 285
14.Integraci
on.
14.1. Definiciones . . . . . . . . . . . . . . . . . . . .
14.2. Interior de una curva cerrada sin puntos dobles.
14.3. Recorrido del contorno de un dominio. . . . . .
14.4. Integrales de lnea en el plano complejo. . . . .
14.5. Evaluacion de integrales impropias reales. . . . .
14.6. Formula integral de Cauchy. . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
303
. 303
. 306
. 312
. 314
16.Prolongaci
on Analtica.
16.1. Definiciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16.2. Lema de Heine-Borel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16.3. Teorema de identidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
317
. 317
. 318
. 319
15.Series de Potencias.
15.1. Series y radio de convergencia.
15.2. Propiedades. . . . . . . . . . .
15.3. Maximos, mnimos y funciones
15.4. N
umeros de Bernoulli. . . . .
. . . . . . .
. . . . . . .
armonicas.
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
287
287
290
291
293
298
299
INDICE
viii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
320
325
326
328
17.Funciones Multivaluadas.
17.1. Funcion z. . . . . . . . . . .
17.2. Superficies de Riemann. . . .
17.3. Otros puntos de ramificacion.
17.4. La funcion Logaritmo. . . . .
17.5. La funcion Arcotangente. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
331
331
334
335
337
339
18.Desarrollo de Laurent.
18.1. Desarrollo en torno a z0 = 0. . . . .
18.2. Desarrollo en torno a z0 . . . . . . .
18.3. Unicidad del desarrollo de Laurent.
18.4. Ejemplos. . . . . . . . . . . . . . .
18.5. Definiciones. . . . . . . . . . . . . .
18.6. La funcion Arcosecante. . . . . . .
18.7. Funciones enteras. . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
343
343
344
345
345
347
348
350
19.Residuos.
19.1. Definicion y teorema. . . . . . . . . . . .
19.2. Funciones racionales. . . . . . . . . . . .
19.3. Funciones trigonometricas. . . . . . . . .
19.4. Polos, residuos y lugares nulos. . . . . .
19.5. Ejemplos. . . . . . . . . . . . . . . . . .
19.5.1. Residuos de un polo de orden m.
19.6. Valor principal de Cauchy. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
355
355
357
358
360
363
368
368
20.Funciones Meromorfas.
21.La funci
on .
21.1. Definicion. . . . . . . . . . . . . .
21.2. Exploracion. . . . . . . . . . . . .
21.3. Definiciones precisas. . . . . . . .
21.4. Representaciones integrales de .
21.5. La funcion Beta. . . . . . . . . .
21.5.1. Casos particulares. . . . .
371
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22.Representaci
on Conforme.
22.1. Introduccion. . . . . . . . . . . . . . . . . . .
22.2. Representacion conforme. . . . . . . . . . . .
22.3. Transformaciones de funciones armonicas. . .
22.4. Transformaciones de las condiciones de borde.
22.5. Aplicaciones . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
377
377
378
379
382
384
385
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
387
. 387
. 387
. 389
. 392
. 394
INDICE
ix
INDICE
Indice de figuras
1.1.
1.2.
1.3.
1.4.
1.5.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 6
. 9
. 12
. 14
. 15
de carga.
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
22
23
26
27
28
28
30
31
32
36
36
37
38
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
42
44
44
45
45
46
47
48
50
54
55
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE DE FIGURAS
xii
4.4.
4.5.
4.6.
4.7.
4.8.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
78
78
79
80
82
5.1.
5.2.
5.3.
5.4.
5.5.
5.6.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
88
88
89
93
99
100
.
.
.
.
127
128
134
142
7.1.
7.2.
7.3.
7.4.
7.5.
. . . . .
suma de
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. 121
. 124
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
150
155
159
161
161
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
179
181
189
190
191
191
193
205
207
214
218
. . . . . .
. . . . . .
. . . . . .
. . . . . .
complejo.
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
249
250
252
252
254
255
258
. . . . .
bloques
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
INDICE DE FIGURAS
xiii
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
radiales.
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
259
260
260
261
261
262
262
263
264
265
266
267
267
268
269
269
270
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
277
284
285
286
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
287
288
288
289
289
289
290
290
290
291
292
292
293
294
295
295
296
298
300
INDICE DE FIGURAS
xiv
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
317
317
318
319
319
320
320
321
322
322
323
323
325
326
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
331
332
333
333
333
334
335
335
336
337
337
337
338
338
340
340
341
341
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
343
346
347
348
349
350
.
.
.
.
.
.
.
.
.
.
.
.
INDICE DE FIGURAS
19.2. Camino de integracion. . . . . . . .
19.3. Camino de integracion. . . . . . . .
19.4. Camino de integracion. . . . . . . .
19.5. Camino de integracion ejemplo I. .
19.6. Eleccion de rama. . . . . . . . . . .
19.7. Camino de integracion ejemplo II. .
19.8. Camino de integracion ejemplo III.
19.9. Camino de integracion ejemplo IV.
19.10.Camino de integracion. . . . . . . .
xv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
356
357
359
363
364
364
365
367
368
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
387
388
389
389
390
391
392
393
394
394
395
395
396
396
INDICE DE FIGURAS
INDICE DE FIGURAS
Parte I
An
alisis Tensorial
Captulo 1
Una breve revisi
on de
algebra lineal.
versi
on final 1.0-0804151
Este captulo presenta una rapida revision del algebra de vectores y de matrices. No
intentamos cubrir por completo estos topicos sino mas bien usarlos como introduccion a
la notacion con subndices y la convencion de suma de Einstein. Estas herramientas nos
simplificaran la a menudo complicada manipulacion del algebra lineal.
1.1.
Notaci
on.
Una notacion estandard y consistente es un habito muy importante a formar en matematicas. Una buena notacion no solo facilita los calculos sino que permite analisis dimensional y
ayuda a encontrar y corregir errores. As comenzamos por explicitar la notacion que usaremos
a traves de los apuntes.
Smbolo
Cantidad
vi
Mij
[M ]
v
ei
T
L
(1.1)
DE ALGEBRA
reemplazamos los subndices con letras (x,y,z), en las componentes, por subndices numericos
(1,2,3). Con esto, definimos:
e1 = ex
v1 = vx
e2 = ey
v2 = vy
(1.2)
e3 = ez
v3 = vz
La ecuacion (1.1) se transforma en
v = v1 e1 + v2 e2 + v3 e3 ,
o mas sucintamente
(1.3)
v=
vi ei .
(1.4)
i=1
La figura (1.1) muestra esta modificacion notacional sobre un tpico sistema de coordenadas
Cartesiano.
Aunque la notacion de subndices puede ser usada en diferentes tipos de sistemas de coordenadas, en este captulo limitaremos nuestra discusion al sistema Cartesiano. Los vectores
bases Cartesianos son ortonormales y posicion independientes. Ortonormal significa que la
magnitud de cada vector es unitaria y que ellos son perpendiculares entre ellos. Independiente
de la posicion significa que los vectores bases no cambian su orientacion cuando los movemos
a traves del espacio. Sistema de coordenadas no-Cartesianos son cubiertos en detalle en el
captulo 3.
un mas introduciendo la convencion de suma
La ecuacion (1.4) puede ser compactada a
de Einstein la cual supone que se suma cada vez que se repiten los subndices en el mismo
termino. Por lo tanto
3
v=
vi ei = vi ei .
(1.5)
i=1
ez
e3
ey
ex
2
e2
1
e1
1.1. NOTACION.
(1.6)
Esta ecuacion esta escrita en lo que se conoce como notacion vectorial. Notemos que no depende de la eleccion de un sistema de coordenadas. En un particular sistema de coordenadas,
nosotros podemos escribir la relacion entre estos vectores en terminos de sus componentes:
c1 = a1 + b1
c2 = a2 + b2
c3 = a3 + b3
(1.7)
Con la notacion de subndices estas tres ecuaciones pueden ser escritas en una sola lnea,
ci = ai + bi ,
(1.8)
donde el subndice i se puede reemplazar por cualquiera de los tres valores(1,2,3). Como
veremos mas adelante el uso de la notacion de Einstein puede simplificar drasticamente la
derivacion de muchas relaciones matematicas y fsicas. Sin embargo, los resultados escritos
en esta notacion estan amarrados a un particular sistema de coordenadas, lo que a menudo
dificulta la interpretacion. Por esta razon convertiremos nuestros resultados finales de vuelta
a una notacion vectorial cuando sea posible.
Una matriz es un arreglo dos dimensional de cantidades que puede o no estar asociada
con un particular sistema de coordenadas. Las matrices pueden ser expresadas usando diferentes tipos de notacion. Si deseamos hablar sobre una matriz como un todo, sin especificar
explcitamente todos sus elementos, la escribimos en notacion matricial como [M ]. Si, por el
contrario necesitamos listar todos los elementos de [M ], podemos escribirla como un arreglo
rectangular entre un par de parentesis:
[M ] = ..
(1.9)
..
..
.. .
.
.
.,
.
Mr1 Mr2 Mrc
Llamaremos a esta notacion de arreglos matriciales El elemento individual de la tercera fila
segunda columna de [M ] es escrito como M23 . Notemos que la fila de un elemento corresponde
al primer ndice y la columna al segundo. No todos los arreglos son cuadrados, esto significa
que en la ecuacion (1.9) r no es necesariamente igual a c.
La multiplicacion entre dos matrices es solo posible si el n
umero de columnas en el premultiplicador es igual al n
umero de filas del postmultiplicador. El resultado de tal forma de
multiplicacion es otra matriz con el mismo n
umero de columnas que el premultiplicador y
el mismo n
umero de columnas que el postmultiplicador. Por ejemplo, el producto entre una
matriz 3 2 [M ] y una matriz 2 3 [N ] forma una matriz de 3 3 [P ], con los elementos
dados por:
M11 M12
M11 N11 + M12 N21 M11 N12 + M12 N22 M11 N13 + M12 N23
M21 M22 N11 N12 N13 = M21 N11 + M22 N21 M21 N12 + M22 N22 M21 N13 + M22 N23 .
N21 N22 N23
M31 M32
M31 N11 + M32 N21 M31 N12 + M32 N22 M31 N13 + M32 N23
[N ]
[M ]
[P ]
(1.10)
DE ALGEBRA
(1.12)
con una suma implcita sobre el ndice j. notemos que j esta en la segunda posicion de el
termino Mij y en la primera posicion de el termino Njk , tal que la sumatoria es sobre las
columnas de [M ] y sobre las filas de [N ], tal como era en la ecuacion (1.10). La ecuacion
(1.12) es una expresion para el elemento ik-esimo de la matriz [P ].
La notacion de arreglos matriciales es conveniente para hacer calculos numericos, especialmente cuando se usan computadores. Cuando derivamos las relaciones entre diversas
cantidades en fsica es a menudo inadecuada porque carece de un mecanismo para mantener
la pista de la geometra del sistema de coordenadas. Por ejemplo, en un particular sistema
de coordenadas , el vector v, puede ser escrito como
v = 1
e1 + 3
e2 + 2
e3 .
(1.13)
Cuando realizamos los calculos es a veces conveniente usar una representacion matricial del
vector escribiendo
1
v [v] = 3 .
(1.14)
2
El problema con esta notacion es que no hay una manera conveniente para incorporar los
vectores bases en la matriz. Esta es la razon de que fuimos cuidadosos y usamos una flecha
() en la ecuacion (1.14) en vez del signo igual (=). En estos apuntes un signo igual entre
dos cantidades significa que ellas son perfectamente equivalente en todas sus formas. Una
cantidad puede ser subtituidas por la otra en cualquier expresion. Por ejemplo, la ecuacion
(1.13) implica que la cantidad 1
e1 + 3
e2 + 2
e3 puede reemplazar a v en cualquier expresion
matematica y vice-versa. En contraste la flecha en (1.14) implica que [v] puede representar
a v y que los calculos pueden ser realizados usandolo, pero debemos ser cuidadoso no son
directamente substituibles uno por otro sin especificar los vectores bases asociados con las
componentes de [v].
1.2.
Operaciones vectoriales.
En esta seccion veremos varias de las operaciones vectoriales. Usaremos todas las diferentes
formas de notacion discutidas en la seccion previa para ilustrar sus diferencias. Inicialmente,
nos concentraremos en la notacion matricial y de arreglo matricial. Cuando progresemos
usaremos la notacion de Einstein mas frecuentemente.
Como discutimos anteriormente un vector tridimensional v puede ser representada usando
una matriz. Hay realmente dos maneras de escribir esta matriz. Una puede escribirla como
una matriz columna (3 1) o una matriz fila (1 3), cuyos elementos son las componentes
de el vector en alguna base Cartesiana:
v1
v [v] = v2
o
v [v] = v1 v2 v3 .
(1.15)
v3
la notacion estandard [v] es usada para indicar la traspuesta de [v], indicando un intercambio
de filas por columnas. Recordemos que el vector v puede tener un n
umero infinito de diferentes
representaciones de arreglos matriciales, cada una escrita con respecto a una diferente base
coordenada.
1.2.1.
Rotaci
on de vectores.
a2 = a sen .
(1.17)
(1.18)
a2
a2
a2
(1.19)
10
DE ALGEBRA
a1
a2
a [a ] =
a1
a2
(1.20)
a1
a2
(1.21)
(1.22)
En esta u
ltima expresion [R()]es llamada la matriz de rotacion y esta claramente definida
como
cos sen
[R()] =
.
(1.23)
sen cos
Notemos que para que la ecuacion (1.22) sea la misma que la ecuacion (1.19), y para que
la multiplicacion de matrices tenga sentido, las matrices [a] y [a ] deben ser matrices columnas
y [R()] debe premultiplicar a [a]. El resultado de la ecuacion (1.19) tambien puede escribirse
usando una representacion fila para [a] y [a ]. En este caso, las transpuestas de [R()], [a] y
[a ] deben ser usadas, y [R()] debe postmultiplicar a [a] :
[a ] = [a] [R()] .
(1.24)
cos sen
sen cos
(1.25)
(1.26)
La multiplicacion de matrices en la ecuacion (1.22) suma es sobre las columnas de los elementos de [R()]. Esto se logra en la ecuacion (1.26) por la suma implcita sobre j. A diferencia
de la notacion matricial en la notacion de Einstein el orden de aj y Rij no es ya importante,
porque
Rij aj = aj Rij .
(1.27)
El vector a puede ser escrito usando la notacion de Einstein combinada con la ecuacion
(1.26) con los vectores bases
a = Rij aj ei .
(1.28)
Esta expresion demuestra una propiedad de contabilidad notacional de la notacion de
Einstein. La suma sobre un subndice remueve la dependencia en expresion, de la misma
11
manera que cuando uno integra sobre una variable. Por esta razon, el proceso de sumar
ndices es a menudo llamado contraccion sobre un ndice. Hay dos sumas en el lado derecho
(LD) de la ecuacion (1.28), una sobre i y la otra sobre j. Despues de la contraccion sobre
ambos subndices, no permanecen subndices en LD. Esto es consistente con el hecho de que
no hay subndices en el lado izquierdo (LI) de la ecuacion. La u
nica notacion sobre el LD es
una flecha sobre a indicando que es un vector, lo cual tambien existe al LI con el vector
unitario ei . Esta suerte de analisis notacional puede ser aplicado a todas las ecuaciones. La
notacion sobre el LI de un signo igual debe estar siempre de acuerdo con la notacion en el
LD. Este hecho puede ser usado para chequear las ecuaciones. Por ejemplo,
a = Rij aj ,
(1.29)
1.2.2.
Productos vectoriales.
Ahora consideraremos los productos punto y cruz de dos vectores usando la notacion de
Einstein. Este tipo de producto estan presente en la fsica a todo nivel. El producto punto es
usualmente encontrado primero cuando calculamos el trabajo W hecho por una fuerza F en
la integral de lnea
W =
dr F .
(1.30)
(1.32)
donde es el angulo entre los dos vectores, como muestra la figura (1.3. Si nosotros tomamos
el producto punto de un vector con si mismo tendremos la magnitud al cuadrado de dicho
vector
A A = |A|2 .
(1.33)
En notacion de Einstein la ecuacion (1.32) se escribe como
A B = Ai ei Bj ej .
(1.34)
Notemos que hemos ocupados dos ndices en A y B, esto es necesario para mantener las sumas
independientes de la manipulacion que sigue. La contabilidad notacional esta trabajando aqu,
12
DE ALGEBRA
(1.35)
Como hemos restringido nuestra atencion a sistemas cartesianos donde los vectores bases son
ortogonales, tenemos
1 i=j
ei ej =
.
(1.36)
0 i=j
2
A
B
1
Figura 1.3: El producto punto.
La delta de Kronecker
ij =
1 i=j
,
0 i=j
(1.37)
facilita los calculos que involucran productos puntos. Usandola, podemos escribir ei ej = ij ,
en la ecuacion (1.35) se transforma en
A B = Ai Bj ij .
(1.38)
La ecuacion (1.38) puede ser expandida haciendo explcitas las sumas sobre ambos ndices
A B = A1 B1 11 + A1 B2 12 + A1 B3 13 + A2 B1 11 + . . . .
(1.39)
Ya que la delta de Kronecker es cero a menos que los subndices sean iguales. La ecuacion
(1.39) se reduce a solo tres terminos.
A B = A1 B1 + A2 B2 + A3 B3 = Ai Bi .
(1.40)
(1.41)
13
En la ecuacion (1.38) la delta de Kronecker puede ser agrupada con el factor Bj ,y contrada
sobre j para dar
Ai (Bj ij ) = Ai Bi .
(1.42)
De la misma manera podemos agruparla con el factor Ai , y sumar sobre i para dar un
resultado equivalente
Bj (Ai ij ) = Bj Aj .
(1.43)
Esto es cierto para expresiones mas complicadas. Por ejemplo,
Mij (Ak ik ) = Mij Ai
o
Bi Tjk (
em jm ) = Bi Tjk ej .
(1.44)
Esta flexibilidad es una de las cosas que hace los calculos realizados con notacion de Einstein
mas facil que trabajar con notacion de matrices.
Deberamos precisar que la delta de Kronecker tambien puede ser vista como una matriz
o arreglo matricial. En tres dimensiones esta representacion llega a ser
1 0 0
ij [1] = 0 1 0 .
(1.45)
0 0 1
Esta matriz puede ser usada para escribir la ecuacion (1.38) en notacion matricial. Notemos que la contraccion sobre el ndice i suma sobre las filas de la matriz [1], mientras que la
contraccion sobre j suma sobre las columnas. As, la ecuacion (1.38) en notacion matricial es
1 0 0 B1
A B [A] [1] [B] = A1 A2 A3 0 1 0 B2
0 0 1 B3
= [A] [B] .
(1.46)
El producto cruz
El producto cruz o producto vectorial entre dos vectores A y B forma un tercer vector
C, el cual puede ser escrito como
C =AB .
(1.47)
La magnitud del vector C es
|C| = |A||B| sen ,
(1.48)
donde es el angulo entre los dos vectores, como muestra la figura (1.4). la direccion de
C depende de que el sistema de coordenadas sea derecho. Por convencion, los sistemas de
coordenadas tridimensionales en fsica son usualmente derechos. Extendiendo los dedos de la
manos derecha tal que ellos queden alineados con el vector base e1 . Ahora, enrollemoslos hacia
el vector base e2 . Si el pulgar apunta a lo largo del vector base e3 el sistema de coordenadas
es derecho. Cuando un sistema de coordenadas esta dispuesto de esta manera la direccion del
producto cruz sigue una regla similar. Para determinar de C en la ecuacion (1.47), apunte
DE ALGEBRA
14
(1.49)
det
(1.50)
Esta u
ltima expresion puede ser escrita usando la notacion de Einstein, con la presentacion
del smbolo de Levi-Civita ijk :
A B = Ai Bj ek
donde
ijk
ijk
es definido como
(1.51)
(1.52)
15
313
k
j
111
ijk
331
Figura 1.5: El arreglo de 3 3 3 de Levi-Civita
El producto cruz, escrito usando notacion de Einstein en la ecuacion (1.51), y el producto
tiles para el calculo manual y lo
punto, escrito en la forma de la ecuacion (1.38) son muy u
veremos en los siguientes ejemplos
1.2.3.
C
alculos usando notaci
on de Einstein.
Ahora veremos algunos ejemplos para mostrar el uso de la notacion de Einstein. El primer
ejemplo muestra que la magnitud de un vector no es afectada por rotaciones. El objetivo
primario de este ejemplo es mostrar como una derivacion que es realizada enteramente con
notacion matricial tambien puede ser realizada usando notacion de subndices. El segundo
ejemplo deriva una identidad vectorial conocida. Este ejemplo muestra como la notacion de
subndices es una poderosa herramienta para derivar complicadas relaciones vectoriales.
Ejemplo 1
Volvamos a la figura de la rotacion (1.2), y consideremos el producto AA y A A , primero
usando notacion matricial y luego usando notacion de Einstein. Ya que A es generada por
una rotacion simple de A sabemos que estos dos productos puntos, los cuales representan la
magnitud al cuadrado de los vectores, debera ser iguales.
Usando matrices:
A A = [A] [A]
A A = [A ] [A ] .
(1.53)
(1.54)
16
DE ALGEBRA
[A ] = [A] [R()] ,
(1.55)
donde R() es la matriz de rotacion definida en la ecuacion (1.23). Si estas dos ecuaciones
son reemplazadas en la ecuacion (1.54), tenemos
A A = [A] [R()] [R()] [A] .
(1.56)
cos sen
sen cos
cos sen
1 0
=
sen cos
0 1
(1.57)
(1.58)
(1.59)
Para llegar a este resultado usando matrices, tuvimos cuidado en hacer las operaciones de
matrices en el orden correcto.
Ahora repitamos la derivacion usando notacion de Einstein. La ecuacion (1.40) nos permite
escribir
A A = Ai Ai
(1.60)
A A = Aj Aj .
(1.61)
Notemos que debemos ser cuidadosos en usar diferentes subndices para las dos sumas en las
ecuaciones (1.60) y (1.61). Esto asegura mantenerlas independientes cuando ellas sean manipuladas en los siguientes pasos. Las componentes primas pueden ser expresadas en terminos
de las componentes sin primas como
Ai = Rij Aj ,
(1.62)
donde Rij es el ij-esimo elemento de la matriz de rotacion R(). Insertando esta expresion
en la ecuacion (1.61) obtenemos
A A = Rru Au Rrv Av ,
(1.63)
donde nuevamente hemos sido cuidadosos en usar diferentes subndices u y v. Esta ecuacion
tiene tres sumas implcitas, sobre los ndices r, u y v.
Un la notacion con subndices, a diferencia de la notacion de matrices, el orden de los
terminos no es importante, as podemos rearreglar la ecuacion (1.63) tal que quede
A A = Au Av Rru Rrv .
(1.64)
17
Ahora nos concentramos en la suma sobre r, la cual solo involucra los elementos de matriz
de [R] en el producto Rru Rrv . Que significa este producto? Al comparar con las operaciones
discutidas previas. En la ecuacion (1.12) precisamos la expresion en subndices Mij Njk representa el producto regular de matrices [M ] [N ] porque el ndice sumado j esta en la segunda
posicion de la matriz [M ] y en la primera posicion en la matriz [N ]. La expresion Rru Rrv ,
sin embargo, tiene una contraccion sobre el primer ndice en ambas matrices. Para que este
producto tenga sentido, escribimos la primera instancia de [R] usando la transpuesta:
Rru Rrv [R] [R] .
(1.65)
Rru Rrv = uv .
(1.66)
De la ecuacion (1.57)
Substituyendo este resultado en la ecuacion (1.64) nos da
A A = Au Av uv = Au Av = A A .
(1.67)
Obviamente, este ejemplo es muy facil. No quedo demostrada ninguna ventaja entre la notacion de Einstein y la notacion de matrices. Sin embargo, se destaca su equivalencia. En el
siguiente ejemplo la notacion de Einstein probara ser mas indispensable
Ejemplo 2
La notacion de Einstein permite la derivacion de identidades vectoriales que parecen
imposibles usando otra manera. El ejemplo que trabajaremos sera la derivacion de la identidad
del doble producto cruz entre tres vectores A (B C). Este ejemplo muestra la mayora
de las operaciones comunes que ocurren en este tipo de manipulaciones.
La expresion A(B C) esta escrita en notacion vectorial y es valida en cualquier sistema
de coordenadas. Para derivar nuestra identidad, convertiremos esta expresion en notacion
de Einstein en un sistema de coordenadas Cartesiano. Al final retornaremos a la notacion
vectorial para obtener un resultado que no dependa de ning
un sistema de coordenadas. En
este ejemplo, necesitaremos usar la forma de subndices de un vector
V = Vi ei ,
(1.68)
(1.69)
ijk
(1.70)
(1.71)
ijk
(1.72)
18
DE ALGEBRA
rst
(1.73)
(1.74)
t rst
ijs e
(1.75)
(1.76)
ijs rst
Para proceder, necesitamos desarrollar algunas de las propiedades del smbolo de LeviCivita. Primero, de acuerdo a la definicion dada en la ecuacion (1.52) es claro que intercambiar
cualquier par de ndices solo cambia el signo, i.e
ijk
ikj
jki
(1.77)
(1.80)
En este punto uno puede realmente ver la utilidad de la notacion de Einstein. Los factores en
los dos terminos del LD de la ecuacion (1.80) pueden ser arreglados, agrupados de acuerdo a
las sumas, y volver a la notacion vectorial en solo dos lneas! El procedimiento es
A (B C) = (Aj Cj )(Bi ei ) (Ai Bi )(Cj ej )
= (A C)B (A B)C .
(1.81)
(1.82)
La ecuacion (1.81) es valida solo en un sistema Cartesiano. Como la ecuacion (1.82) esta en
notacion vectorial, esta es valida en cualquier sistema de coordenadas.
Captulo 2
Operadores en campos escalares y
vectoriales.
versi
on final 1.0-0804151
Un campo es una funcion que depende del espacio y algunas veces tambien del tiempo. El
potencial electrico, la densidad de carga, la temperatura y la presion son solo una magnitud,
y estan descritos por campos escalares. En cambio, el campo electrico, el campo magnetico,
la gravedad, la densidad de corriente o la velocidad de un fluido tienen magnitud y direccion
y son descritos por campos vectoriales.
Los operadores diferenciales e integrales en campos escalares y vectoriales pueden ser
expresados de forma unvoca usando la notacion y el formalismo de operadores, los cuales
veremos en este captulo.
2.1.
2.1.1.
Los dibujos de los campos escalares son mucho mas faciles de construir que los campos
vectoriales, ya que los campos escalares estan caracterizados por un valor u
nico en cada punto
del espacio y del tiempo. Consideremos un ejemplo: el potencial electrico producido por
dos lneas uniformes con carga 0 , las cuales estan ubicadas en (x = 1, y = 0). Para este
caso, sabemos que
= 0 ln
(x + 1)2 + y 2
(x 1)2 + y 2
(2.1)
19
20
Figura 2.1: Equipotenciales y lneas de campo electrico de dos lneas paralelas de carga.
2.1.2.
Como los vectores poseen magnitud y direccion, los dibujos de los campos que componen
son mas complicados que los campos vectoriales. Por ejemplo, las componentes cartesianas
del campo electrico del ejemplo de la seccion anterior son
x2 y 2 1
= 40
x
[(x 1)2 + y 2 ][(x + 1)2 + y 2 ]
2xy
Ey =
= 40
y
[(x 1)2 + y 2 ][(x + 1)2 + y 2 ]
Ex =
(2.2)
.
(2.3)
Un campo vectorial es dibujado tpicamente construyendo lneas tangentes al campo vectorial en cada punto del espacio. Por convencion, la densidad de estas lneas de campo indican
la magnitud del campo, y flechas muestran su direccion. Si suponemos que las lneas de campo electrico que expresan las ecuaciones (2.2) y (2.3) esta dada por la ecuacion y = y(x),
entonces
dy(x)
Ey
2xy
.
=
= 2
dx
Ex
x y2 1
(2.4)
(2.5)
donde c es una constante de integracion. Esta constante puede ser variada desde a
para generar la familia de lneas de
campo. Para este caso, estas lneas son crculos centrados
en y = c con un radio dado por 1 + c2 . Estas son mostradas como lneas solidas en la
figura 2.1. Las flechas indican como el campo apunta desde la carga positiva a la negativa.
Recordemos que donde las lneas estan mas densamente pobladas (entre las dos cargas) es
donde el campo electrico es mas fuerte.
2.2.
2.2.1.
21
Operadores vectoriales.
Notaci
on del operador integral.
El gradiente, la divergencia y el rotor estan descritos naturalmente por su forma de operador. Esto es, que ellos son representados por un smbolo que opera sobre otra cantidad.
Por ejemplo, el gradiente de es escrito por . Aqu el operador es , el cual act
ua sobre
el operando , lo cual resulta en el gradiente.
En cambio, la integral no es generalmente escrito en su forma de operador. La integral de
f (x) sobre x es escrita de la siguiente forma
f (x) dx ,
(2.6)
la cual no esta escrita en su forma de operador ya que la integral y el operando f (x) estan
mezclados. Sin embargo, podemos poner la ecuacion (2.6) en forma de operador reorganizando
los terminos en la ecuacion, como sigue
dx f (x) .
(2.7)
2.2.2.
dx x2 (x + y) .
(2.8)
Integrales de lnea.
W =
(2.9)
(2.10)
Ya que la ecuacion (2.9) esta escrita en notacion vectorial, es valido en cualquier sistema
de coordenadas. En el sistema de coordenadas Cartesiano, dr = dxi ei y la ecuacion (2.9) se
convierte en
22
dr
dr F =
W =
C
dxi Fi .
(2.11)
Notemos que la cantidad producida por esta integracion es un escalar, ya que el subndice i
esta sumado implcitamente.
Hay otras operaciones integrales, las cuales son poco comunes. Por ejemplo, el operador
dr = ei
dxi
(2.12)
act
ua sobre el escalar para producir un vector. Otro ejemplo,
dr v = ek
C
dxi
ijk vj
(2.13)
genera un vector usando el producto cruz. Notemos que todas las expresiones con subndices
estan escritas en el sistema Cartesiano donde la base de vectores es ortonormal e independientes de la posicion.
2.2.3.
Integrales de superficie.
(2.14)
donde d es un vector que representa un area diferencial. Este vector tiene una magnitud
igual a un area diferencial de S, y una direccion perpendicular a la superficie. Si escribimos
el diferencial de area como d y el vector unitario normal n
, el vector de area diferencial
puede ser reescrito como d = n
d. Como la superficie tiene dos lados, hay un problema
para definir n
. Para una superficie simple y cerrada, como por ejemplo la que se muestra
en la figura 2.3(a), definimos n
para que siempre apunte hacia afuera. Si la superficie no es
cerrada, es decir, no encierra un volumen, la direccion de n
es definida por el camino cerrado
C que define los bordes de la superficie, y la regla de la mano derecha, como se muestra en
la figura 2.3(b).
Frecuentemente, el operador integral de superficie act
ua sobre una cantidad vectorial
mediante el producto punto
23
000000
111111
1111111111111111111
0000000000000000000
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
d
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
000000
111111
0000000000000000000
1111111111111111111
00000000000000
11111111111111
000000
111111
00000000000000
11111111111111
000000
111111
00000000000000
11111111111111
000000
00000000000000111111
11111111111111
000000
111111
C
1111111111111111111
0000000000000000000
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
d
(a)
(b)
d v .
(2.15)
En coordenadas cartesianas,
d = di ei ,
(2.16)
di vi .
(2.17)
di ,
(2.18)
di
ijk vj
(2.19)
2.2.4.
Integrales de volumen.
Las integrales de volumen son los operadores integrales mas sencillos, ya que las variables
de integracion son escalares. Son escritas
d ,
(2.20)
24
d .
(2.21)
(2.22)
2.3.
(2.23)
Operadores diferenciales.
Por su definicion, los campos son funciones de la posicion. Analogamente a como cambia
una funcion de una variable, lo cual esta descrito por su derivada, la dependencia de la
posicion de un campo escalar puede ser descrito por su gradiente, y la dependencia de la
posicion de un campo vectorial puede ser descrito por su rotor y su divergencia. El operador
nabla es usado para describir estas tres operaciones fundamentales.
El operador esta escrito en una notacion independiente del sistema de coordenadas.
Este puede ser expresado con notacion de Einstein en el sistema cartesiano como
.
(2.24)
xi
Esta expresion sera vista en otros sistemas de coordenadas en el captulo siguiente.
Cuando opera sobre un campo escalar, el operador produce un vector llamado el gradiente
= ei
(x1 , x2 , x3 )
.
(2.25)
xi
Por ejemplo, en electroestatica el campo electrico es igual a menos el gradiente del potencial
electrico
(x1 , x2 , x3 ) = ei
(x1 , x2 , x3 )
.
(2.26)
xi
El operador nabla tambien act
ua sobre campos vectoriales va el producto punto o el producto
cruz. La divergencia de un campo vectorial es una cantidad escalar creada usando el producto
punto
E = =
ei
Ai
Aj ej =
.
(2.27)
xi
xi
La densidad de carga en una region del espacio puede ser calculada usando la divergencia
de la relacion
A = ei
E = 4 .
(2.28)
25
ei
xi
Aj
xi
Aj ej =
k
ijk e
(2.29)
donde hemos utilizado el smbolo de Levi-Civita para expresar el producto cruz en notacion
de Einstein. Una de las ecuaciones de Maxwell relaciona el campo electrico con la tasa de
cambio del campo magnetico usando el rotor,
E =
2.3.1.
1 B
.
c t
(2.30)
El gradiente de un campo escalar es un vector que describe, en cada punto, como el campo
cambia con la posicion. Aplicando producto punto a ambos lados de la ecuacion (2.25) con
dr = dxi ei obtenemos
dr = dxi ei ej
.
xj
(2.31)
dxi .
xi
(2.32)
El lado derecho de esta expresion puede ser reorganizado como la diferencia total de carga
de debido al cambio diferencial de posicion dr. El resultado puede ser escrito en notacion
vectorial como sigue
d = dr .
(2.33)
(2.34)
(2.35)
26
(2.36)
Esto dice que disminuye en 2 unidades por cada paso infinitesimal en esa direccion. En
cambio, si estamos sentados en el punto (3, 4) y nos movemos una cantidad infinitesimal dr,
con un angulo de 45 con respecto al eje x, cambia de la siguiente forma
d = dr
dr
ex + ey )
= (4
ex 3
ey ) (
2
7
= dr .
2
(2.37)
Notemos que estos cambios son por pasos infinitesimales. Para calcular el cambio de
sobre un camino finito, donde el gradiente cambia mientras nos vamos moviendo punto a
punto, necesitamos usar la integral de lnea
dr .
(2.38)
(2.39)
27
Usando esta convencion, si nos movemos en contra de las lneas de campo aumenta. Para
el potencial de la ecuacion (2.34), el gradiente negativo es
= y
ex + x
ey .
(2.40)
Las lneas de campo para esta funcion pueden ser determinadas como sigue
dy
dx
dy y
y2
x2 y 2
x
y
= dx x
= x2 + c
=c.
(2.41)
Estas lneas son perpendiculares a las lineas donde es constante, como es mostrado en
la figura 2.5. Notemos como la densidad de las lneas del campo vectorial muestran que la
magnitud del campo aumenta a medida que nos movemos al origen.
2.3.2.
28
entrar o salir de este volumen, y despues equiparar el flujo neto de partculas con cuantas
partculas salieron o entraron con el consecuente cambio en . Si llamamos N d al
n
umero total de partculas en el volumen infinitesimal, tenemos
N
(x0 , y0 , z0 , t)
=
dx dy dz .
t
t
(2.42)
1111111111111111111111
0000000000000000000000
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
dz
1111111111111111111111
0000000000000000000000
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
dy
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000000
1111111111111111111111
x
y
z
( 0 , 0 , 0)
dx
(2.43)
vz
vz ( x 0 , y0 , z 0 + dz ) dt
dz
dz
vz
vz ( x 0 , y0 , z 0 ) dt
dy
( x 0 , y0 ,z 0 )
dx
dy
( x 0 , y0 ,z 0 )
dx
(a)
(b)
29
Ninferior
= Jz (x0 , y0 , z0 , t) dx dy .
t
(2.44)
El mismo tipo de calculo se hace de forma analoga para la cara superior mostrada en la
umero de partculas en
figura 2.6. La figura 2.7(b) muestra que ahora vz positivo acarrea el n
la region sombreada del volumen. Este lado contribuye
Nsuperior
= Jz (x0 , y0 , z0 + dz, t) dx dy
t
(2.45)
al cambio total N/t. Notemos que en este caso, evaluamos Jz en el punto (x0 , y0 , z0 + dz).
Combinando las ecuaciones (2.44) y (2.45) obtenemos
Ninferior Nsuperior
+
= [Jz (x0 , y0 , z0 , t) Jz (x0 , y0 , z0 + dz, t)] dx dy .
t
t
(2.46)
Esta expresion puede ser escrita en terminos de la derivada de Jz , ya que en el lmite diferencial
tenemos
Jz (x0 , y0 , z0 + dz, t) = Jz (x0 , y0 , z0 , t) +
Jz
z
dz .
(2.47)
dx dy dz .
(2.48)
Realizando el proceso analogo para las otras cuatro superficies se obtienen resultados similares. Por tanto, el flujo total en el volumen diferencial es
Jx
N
=
t
x
Jy
y
Jz
z
dx dy dz .
(2.49)
Lo cual es reconocido como J por d . Combinando este resultado con la ecuacion (2.42),
obtenemos la ecuacion de continuidad
= J .
t
(2.50)
Para una cantidad positiva de la divergencia de J, mas partculas estan dejando la region
que entrando en ella, por tanto /t es negativo.
Este ejercicio nos provee la interpretacion fsica de la divergencia. Si la divergencia de un
campo vectorial es positiva en una region, la region es una fuente. Las lneas de campo nacen
en las regiones tipo fuente. Por otra parte, si la divergencia en una region es negativa, la region
es considerada un sumidero. Las lneas de campo mueren en las regiones tipo sumidero. Si
la divergencia de un campo vectorial es cero en una region, todas las lneas de campo que
entran deben salir de esa region.
30
2.3.3.
(a)
(b)
x
y
v =
ez
(2.51)
(2.52)
dr v =
C1
dx vx .
x0
(2.53)
31
C3
C4
C2
(x0 , y0)
C1
11
00
00
11
00
11
00
11
vx
x
(x x0 ) .
(2.54)
(x0 ,y0 )
No mantendremos los terminos de mas alto orden, ya que no haran ninguna diferencia significativa en los resultados. Sustituyendo la ecuacion (2.54) en (2.53) y realizando la integracion,
obtenemos
dr v vx (x0 , y0 )x +
C1
1 vx
2 x
(x)2 .
(2.55)
(x0 ,y0 )
dr v =
dx vx .
(2.56)
x0 +x
C3
vx
x
(x x0 ) +
(x0 ,y0 )
vx
y
y .
(2.57)
(x0 ,y0 )
1 vx
2 x
(x)2
(x0 ,y0 )
vx
y
xy .
(2.58)
(x0 ,y0 )
dr v
C3
vx
y
xy .
(x0 ,y0 )
(2.59)
32
Si hacemos el proceso analogo para los caminos C2 y C4 , podemos combinar todos los resultados, obteniendo
vy
x
dr v
C
(x0 ,y0 )
vx
y
xy .
(2.60)
(x0 ,y0 )
El error de la ecuacion (2.60) desaparece cuando las dimensiones del camino disminuyen
a dimensiones infinitesimales, es decir cuando x 0 y y 0. Ademas, utilizando la
ecuacion (2.51), el termino entre parentesis del lado derecho de la ecuacion (2.60) puede ser
identificado como la componente z de v. Por tanto, podemos escribir
dr v = ez ( v) lm
lm
C0
s0
dz ,
(2.61)
C,S0
dr v
.
d
z
S
(2.62)
0000000
1111111
1111111
0000000
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
0000000
1111111
(a)
(b)
Figura 2.10: Campos con rotor cero, figura (a) y distinto de cero, figura (b).
Hemos derivado la ecuacion (2.61) en dos dimensiones y solo escogimos la componente z
del rotor. La generalizacion de este resultado a tres dimensiones y cualquier orientacion del
camino diferencial viene dada por
dr v = ( v) lm
lm
C0
2.3.4.
33
s0
d .
(2.63)
La notacion de Einstein facilita mucho el trabajo al tener que demostrar igualdades con
los operadores diferenciales. Las relaciones presentadas en esta seccion son similares a las
identidades vectoriales discutidas en el captulo anterior, excepto que ahora debemos considerar las reglas del calculo diferencial. Como las identidades vectoriales, utilizaremos el
sistema de coordenadas cartesiano, pero los resultados finales estan expresados en notacion
vectorial independiente del sistema de coordenadas.
Ejemplo 1: Consideremos la expresion de operadores (). Escribamos esta expresion
en notacion de Einstein, hagamos la sustitucion
= ei
.
xi
(2.64)
Los dos operadores en la expresion original debe ser escrita usando ndices independientes
() = ei
ej
xi
xj
(2.65)
xi xj
= ij
xi xj
=
xi xi
2
2
2
=
+
+
x21 x22 x23
() = (
ei ej )
(2.66)
En la u
ltima lnea hemos escrito la suma explcitamente para hacer notar como se trabaja
con la notacion para este caso. La ecuacion (2.66) puede ser escrita en notacion vectorial
definiendo el operador laplaciano 2 como
2 = =
xi
xi
2
2
2
+
+
x21 x22 x23
(2.67)
por tanto
() = 2
(2.68)
34
ecuaciones de Maxwell. Para escribir esto en notacion de Einstein, usaremos los smbolos de
Levi-Civita,
vs rsj
xi xr
El algebra para encontrar la relacion es como sigue
v =
xi
=
xi
=
xi
=
xi
=
xk
v =
k
ijk e
vs
k
rsj ijk e
xr
vs
k
rsj ikj e
xr
vs
(ri sk rk si ) ek
xr
vi
vk
ek
ek
xk
xi xi
vi
(vk ek )
ek
.
xi
xi
xi
(2.69)
(2.70)
As, el lado derecho de la ecuacion (2.70) es convertida a notacion vectorial para obtener la
igualdad
v = v 2 v .
(2.71)
Notemos que el operador Laplaciano puede actuar tanto en campos escalares como vectoriales. En la ecuacion (2.68) el Laplaciano opera en un campo escalar, obteniendo un escalar.
En cambio, en la ecuacion (2.71) opera sobre un campo vectorial, obteniendo un vector.
2.4.
En las ecuaciones (2.25), (2.27) y (2.29) se muestran relaciones para hacer calculos con la
divergencia, el gradiente y el rotor. Cada una de estas relaciones son validas solo en un sistema
de coordenadas cartesianas y estan en terminos de las derivadas espaciales de los campos.
Las definiciones integrales de cada operador tambien existen. Ya derivamos la expresion para
el rotor en la ecuacion (2.63). En esta seccion, presentamos definiciones similares para el
gradiente y la divergencia. Sus derivaciones, las cuales son similares a la ecuacion (2.63)
estan en los textos de calculo. Solo presentaremos los resultados.
El gradiente de un campo escalar en un punto particular puede ser generado por
ds
,
(2.72)
S,V 0
d
V
donde V es el volumen que incluye el punto de interes y S es la superficie cerrada que encierra
a V . Tanto V como S deben ser reducidas a tama
no infinitesimal para que esta relacion se
cumpla.
= lm
35
A = lm
S,V 0
d A
.
d
V
(2.73)
lm
C0
S0
ds .
(2.74)
Esta definicion es un poco torpe, ya que requiere el calculo de tres integrales diferentes,
cada una con diferentes orientaciones de S, para obtener las tres componentes del rotor. La
definicion integral que daremos a continuacion no tiene este problema, pero usa una forma
poco com
un de integral de superficie
S
A = lm
S,V 0
2.5.
d A
.
d
V
(2.75)
Los teoremas.
2.5.1.
Teorema de Gauss.
S0
d A .
(2.76)
d A +
S1
d A .
(2.77)
S2
36
d 1
1111111111
0000000000
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
1111111111
0000000000
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
0000000000
1111111111
d 2
d 1
d2
A . d1 + A . d2 = 0
A d1 + A d2 =
d A ,
(2.78)
S1+2
donde S1+2 es la superficie exterior que encierra tanto como a d1 como d2 , como es mostrado
umenes diferenciales contiguos
en la figura 2.12. Podemos continuar este proceso sumando vol
para formar un volumen arbitrario V encerrado por una superficie cerrada S. El resultado es
llamado el Teorema de Gauss
d A =
V
d 1 + d 2
d A .
(2.79)
S
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
11111111111111111111
00000000000000000000
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
00000000000000000000
11111111111111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
0000000000
1111111111
00000000000
11111111111
S 1+2
2.5.2.
Teorema de Green.
El teorema de Green puede ser escrito de dos formas y se puede derivar directamente
usando el Teorema de Gauss y algunas manipulaciones algebraicas. Comencemos considerando la expresion (uv), donde u y v son campos escalares. Usando una identidad de
operadores, la cual puede ser demostrada facilmente, podemos escribir
(uv) = u v + u2 v .
Cambiando u con v, tenemos
(2.80)
37
(v u) = v u + v2 u .
(2.81)
(2.82)
d (uv v u) =
S
(2.83)
d (uv) =
S
2.5.3.
(2.84)
Teorema de Stokes.
C0
dr A ,
(2.85)
dr A
(2.86)
C1+2
00000000000
11111111111
00000000000
11111111111
11111111111
00000000000
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
00000000000
11111111111
C2
C1
d2
d1
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
1111111111111111111
0000000000000000000
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
C1+2
d1 + d2
38
sumadas para formar una superficie S arbitraria y el contorno cerrado C el cual rodea a S.
El resultado es el Teorema de Stokes
d ( A) =
dr A .
(2.87)
Hay una consecuencia importante del Teorema de Stokes para los campos vectoriales que
tienen rotor cero. Tales campos pueden ser siempre derivados desde un potencial escalar. Es
decir, si A = 0 en todo el espacio, existe una funcion escalar (r) tal que A = . Para
ver esto, consideremos los puntos 1 y 2 y dos caminos A y B arbitrarios entre ellos, como se
muestra en la figura 2.14. Una integral de lnea cerrada puede ser formada combinando los
caminos A y el contrario del camino B. Si A = 0 en todos lados, la ecuacion (2.87) nos
permite escribir
dr A
dr A =
dr A = 0 ,
(2.88)
o
dr A =
A
dr A .
(2.89)
La ecuacion (2.89) nos dice que la integral de lnea de A entre los dos puntos es independiente
del camino que se elija. Esto significa que es posible definir una funcion escalar de la posicion
(r) tal que su diferencial total este dado por
d = dr A .
(2.90)
Es convencional poner el signo negativo tal que aumente cuando se mueve en contra de
las lneas de campo de A. Reemplazando la ecuacion (2.90) en las integrales de lnea (2.89)
muestra que estas integrales de lnea son iguales a
2
d = (1) (2) .
(2.91)
Recordando la ecuacion (2.33), es claro que la condicion de la ecuacion (2.90) puede ser
reescrito como
Punto 2
Camino A
Camino B
Punto 1
39
A = .
(2.92)
2.5.4.
Teorema de Helmholtz.
w = 0 en la region
w = 0 en la region
n
w = 0 en la superficie.
(2.93)
(2.94)
d () + .
(2.95)
d ( w w w) .
V
(2.96)
40
d w w =
V
(2.97)
(2.98)
(2.99)
(2.100)
(2.101)
ya que la divergencia, el rotor y la componente normal estan todas fijas si A y estan fijos,
el Teorema de Helmholtz dice que v es u
nico. Notemos que la contribucion a v que viene
de A no tiene divergencia, ya que ( A) = 0. Esto es llamado el rotacional o la parte
solenoidal del campo y A es llamado el potencial vector. La porcion de v que viene de
no tiene rotor, ya que = 0. Esto es llamado la parte irrotacional del campo y es
llamado el potencial escalar.
Captulo 3
Sistemas de Coordenadas Curvilneos.
versi
on final 1.0-0804151
x
x + y y + z z
.
2
(x + y 2 + z 2 )3/2
(3.1)
En contraste, un sistema esferico, descrito por las coordenadas (r, , ), explota completamente la simetra de este campo y simplifica la ecuacion (3.1) a
E=
q
r ,
r2
(3.2)
3.1.
El vector posici
on
41
42
e1
e1
P
r (P)
r (P)
P
11
00
00
11
00
11
11
00
00
11
00
11
e2
e2
Parece natural dibujar el vector posicion entre el origen y P como muestra la figura
3.1a. Aunque esto esta bien para sistemas de coordenadas cartesianas, esto puede acarrear
dificultades en sistemas curvilneos. Los problemas surgen debido a la dependencia de la
posicion de los vectores base del sistema curvilneo. Cuando dibujamos un vector, debemos ser
cuidadosos de donde esta ubicado. Si no lo hacemos, podra no ser claro como descomponer
el vector en terminos de su base. A pesar de esta dificultad, el vector y su base podran
ser dibujados partiendo desde un mismo punto. Las componentes del vector curvilneo son
entonces facilmente obtenidas proyectando el vector en sus bases. Consecuentemente, para
determinar las componentes del vector posicion, es mejor dibujarlo, as como sus vectores
base, emanando desde P . Esto es mostrado en la figura 3.1b. Hay situaciones, sin embargo,
en que es mejor dibujar el vector posicion desde el origen. Por ejemplo, integrales de lnea,
como la mostrada en la figura 2.2 son mejor descritas de esta forma, porque la punta del
vector posicion sigue el camino de integracion. Nosotros ubicaremos el vector posicion como
se muestra en la figura 3.1, dependiendo de cual es la mas apropiada para la situacion dada.
En coordenadas cartesianas, la expresion para el vector posicion es intuitiva y simple:
r = ri ei = xi ei
(3.3)
Las componentes (r1 , r2 , r3 ) son facilmente identificadas como las coordenadas cartesianas
(x1 , x2 , x3 ). Formalmente, r1 es obtenida haciendo el producto punto entre el vector base e1
y el vector posicion r:
r1 = e1 r = x1
(3.4)
Si bien esto puede parecer exagerada, esta tecnica puede ser usada para encontrar las componentes de un vector en cualquier sistema de coordenadas ortogonales.
3.2.
El sistema cilndrico
Las coordenadas de un punto P descrito en un sistema cilndrico son (, , z). Las ecuaciones
43
x = cos
y = sen
z=z
(3.5)
= x2 + y 2
= tan1 (y/x)
z=z
(3.6)
e e = e ez = ez e = 0
e e = e e = ez ez = 1
(3.7)
r = (r e ) e + (r e ) e + (r ez ) ez
(3.8)
44
ez
000
111
111
000
000
111
000
111
000
111
000
111
000
111
000
111
1
0
000
111
000
111
000
111
000
111
111
000
111
000
000
111
000
111
z
1
0
x
Figura 3.2: El sistema cilndrico
z
ez
1111
0000
0000
1111
0000
1111
0000
1111
0000
1111
000000
111111
000
111
0000
1111
1
0
000000
111111
000
111
000000
111111
000
111
000000
111111
000
111
000000
111111
000
000000111
111111
000
111
000000
111111
000
000000111
111111
000
111
000000
111111
000
111
000000
111111
000000
111111
000000
111111
000000
111111
ez
111111
000000
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
000000
111111
0000
1111
000000
111111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
x
Figura 3.3: El vector posicion en el sistema cilndrico
Notemos que e esta siempre perpendicular a r, como se muestra en la figura 3.3, por lo
tanto la ecuacion (3.8) se reduce a
r = r e + rz ez
(3.9)
La version bidimensional del sistema cilndrico, con solo las coordenadas (, ), es llamado
un sistema polar plano. Este sistema, mostrado en la figura 3.4a, tiene vectores base e y e .
El vector posicion, mostrado en la figura 3.4b, tiene solo una componente y es expresado
como
r = e
(3.10)
3.3. SISTEMA ESFERICO
45
Recuerde que un vector arbitrario v, a diferencia del vector posicion, puede tener ambas
componentes ( y ), como se muestra en la figura 3.5.
e
11
00
00
11
00
11
11
00
00
11
00
11
x
Figura 3.4: El sistema polar
v
y
r
e
r
11
00
00
11
00
11
x
Figura 3.5: Componentes polares de un vector
3.3.
Sistema esf
erico
x = r sen cos
y = r sen sen
z = r cos
y las inversas
(3.11)
46
r=
x2 + y 2 + z 2
x
= cos1
x2 + y 2
(3.12)
= cos1
x2 + y 2 + z 2
er e = er e = e e = 0
er er = e e = e e = 1
(3.13)
z
e
1
0
111 r
000
000
111
000
111
000
111
00000
11111
000
111
00000
11111
000
111
00000
11111
000
111
0000
1111
1
0
00000
11111
000
111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
0000
1111
y
x
y
x
47
z
er
1
0
er
11
00
e
e
y
x
Figura 3.7: El vector posicion en coordenadas esfericas
El vector posicion, mostrado en la figura 3.7, esta expresado en el sistema esferico como
r = (r e ) e + (r e ) e + (r e ) e
(3.14)
3.4.
(3.15)
Aunque los mas comunes, el sistema de coordenadas cilndricas y el sistema de coordenadas polares esfericas son solo dos ejemplos de una gran familia de sistemas curvilneos.
Un sistema es clasificado como curvilneo si este tiene vectores base ortonormales, pero no
necesariamente constantes. Otros sistemas curvilneos menos comunes son el toroidal, el hiperbolico y el elptico. En lugar de trabajar individualmente con las operaciones vectoriales
del captulo anterior para cada uno de estos sistemas, se presenta un enfoque general que
pueda abordar cualquier geometra curvilnea.
3.4.1.
48
z
q1
11
00
00
11
q2
q3
y
x
Figura 3.8: Coordenadas curvilneas y vectores bases
xi = xi (q1 , q2 , q3 )
qi = qi (x1 , x2 , x3 ) ,
(3.16)
(3.17)
r/qi
hi
(3.18)
donde hi = |r/qi |. Esta ecuacion es un poco confusa porque no hay una suma sobre el
ndice i en el lado derecho, aunque el ndice aparece dos veces. Esto esta sutilmente implcito
en la notacion, porque hay un subndice i al lado izquierdo. Los hi , los cuales a veces son
llamados factores de escala, obligan a los vectores base a tener largo unitario. Ellos pueden ser
escritos en terminos de las coordenadas curvilneas. Para ver esto, escriba el vector posicion
en terminos de sus componentes Cartesianas, que a su vez se escriben como funcion de las
coordenadas curvilneas:
r = xj (q1 , q2 , q3 ) ej
Para ello,
(3.19)
49
r
xj (q1 , q2 , q3 )
=
ej
qi
qi
(3.20)
r
=
hi =
qi
x1
qi
x2
qi
x3
qi
(3.21)
r
dqi
qi
= dqi hi (q1 , q2 , q3 ) qi
dr =
(3.22)
donde ahora hay una suma sobre el ndice i en el lado derecho ya que no hay subndice
en el lado izquierdo. Ya que los factores hi pueden cambiar con la posicion, un elemento
de volumen diferencial en un sistema curvilneo, no es necesariamente un cubo como en el
sistema Cartesiano. Como veremos en la proxima seccion, los lados de un volumen diferencial
en un sistema curvilneo varan en largo y pueden tener curvatura.
3.4.2.
Geometra diferencial.
50
q3
11111111111111111111111
00000000000000000000000
q2
00000000000000000000000
11111111111111111111111
)d
00000000000000000000000
11111111111111111111111
q
d
00000000000000000000000
11111111111111111111111
+
00000000000000000000000
11111111111111111111111
,q 3
00000000000000000000000
11111111111111111111111
,q 2
00000000000000000000000
11111111111111111111111
q1
(
00000000000000000000000
2
h11111111111111111111111
00000000000000000000000
11111111111111111111111
00
11
00000000000000000000000
11111111111111111111111
( q , q2 ,q + dq 11
00
) 11111111111111111111111
00
1
3
00000000000000000000000
311
00000000000000000000000
11111111111111111111111
0000000000000000000
h1111111111111111111
00000000000000000000000
11111111111111111111111
( q , q ,q +
0000000000000000000
1111111111111111111
00000000000000000000000
11111111111111111111111
dq )
q2
0000000000000000000
1111111111111111111
3 dq
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000000
1111111111111111111111
q ) dq
,
q
0000000000000000000
1111111111111111111
,
0000000000000000000000
1111111111111111111111
(q
0000000000000000000
1111111111111111111
0000000000000000000000
(q ,q ,q1111111111111111111111
) h
3
q1
(q
,q
,q )
dq
(3.23)
donde los hi estan evaluados en el punto (q1 , q2 , q3 ). La superficie diferencial de la cara sombreada inferior es
dinferior = dq1 dq2 h1 h2 q3 |(q1 ,q2 ,q3 ) ,
(3.24)
donde el signo menos es debido a que la superficie normal es antiparalela a q3 . Por el contrario,
la superficie diferencial de la cara sombreada superior es
51
(3.25)
3.4.3.
El vector desplazamiento
El vector desplazamiento dr juega un rol central en las matematicas de sistemas curvilneos. Una vez que la forma de dr es conocida, las ecuaciones para la mayora de las
operaciones vectoriales puede ser facilmente determinada. Seg
un el calculo diferencial multivariable, dr puede ser escrito
dr =
r
dqi .
qi
(3.26)
Como mostramos en la ecuacion (3.22), este puede ser escrito usando los factores de escala
como
dr = dqi hi qi ,
(3.27)
(3.28)
En coordenadas cilndricas, h1 = h = 1, h2 = h = y h3 = hz = 1 as
dr = dq1 q1 + dq2 q2 + dq3 q3
= d
e + d
e + dz
ez .
3.4.4.
(3.29)
Producto de vectores
(3.30)
Esto significa que el producto punto de dos vectores, A y B, tienen la misma forma que
en un sistema Cartesiano:
A B = Ai qi Bj qj = Ai Bj ij = Ai Bi .
(3.31)
Aqu Ai y Bi son las componentes curvilneas de los vectores, las cuales pueden ser
obtenidas tomando las proyecciones a los ejes paralelos de los vectores en los vectores base:
Ai = A qi .
(3.32)
Con el orden correcto, siempre podemos arreglar nuestras tres coordenadas curvilneas
para ser un sistema de la mano derecha. Entonces, la forma del producto cruz es tambien
52
3.4.5.
ijk
(3.33)
La integral de lnea
dqj hj qj vi qi .
(3.34)
En el lado derecho de la ecuacion hay una suma sobre i y j. Ya que la base de vectores
curvilneos es ortonormal, la integral de lnea se transforma en
dr v =
dqj hj vj .
(3.35)
3.4.6.
Integral de superficie
Las integrales de superficies curvilneas son un poco mas complicadas debido a que se debe
considerar la orientacion de la superficie. Recordando la figura 3.9 y las ecuaciones (3.24) y
(3.25), la integral de superficie de un vector V es
d V =
(3.36)
donde cada signo mas o menos debe ser elegido dependiendo del signo de d qi .
3.4.7.
La integral de volumen
La geometra de la figura 3.9 puede ser usada para derivar la forma de integrales de lnea en
sistemas curvilneos. El elemento de volumen en el lmite infinitesimal, es simplemente d =
dq1 dq2 dq3 h1 h2 h3 (q1 , q2 , q3 ). Para ello la integral de una funcion (r) sobre alg
un volumen V
es expresada como
d (r) =
V
3.4.8.
(3.37)
El gradiente
(3.38)
(3.39)
53
dqi = dqj hj qj .
qi
(3.40)
La u
nica forma de que se cumpla la ecuacion (3.40) es que
=
3.4.9.
1
hi
qi
qi .
(3.41)
La divergencia
S,V 0
d A
d
V
(3.42)
(3.43)
Para evaluar el numerador, la integracion sobre las seis superficies de V debe ser desarrollada. Primero, consideremos las dos caras sombreadas de la figura 3.9, con las normales
alineadas paralela o antiparalelamente a q3 . La integral sobre la superficie interior es
inferior
(3.44)
El signo menos surge porque en esta superficie d y q3 estan antiparalelas. Note tambien
que A3 , h1 y h2 son todas funciones de las coordenadas curvilneas y estan evaluadas en
(q1 , q2 , q3 ), el valor inicial de las coordenadas en esta superficie. La integral sobre la superficie
superior es
superior
(3.45)
En este caso no hay signo menos porque la superficie normal esta orientada paralela a q3 .
El valor inicial de la coordenada q3 ha cambiado en dq3 comparado con la superficie inferior
y por lo tanto A3 , h1 y h2 deben ser evaluados en el punto (q1 , q2 , q3 + dq3 ). En el lmite
diferencial
(h1 , h2 A3 )|(q1 ,q2 ,q3 +dq3 ) = (h1 , h2 A3 )|(q1 ,q2 ,q3 ) +
as la suma de las ecuaciones (3.44) y (3.45) es
(h1 , h2 A3 )
q3
,
(q1 ,q2 ,q3 )
(3.46)
54
d A =
ambas
(h1 h2 A3 )
dq1 dq2 dq3 .
q3
(3.47)
Combinando este resultado con integraciones similares sobre las restantes cuatro superficies
(h2 h3 A1 ) (h1 h3 A2 ) (h1 h2 A3 )
+
+
dq1 dq2 dq3 .
q1
q2
q3
d A =
S
(3.48)
3.4.10.
1
(h2 h3 A1 ) (h1 h3 A2 ) (h1 h2 A3 )
+
+
h1 h2 h3
q1
q2
q3
(3.49)
El rotor
El rotor para un sistema de coordenadas curvilneas tambien puede ser derivada desde la
definicion de integral:
A lm
S0
dr A ,
d = lm
S
C0
(3.50)
3
2
C
q1
1
Figura 3.10: Orientacion de la superficie para la integracion curvilnea del rotor
Una componente del rotor puede ser escogida orientando d en la direccion de un vector
base. Consideremos la figura 3.10, donde d esta orientado para elegir la componente q1 , en
este caso d = h2 q2 h3 dq3 q1 , as el lado izquierdo de la ecuacion (3.50) en el lmite diferencial
se convierte en
A lm
S0
55
d = dq2 dq3 h2 h3 q1 A ,
(3.51)
= dq2 dq3 h2 h3 A
.
1
dr A =
C
dq2 h2 A2 +
Ca
dq3 h3 A3 +
Cb
dq2 h2 A2 +
Cc
dq3 h3 A3 .
(3.52)
Cd
111111111111111
000000000000000
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
3
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
1
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
e
000000000000000
111111111111111
)d
,q
q
,
(q
00
(q1 ,q2 ,q3 + dq )11
00
11
00
3 11
Cb
C
Cd
111111111111111
000000000000000
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
a
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
3
000000000000000
111111111111111
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
000000000000000
111111111111111
11
00
1
000000000000000
111111111111111
11
00
000000000000000
111111111111111
000000000000000
111111111111111
2
000000000000000
111111111111111
)d
,q
q
,
(q
Ca
(3.53)
Cc
(3.54)
(h2 A2 )
q3
dq3 ,
(q1 ,q2 ,q3 )
(3.55)
56
(h2 A2 )
q3
dq2 dq3 .
(3.56)
lm
C0
(h3 A3 ) (h2 A2 )
dq2 dq3 .
q2
q3
(3.57)
=
1
1
(h3 A3 ) (h2 A2 )
h2 h3
q2
q3
(3.58)
1
(h1 A1 ) (h3 A3 )
h1 h3
q3
q1
(h2 A2 ) (h1 A1 )
1
=
h1 h2
q1
q2
=
A
3
(3.59)
,
(3.60)
Las ecuaciones (3.58)-(3.60) pueden ser usadas mas compactamente usando un determinante,
1
A=
h1 h2 h3
h1 q1
h2 q2
h3 q3
/q1 /q2 /q3
h1 A1 h2 A2 h3 A3
(3.61)
3.5.
3.5.1.
(hk Ak )
qi .
hj hk qj
ijk
(3.62)
q +
q +
qz
(3.63)
3.5. GRADIENTE, DIVERGENCIA Y ROTOR EN SISTEMAS CILINDRICOS Y ESFERICOS57
A=
A=
3.5.2.
1 (A ) 1 A Az
+
+
z
A Az
1 (A ) A
1 Az A
q +
q +
qz .
z
z
(3.64)
(3.65)
Operaciones esf
ericas
A=
1
1
qr +
q +
q
r
r
r sen
1 (r2 Ar )
1 sen A
1 A
+
+
2
r
r
r sen
r sen
(3.66)
(3.67)
1
(sen A ) A
qr +
r sen
1
1 Ar (rA )
1 (rA ) Ar
q +
q . (3.68)
r sen
r
r
r
58
Captulo 4
Introducci
on a tensores.
versi
on final 1.0-0804151
4.1.
V
.
R
(4.1)
(4.2)
59
60
A TENSORES.
CAPITULO 4. INTRODUCCION
(4.4)
Ji = ij Ej .
(4.5)
o, en notacion de Einstein
Todas estas expresiones producen el resultado deseado. Cualquier relacion lineal entre J y
E puede ser descrita. Por ejemplo, la componente 1 de la densidad de corriente esta relacionada con la componente 1 del campo electrico por 11 , mientras que la componente 2 de la
densidad de corriente esta relacionada con la componente 2 del campo electrico por 22 . Los
flujos perpendiculares estan descritos por los elementos fuera de la diagonal. Por ejemplo, el
elemento 12 describe el flujo en la direccion 1 debido a un campo aplicado en la direccion 2.
Sin embargo, la representacion matricial de la conductividad anisotropica tiene un problema fundamental. Los elementos matriciales deben depender del sistema de coordenadas.
Tal como sucede con las componentes de un vector, si reorientamos nuestro sistema de coordenadas, los valores especficos en el arreglo matricial deben cambiar. Lamentablemente, el
arreglo matricial en s no tiene la informacion sobre el sistema de coordenadas elegido. La
manera de resolver este problema para las cantidades vectoriales fue incorporar los vectores
base directamente en la notacion. La misma aproximacion puede ser usada para mejorar
la notacion para la conductividad anisotropica. Definimos un nuevo objeto, llamado el ten
sor de conductividad, que notaremos . Este objeto incluye tanto los elementos de matriz
de la matriz de conductividad como la base de vectores en el sistema de coordenadas en
cual estos elementos son validos. Como esta notacion esta motivada en la notacion vectorial,
comenzaremos con una peque
na revision de conceptos.
61
Recordemos que una cantidad vectorial, tal como el campo electrico, puede ser representado como un vector columna
E1
E E2 .
(4.6)
E3
El vector y las cantidades matriciales no son iguales, ya que la matriz no puede reemplazar
al vector E en una ecuacion vectorial y viceversa. Mas a
un, la base de vectores del sistema
coordenado en la cual el vector esta expresado debe ser incluida para formar una expresion
equivalente
E = Ei ei .
11
21
31
(4.7)
12 13
22 23 ,
32 33
(4.8)
pero el arreglo matricial y el tensor no son equivalentes, ya que el arreglo matricial no contiene
la informacion sobre el sistema de coordenadas. Siguiendo el patron usado para los vectores y
la expresion para un vector dada en la ecuacion (4.7), expresamos el tensor de conductividad
como
= ij ei ej .
(4.9)
La discusion que sigue mostrara que esta es una notacion muy poderosa. Soporta toda la manipulacion algebraica que la notacion de matrices y tambien podemos manejar con facilidad
las transformaciones entre sistemas de coordenadas.
La expresion para el tensor de conductividad en el lado derecho de la ecuacion (4.9)
contiene los elementos de la matriz de conductividad y dos bases de vectores del sistema
de coordenadas donde los elementos tienen validez. No hay operacion entre estas bases de
vectores. Ellos sirven como cajones en donde los elementos ij son colocados. Hay una doble
suma sobre los ndices i e j, por tanto, para un sistema tridimensional, habran 9 terminos
en esta suma, cada uno conteniendo dos de los vectores base. En otras palabras, podemos
expandir la conductividad como
ij ei ej = 11 e1 e1 + 12 e1 e2 + 21 e2 e1 + .
=
i
(4.10)
vi ei = v1 e1 + v2 e2 + v3 e3 .
(4.11)
Veamos como manejamos la ley de Ohm en esta nueva notacion. Usando el tensor de conductividad, podemos escribir en un sistema de coordenadas independiente y usando notacion
vector/tensor
A TENSORES.
CAPITULO 4. INTRODUCCION
62
J =E .
(4.12)
Notemos que usamos el producto punto entre el tensor de conductividad y el vector del campo
electrico en el lado derecho de esta expresion. Podemos utilizar la notacion de Einstein, y
escribir
Js es = (jk ej ek ) (El el ) .
(4.13)
Por convencion, el producto punto en la ecuacion (4.13) opera entre la segunda base vectorial
(4.14)
(4.15)
(4.16)
Las cantidades en la ecuacion (4.16) son vectores. Las componentes i-esimas de estos vectores
pueden ser obtenidos aplicando producto punto con ei a ambos lados de la ecuacion (4.16),
obteniendo
Ji = ik Ek ,
(4.17)
lo cual es identico a las ecuaciones (4.3)-(4.5). Mantengamos en mente que hay una diferencia
(4.18)
4.2.
Notaci
on tensorial general y terminologa.
El tensor de conductividad es un ejemplo especfico de un tensor que usa dos bases vectoriales y cuyos elementos tienen dos subndices. En general, un tensor puede tener una cantidad finita de subndices, pero el n
umero de subndices deben ser siempre igual al n
umero
de vectores base. Por tanto, en general
T = Tijk... ei ej ek . . . .
63
(4.19)
El n
umero de vectores base determina el rango del tensor. Notemos como la notacion tensorial
es una generalizacion de la notacion vectorial usada en los captulos previos. Los vectores son
simplemente tensores de rango uno. Los escalares pueden ser considerados como tensores de
rango cero. Mantengamos en mente el rango del tensor con el n
umero de vectores base en
el lado derecho de la ecuacion (4.19), mientras que la dimension del sistema de coordenadas
determina el n
umero de valores diferentes que un ndice en particular puede tomar. Para un
sistema tridimensional, los ndices (i, j, k, etc.) pueden tomar los valores (1,2,3) cada uno.
Esta notacion introduce la posibilidad de una nueva operacion entre los vectores, llamada
el producto diadico. Este producto es escrito tanto como A : B o simplemente AB. El
producto diadico entre dos vectores crea un tensor de rango dos
AB = Ai ei Bj ej = Ai Bj ei ej .
(4.20)
Este tipo de operacion puede ser extendida para combinar dos tensores de un rango arbitrario. El resultado es un tensor con un rango igual a la suma de los rangos de los tensores
involucrados en el producto. Usualmente esta operacion es llamada un producto externo, lo
cual es opuesto al producto punto, el cual es llamado producto interno.
4.3.
La nueva notacion tensorial de la ecuacion (4.19) hace mas facil la tarea de transformar
vectores entre distintos sistemas de coordenadas. De hecho, muchos textos definen formalmente un tensor como un objeto que transforma como un tensor. Esto parece no tener mucho
sentido, como sera visto en esta seccion, pero es la definicion correcta.
En este captulo solo las transformaciones entre sistemas ortonormales son considerados.
Primero solo veremos las tranformaciones entre sistemas cartesianos, para luego generalizar
estos resultados a sistemas curvilneos.
4.3.1.
(4.21)
De la geometra de la figura 4.1, podemos ver que las componentes vectoriales en el sistema
primado estan relacionadas con las componentes vectoriales del sistema no primado por las
ecuaciones
v1 = v1 cos 0 + v2 sen 0
v2 = v1 sen 0 + v2 cos 0 .
(4.22)
A TENSORES.
CAPITULO 4. INTRODUCCION
64
1
e2
e2
e1
e1
(4.23)
donde [v ] y [v] son matrices columna que representan el vector v con las componentes primas
y no primas, y [a] es la matriz cuadrada
[a] =
4.3.2.
cos 0 sen 0
sen 0 cos 0
(4.24)
La matriz de transformaci
on.
(4.25)
donde [a] es llamada la matriz de transformacion. En la discusion que sigue, dos suposiciones
simples son presentadas para determinar los elementos de [a]. La primera supone que los dos
sistemas tienen vectores base conocidos. La segunda supone el conocimiento de las ecuaciones que relacionan las coordenadas. En este ejemplo utilizaremos el sistema de coordenadas
cartesiano, sin embargo no es difcil generalizar a cualquier sistema de coordenadas.
Determinando [a] desde la base de vectores.
Si la base de vectores de ambos sistemas coordenados son conocidos, es bastante simple
determinar las componentes de [a]. Consideremos un vector v expresado por componentes en
2
v2
v2
1
v1
v1
65
(4.26)
(4.27)
Esto es verdad para cualquier v. En particular, sea v = em uno de los vectores base del
sistema no primado (en otras palabras, vk=m = 0 y vk=m = 1), obtenemos
em = alm ei .
(4.28)
(4.29)
Notemos que los elementos de [a] son solo cosenos directores entre todos los pares de vectores
base entre los sistemas primado y no primado.
Determinando [a] desde las ecuaciones de coordenadas.
Si la base de vectores no es conocida explcitamente, las ecuaciones que relacionan los
dos sistemas proveen el metodo mas rapido para determinar la matriz de transformacion.
Comencemos considerando las expresiones para el vector desplazamiento en los dos sistemas.
Como los sistemas son cartesianos,
dr = dxi ei = dxi ei ,
(4.30)
donde dxi y dxi son los diferenciales totales de las coordenadas. Como la ecuacion (4.25)
representan las componentes de cualquier vector, includo el vector de desplazamiento
dxi = aij dxj .
(4.31)
La ecuacion (4.31) provee un metodo general para obtener los elementos de matriz de [a]
usando las coordenadas primas y no primas. Trabajando en tres dimensiones, asumamos que
estas ecuaciones son
x1 = x1 (x1 , x2 , x3 )
x2 = x2 (x1 , x2 , x3 )
(4.32)
x3 = x3 (x1 , x2 , x3 ) ,
o en forma compacta
xi = xi (x1 , x2 , x3 ) .
Expandiendo los diferenciales totales de la ecuacion (4.32), tenemos
(4.33)
A TENSORES.
CAPITULO 4. INTRODUCCION
66
x1 (x1 , x2 , x3 )
x (x1 , x2 , x3 )
x (x1 , x2 , x3 )
dx1 + 1
dx2 + 1
dx3
x1
x2
x3
x (x1 , x2 , x3 )
x (x1 , x2 , x3 )
x2 (x1 , x2 , x3 )
dx1 + 2
dx2 + 2
dx3
dx2 =
x1
x2
x3
x3 (x1 , x2 , x3 )
x (x1 , x2 , x3 )
x (x1 , x2 , x3 )
dx3 =
dx1 + 3
dx2 + 3
dx3 .
x1
x2
x3
dx1 =
xi (x1 , x2 , x3 )
dxj .
xj
(4.34)
Comparando las ecuaciones (4.31) y (4.34), podemos identificar los elementos de [a]
aij =
xi (x1 , x2 , x3 )
.
xj
(4.35)
(4.36)
(4.37)
donde [a] es la notacion para la transpuesta conjugada de [a], y la matriz [1] es una matriz
cuadrada, con 1 en la diagonal y 0 fuera de ella.
La inversa de [a].
La matriz [a] genera las componentes de los vectores en el sistema primado desde las
componentes sin primas, como es indicado en la ecuacion (4.25). Esta expresion puede ser
invertida con la inversa de [a], la cual es escrita como [a]1 , y esta definida por
[a][a]1 = [a]1 [a] = [1] ,
(4.38)
1
a1
ij ajk = aij ajk = ik .
(4.39)
o en notacion de Einstein
67
= aij vj
= a1
ki aij vj
= kj vj
= vk .
(4.40)
(4.41)
a1
ij = aji .
(4.42)
vi = aji vj .
(4.43)
o en notacion de Einstein
(4.44)
Usando el hecho que la inversa de la matriz [a] es su transpuesta, esta expresion puede ser
invertida para obtener la base de vectores primada en terminos de los no primados
ej = aij ei .
(4.45)
Recordemos que estas expresiones son solo validas para transformaciones si ambos sistemas
son ortonormales.
4.3.3.
El siguiente cuadro resume las ecuaciones de las transformaciones entre dos sistemas
cartesianos
vi = aij vj
vi = aji vj
ei = aij ej
ei = aji ej
aij = (
ei ej ) = xi (x1 , x2 , x3 )/xj
Las funciones xi = xi (x1 , x2 , x3 ) relacionan el sistema de coordenadas cartesiano primado
con el sistema cartesiano no primado. Para mantener las cosas ordenadas, notemos que hay
un patron para estas ecuaciones de transformacion. Cada vez que convertimos del sistema no
A TENSORES.
CAPITULO 4. INTRODUCCION
68
primado con el sistema primado, estamos tratando con una base vectorial o las componentes
de alg
un vector, sumamos sobre el segundo ndice aij . Por el contrario, las conversiones desde
el sistema primado al sistema no primado siempre se sumara sobre el primer ndice.
4.3.4.
Transformaciones tensoriales.
Para entender por que los elementos de un tensor deben cambiar de valor cuando son
expresados en distintos sistemas de coordenadas, consideremos el tensor de conductividad. Si
fijamos el set de coordenadas y la corriente fluye mas facilmente en la direccion 1 que en la
direccion 2, entonces 11 > 22 . Si observamos la misma situacion fsica en un nuevo sistema
de coordenadas donde la direccion 1 es equivalente a la direccion 2 y la direccion 2 es la
misma que la direccion 1 original, entonces deberamos tener que 11 < 22 . Claramente los
elementos del tensor de conductividad deben tomar diferentes valores en los dos sistemas,
a
un cuando describen la misma situacion Fsica. Esto es cierto tambien para una cantidad
vectorial, el mismo vector velocidad tienen diferentes componentes en diferentes sistemas de
coordenadas.
Las transformaciones tensoriales siguen el mismo patron que las tranformaciones vectoriales. Un vector expresado en un sistema primado y no primado seguira siendo el mismo
vector,
v = vi ei = vj ej .
(4.46)
De la misma forma, siguiendo la notacion de la ecuacion (4.19), las expresiones para un tensor
de segundo rango en los dos sistemas deben obedecer
T = Tij ei ej = Trs er es .
(4.47)
Aqu yace la belleza de la notacion. La relacion entre los elementos Tij y Trs es construda
desde la ecuacion (4.47) y es facilmente obtenida aplicando dos veces producto punto en
ambos lados. Del primer producto punto obtenemos
el Tij ei ej
Tij (
el ei )
ej
Tij li ej
Tlj ej
= el Trs er es
= Trs (
el er )
es
= Trs arl es
= Trs arl es .
(4.48)
(4.49)
Para invertir la ecuacion (4.49) usamos la matriz inversa [a]1 dos veces, y recordando que
para sistemas de coordenadas ortonormales se cumple que a1
ij = aji , obtenemos
Tlm = Trs alr ams .
(4.50)
En general, las transformaciones tensoriales requieren un factor aij para cada subndice
en el tensor. En otras palabras, un rensor de rango r necesita r diferentes factores aij . Si
DE TENSORES.
4.4. DIAGONALIZACION
69
la transformacion va desde el sistema sin prima al sistema prima, todos los factores aij
son sumadas sobre el segundo subndice. Para la transformacion inversa, desde el sistema
primado al sistema no primado, las sumas son sobre el primer subndice. Las transformaciones
tensoriales, para tensores de rango arbitrario, pueden ser resumidas como siguen
Tijk... = Trst... air ajs akt . . .
Tijk... = Trst... ari asj atk . . .
donde los elementos de la matriz [a] estan dados por la ecuacion (4.35).
Hay otro asunto importante en la notacion tensorial de la ecuacion (4.19). Al contrario
de la ecuacion matricial, donde todos los terminos deben estar en la misma base, la notacion
tensorial/vectorial permite que las ecuaciones esten en bases distintas. Imaginemos que los
elementos de la ecuacion de Ohm expresados en los sistemas primados y no primados sean
los siguientes
J = Ji ei = Ji ei
E = Ei ei = Ei ei
= ij ei ej = ij ei ej .
(4.51)
(4.52)
(4.53)
El hecho que los elementos de del sistema primado sean combinados con las componentes
de E del sistema no primado no representa un problema. El producto punto de las bases de
los vectores toma en cuenta las representaciones mezcladas, siempre y cuando el orden de las
bases de los vectores sea preservado. Esto es acompa
nado en la ecuacion (4.53) por el hecho
que ek el = kl . Este tipo de operacion no puede ser hecho con la notacion matricial sin antes
convertir todo a una misma base.
Con esto debera quedar claro el valor de expresar un tensor de la forma como se ve en
(4.19). Ademas de poder manejar las manipulaciones algebraicas como una matriz, tambien
contiene toda la informacion necesaria para transformar los elementos de un sistema de
coordenadas al otro. Por tanto, un tensor es de coordenadas independientes, y un objeto
geometrico, tal como un lo vector es.
4.4.
Diagonalizaci
on de tensores.
A TENSORES.
CAPITULO 4. INTRODUCCION
70
4.4.1.
Diagonalizaci
on y problema de valores propios.
= ij ei ej = st es et .
(4.54)
Estamos interesados en un sistema prima muy especial, un sistema en el cual todos los
= ij ei ej = ss es es .
(4.55)
En esta u
ltima ecuacion suponemos conocidos los elementos tensoriales y la base vectorial del
sistema no prima. El problema es encontrar los elementos del tensor en el sistema primado
ss y los elementos de la base es , de tal manera que se satisfaga la ecuacion (4.55). Para
realizar esto, aplicamos producto punto a la ecuacion (4.55) con el primer elemento de la
base del sistema primado, e1 , con lo cual obtenemos
e1 = ss es es e1
= ss es s1
= 11 e1 .
(4.56)
La ecuacion (4.56) revela una propiedad importante de la base de vectores donde el tensor
es diagonal. No cambian de direccion cuando es aplicado el producto punto por el tensor. Sin
embargo, ellos pueden cambiar de magnitud. Si definimos 1 = 11 , la ecuacion (4.56) queda
e1 = 1 e1 .
(4.57)
1 = ij ei ej
que cumple
(4.58)
DE TENSORES.
4.4. DIAGONALIZACION
71
1v =v .
1 [1] = 0
0
(4.59)
es
0 0
1 0 .
0 1
(4.60)
1 1 e1 = 0 .
(4.61)
(4.62)
(4.63)
donde el elemento a1j es uno de los tres elementos desconocidos de la matriz transformacion
0
a11
11 1
12
13
21
a12 = 0 .
22 1
23
(4.64)
a13
0
31
32
33 1
Para que este set de ecuaciones lineales y homogeneas tengan solucion, el determinante de
los coeficientes debe ser cero
11 1
12
13
21
22 1
23
=0.
31
32
33 1
(4.65)
Resulta una ecuacion de tercer orden para 1 , las cuales generaran tres autovalores. De estos
tres autovalores, seleccionaremos uno, el cual sera llamado 1 , y los otros dos los usaremos
luego. Reemplazando este valor en la ecuacion (4.64) encontraremos una solucion para a11 , a12
y a13 con una constante arbitraria. Estos son tres elementos de la matriz de transformacion
entre los sistemas primados y no primados, lo cual estamos buscando. Estos tres elementos
tambien permitiran determinar la base vectorial e1 con una constante arbitraria
e1 = a1j ej .
(4.66)
Imponiendo que e1 sea un vector unitario, obtenemos una condicion para las constantes
arbitrarias asociadas con a11 , a12 y a13
A TENSORES.
CAPITULO 4. INTRODUCCION
72
(4.67)
e1 , e2 y e3 . Los elementos de en este sistema son los autovalores que determinamos desde
la ecuacion (4.65)
1 0 0
[ ] = 0 2 0 .
(4.68)
0 0 3
Las matrices de interes en Fsica son Hermitianas. Si dejamos la posibilidad de elementos
de matriz complejos, una matriz se dice Hermitiana si es igual a su transpuesta conjugada.
Esto es, ij = ij . Hay dos propiedades muy importantes en este tipo de matrices. Uno, los
valores propios son n
umeros reales. Segundo, sus autovectores son siempre ortonormales. La
prueba de este hecho es dejado como ejercicio.
La u
nica complicacion que puede surgir en el proceso de diagonalizacion es una situacion
degenerada, la cual ocurre cuando dos o mas autovalores son identicos. Consideremos el caso
cuando 1 = 2 = 3 . El autovalor 1 determina a11 , a12 , a13 y e1 , como ya lo vimos. Sin
embargo, los autovalores degenerados no especificaran en forma u
nica sus autovectores. Estos
autovectores pueden ser elegidos de manera infinita. Un ejemplo con este tipo de degeneracion
es discutido en uno de los ejemplos que a continuacion siguen.
Ejemplo 1
Como un ejemplo del proceso de diagonalizacion, consideremos el tensor de conductividad
expresado en coordenadas cartesianas
= ij ei ej .
10
[] = 0
0
las unidades)
0 0
10 1 .
1 10
(4.69)
(4.70)
Esta matriz es Hermitiana, por tanto podemos esperar que sus valores propios sean reales
y sus autovectores ortonormales. Los autovalores para la diagonalizacion son generados desde
la ecuacion determinante
DE TENSORES.
4.4. DIAGONALIZACION
10
0
0
0
10
1
=0.
0
1
10
73
(4.71)
La expansion del determinante nos arroja una ecuacion polinomial de tercer orden
(10 ) (10 )2 1 = 0 ,
(4.72)
a11
1 0 0
0
0 1 1 a12 = 0 .
(4.73)
0 1 1
a13
0
Esta ecuacion requiere que se cumpla a12 = a13 y a11 = 0. La condicion de normalizacion
impone el contre
nimiento adicional (a12 )2 + (a13 )2 = 1, de donde obtenemos
a11
0
a12 = 1 1 .
(4.74)
2
a13
1
El primer autovector asociado con el sistema primado es
e1 = 1/ 2 e2 1/ 2 e3 .
(4.75)
Las otras componentes de [a] pueden ser determinadas en forma analoga. La matriz de
transformacion completa es
0 1 1
1
[a] = 0 1 1 .
(4.76)
2
2 0 0
Los otros dos autovectores no primados son
e2 = 1/ 2 e2 + 1/ 2 e3
(4.77)
e3 = e1 .
(4.78)
A TENSORES.
CAPITULO 4. INTRODUCCION
74
e3
1
3
e2
e1
9 0 0
[ ] = 0 11 0
0 0 10
(4.79)
Ejemplo 2
Este ejemplo demuestra el proceso de diagonalizacion cuando dos autovectores son degenerados. Consideremos nuevamente un tensor de conductividad en coordenadas cartesianas
(nuevamente, ignoramos las unidades)
11 1 0
[] = 1 11 0 .
0
0 10
(4.80)
Esta es una matriz Hermitiana, por tanto esperamos valores propios reales y vectores
ortonormales. La condicion del determinante queda
11
1
0
1
11
0
=0,
0
0
10
(4.81)
(4.82)
Esta ecuacion de tercer orden posee tres races, pero solo dos distintas, 1 = 12 y 2 =
3 = 10. La raz 1 puede ser tratada como antes. Cuando es sustituda en la ecuacion (4.64),
la relacion matricial se convierte en
1 1 0
a11
0
1 1 0 a12 = 0 .
0
0 2
a13
0
Cuando utilizamos esto mas la condicion de normalizacion, obtenemos
(4.83)
DE TENSORES.
4.4. DIAGONALIZACION
75
a11
1
a12 = 1 1 .
(4.84)
2
a13
0
Estos elementos de la matriz transformacion nos permiten definir el primer autovector
e1 = 1/ 2 e1 1/ 2 e2 .
(4.85)
a21
1 1 0
0
1 1 0 a22 = 0 .
(4.86)
0
0 0
a23
0
Si sustitumos 3 obtenemos una ecuacion muy parecida
0
1 1 0
a31
1 1 0 a32 = 0 .
(4.87)
a33
0
0
0 0
La ecuacion (4.86) nos requiere a21 = a22 , pero deja libre el factor a23 . La condicion de
normalizacion nos exige que se cumpla a221 + a222 + a223 = 1. Estas condiciones pueden ser
satisfechas por muchos autovectores. Como a23 es arbitrario, lo fijamos igual a cero. Ahora,
si el segundo autovector debe ser ortonormal a e1 , tenemos
a21
1
a22 = 1 1 .
(4.88)
2
a
0
23
e2 = 1/ 2 e1 + 1/ 2 e2 .
(4.89)
El autovector asociado con 3 esta dado por la ecuacion (4.87) y tiene las mismas condiciones que el autovector asociado a 2 , es decir, a31 = a32 y a33 es arbitrario. Sin embargo,
si queremos que los autovectores sean ortonormales, e3 debe ser perpendicular a e1 y e2 . Los
vectores base e1 y e2 estan en el plano 1-2 de los vectores originales, por tanto si queremos
que e3 perpendicular a estos dos vectores, debe estar en la direccion 3. Por tanto,
a31
0
a32 0 ,
(4.90)
a33
1
y para el tercer autovector
e3 = e3 .
(4.91)
Un chequeo rapido demostrara que estos tres autovectores son ortonormales y que definen
un sistema derecho de coordendas, en el cual los elementos del tensor de conductividad estan
diagonalizados.
A TENSORES.
CAPITULO 4. INTRODUCCION
76
4.5.
(4.92)
Por ejemplo, las ecuaciones que relacionan el sistema de coordenadas cilndrico con el cartesiano son
x1 = x = cos
x2 = y = sen
x3 = z = z .
(4.93)
La matriz de transformacion [a] realiza la misma funcion como antes. Esto es, toma las componentes del sistema curvilneo no primado de un vector y genera las coordenadas cartesianas
en el sistema primado
vi = aij vj .
(4.94)
Recordando del captulo anterior que el vector desplazamiento para los dos sistemas puede
ser escrito como
dr = dxi ei = hj dqj qj .
(4.95)
Las componentes del vector desplazamiento en el sistema curvilneo no primado estan dados por hj dqj , mientras que sus componentes en el sistema cartesiano primado estan dados
por dxi . Estas componentes deben estar relacionadas por la matriz transformacion [a]. En
notacion de Einstein
dxi = aij hj dqj .
(4.96)
El diferencial total dxi puede ser formado desde la ecuacion (4.92), de donde obtenemos
dxi =
xi (q1 , q2 , q3 )
dqj .
qj
(4.97)
4.6. PSEUDO-OBJETOS.
77
La ecuacion (4.97) puede ser colocada en la forma de la ecuacion (4.96) multiplicando el lado
derecho de la ecuacion (4.97) por hj /hj
xi (q1 , q2 , q3 ) hj
xi (q1 , q2 , q3 )
dqj =
hj dqj .
qj
hj
hj qj
dxi =
(4.98)
xi (q1 , q2 , q3 )
hj qj
[Curvilneo a Cartesiano] .
(4.99)
hj xi (q1 , q2 , q3 )
hj qj
[Curvilneo a Curvilneo] .
(4.100)
Notemos que no hay suma sobre i o j en el lado derecho de la ecuacion (4.100) ya que ambos
subndices aparecen en el lado izquierdo de la expresion.
La ecuacion (4.100) es la forma mas general para los elementos de la matriz transformacion
entre dos sistemas curvilneos. Es simplificada a la ecuacion (4.99) si el sistema primado es
cartesiano, ya que para este caso hj 1. Ademas se degenera a la ecuacion (4.35) cuando
los dos sistemas son cartesianos, ya que para este caso hj 1.
Como antes, la matriz de tranformacion puede ser determinada tambien desde la base
vectorial de los dos sistemas de coordenadas. Para el caso curvilneo general, los elementos
de [a] son
aij = (
qi qj ) .
(4.101)
4.6.
Pseudo-objetos.
4.6.1.
Pseudo-vectores.
A TENSORES.
CAPITULO 4. INTRODUCCION
78
3
e3
2
e2
1
e1
A = A0 e1
(4.102)
B = B0 e2 .
(4.103)
Por regulares nos referimos que las componentes de estos vectores obedecen la ecuacion
(4.25) cuando transformamos las coordenadas.
El producto cruz entre A y B puede ser escrito usando el determinante
e1 e2 e3
A B = A0 0 0 = A0 B0 e3 ,
0 B0 0
(4.104)
k
ijk e
= A0 B0 e3 .
(4.105)
2
B
1
A
4.6. PSEUDO-OBJETOS.
79
(4.106)
3
e3
2
e2
1
e1
Figura 4.6: Sistema de la mano izquierda.
por tanto, la matriz transformacion es
1 0 0
[a] = 0 1 0 .
0 0 1
(4.107)
(4.108)
B = B0 e2 .
(4.109)
Solo escribimos estos resultados porque son obvios. Recordemos que formalmente estos son
obtenidos aplicando [a] a las componentes de los vectores no primados. De la multiplicacion
matricial obtenemos
A1
1 0 0
A0
A0
A2 = 0 1 0 0 = 0
0 0 1
0
0
A3
(4.110)
B1
1 0 0
0
0
B2 = 0 1 0 B0 = B0 .
B3
0 0 1
0
0
(4.111)
A TENSORES.
CAPITULO 4. INTRODUCCION
80
Es importante recordar que los vectores son los mismos objetos fsicos en ambos sistemas de
coordenadas. Estan expresados en terminos de distintas componentes y bases vectoriales.
Ahora formemos el producto cruz A B en el sistema izquierdo. Para esto usaremos la
relacion de determinante
e1
e2 e3
A
0 0 = A0 B0 e3 ,
AB =
0
0
B0 0
(4.112)
k
ijk e
= A1 B1
3
123 e
= A0 B0 e3 .
(4.113)
2
B
1
3
A
A xB
Figura 4.7: Vectores en el sistema de la mano izquierda.
Notemos algo peculiar. Comparando las figuras 4.7 y 4.5 observamos que, mientras A y
B apuntan en las mismas direcciones, sus productos cruces no apuntan en las mismas direcciones. Cambiando la orientacion del sistema de coordenadas, hemos cambiado la direccion
del vector A B.
Miremos el producto cruz desde otro punto de vista. Si las componentes del vector A B
en el sistema no primado, dado por la ecuacion (4.104), son transformados al sistema primado
usando usando la matriz [a], como lo hacemos para las componentes de los vectores regulares,
obtenemos
1 0 0
0
0
0 1 0 0 = 0 .
(4.114)
0 0 1
A0 B0
A0 B0
4.6. PSEUDO-OBJETOS.
81
Combinando estas componentes con la base de vectores apropiada, obtenemos para el vector
resultante del producto cruz
A0 B0 e3 .
(4.115)
Este resultado difiere de la ecuacion (4.112) por un signo menos. Para sortear esta dificultad,
la cantidad formada por el producto cruz de dos vectores regulares es llamado un pseudovector. Los Pseudovectores tambien son llamados vectores axiales, mientras que los vectores
regulares son llamados vectores polares. Si v es un vector regular transforma de acuerdo a la
ecuacion (4.25). Por otra parte, si v es un pseudovector, sus componentes tranforman como
vr = |a|vi ari .
(4.116)
(A B)1
1 0 0
0
0
(A B) = 0 1 0 0 = 0
2
0 0 1
A0 B0
A0 B0
(A B)3
(4.117)
A B = A0 B0 e3 ,
(4.118)
de donde resulta
(4.119)
(4.120)
Si la orientacion del sistema de dos sistemas de coordenadas ortonormales son el mismo, una
transformacion entre ellos tendra |a| = 1, y los vectores y pseudovectores transformaran normalmente. Si los sistemas tienen orientacion opuesta, |a| = 1 y los vectores transformaran
normalmente, mientras que los pseudovectores cambiaran su direccion. Un vector generado
por el producto cruz de dos vectores regulares es un pseudovector.
Es tentador pensar que toda esta parafernalia es un sutil error de signo embebidos en la
definicion de producto cruz. En algunos casos esto es correcto. Por ejemplo, cuando definimos
la direccion del vector que define el campo magnetico, que resulta ser un pseudovector, hemos
elegido implcitamente el sentido del sistema de coordenadas que debe ser tratada de manera
consistente. Otro ejemplo es el vector momento angular, el cual es definido por un producto
cruz. Aunque se puede achacar este problema de pseudovectores de estos dos ejemplos es
solo un problema de definicion, hay casos en que simplemente no se puede olvidar esta
propiedad. Es posible dise
nar una situacion en la cual un experimento y su imagen especular
no producen los resultados esperados, los cuales son simplemente la imagen especular una de
otra. De hecho, el premio Nobel fue adjudicado a Lee y Yang por analizar estas violaciones
a la conservacion de paridad, lo cual va en contra de la logica com
un. El experimento fue
A TENSORES.
CAPITULO 4. INTRODUCCION
82
realizado por primera vez por Wu, quien mostro este efecto con la emision de partculas beta
desde el Cobalto 60, bajo la influencia de interacciones debiles.
4.6.2.
Pseudo-escalares.
Las ideas que nos dejaron los pseudovectores se aplican tambien a los escalares. Un escalar
es invariante ante cualquier cambio del sistema de coordenadas. En cambio, un pseudoescalar
cambia de signo si la orientacion del sistema cambia. Un pseudoescalar involucrado en una
transformacion, governado por una matriz de transformacion [a], obedecera
S = |a|S .
(4.121)
(4.122)
C
B
A
Figura 4.8: El paralelogramo.
En un sistema de coordenadas derecho, el vector formado por A B apuntara hacia arriba.
Por tanto, en un sistema derecho,
(A B) C > 0 .
(4.123)
(4.124)
4.6. PSEUDO-OBJETOS.
4.6.3.
83
Pseudo-tensores.
Los pseudotensores estan definidos como uno espera. Bajo una transformacion, las componentes de un pseutensor obedecen
Trst... = |a|Tijk... ari asj atk . . . ,
(4.125)
la cual es igual a lo que obedece un tensor regular, salvo por el termino |a|.
Nuevamente utilizamos el producto cruz como ejemplo. Consideremos dos sistemas de
coordenadas. El sistema primado es un sistema derecho, y el otro, con el sistema no primado,
es izquierdo. Usando el smbolo de Levy-Civita en los dos sistemas para generar el producto
cruz A B obtenemos
Ai Bj
k
ijk e
= Ar Bs
t
rst e
(4.126)
El signo menos aparece porque como fue mostrado antes, la direccion fsica del producto cruz
es diferente en los dos sistemas de coordenadas. Ahora, las transformaciones de coordenadas de vectores regulares pueden ser usadas para encontrar la relacion entre ijk y rst . Ya
que todos los vectores involucrados son regulares, es decir, A, B y los vectores base, estos
transforman de acuerdo a la ecuacion (4.25). Escribiendo las componentes primadas de estos
vectores en terminos de los no primados, la ecuacion (4.126) se convierte en
Ai Bj
k
ijk e
k
rst e
(4.127)
Esta u
ltima expresion es cierta para A y B arbitrarios, por tanto obtenemos
ijk
rst
(4.128)
Tengamos en mente que esto se aplica solo cuando dos sistemas tienen orientaciones
distintas. Si ambos sistemas tienen la misma orientacion, el signo menos desaparece. Por
tanto, para el caso general de una transformacion arbitraria entre dos sistemas ortonormales,
el smbolo de Levy-Civita obedece
ijk
rst
(4.129)
84
A TENSORES.
CAPITULO 4. INTRODUCCION
Captulo 5
Sistema de coordenadas no
ortogonales.
versi
on final 1.0-0804151
5.1.
xi
.
xj
(5.1)
(5.2)
Un tensor arbitrario de rango n puede ser expresado tanto en el sistema primado como
en el no primado por
T = Tijk... ei ej ek . . . = Trst... er es et . . . ,
1
(5.3)
85
86
donde hay n subndices y n vectores base en cada termino. Tijk... y Trst... son los elementos
del tensor en el sistema de coordenadas no primado y primado, respectivamente. Los dos
conjuntos de elementos estan relacionados por la ecuacion matricial de transformacion
Trst... = Tijk... ari asj atk . . . ,
(5.4)
(5.5)
Nuestra propuesta fundamental es que cualquier cantidad que transforma en la manera descrita por la ecuacion (5.4) es por definicion un tensor.
Como un vector es un tensor de primer rango, las transformaciones de las componentes
son descritas por las ecuaciones (5.4) y (5.5). Si escribimos un vector en dos sistemas de
coordenadas como
v = vi ei = vr er ,
(5.6)
(5.7)
vr = vi air .
(5.8)
y la inversa
Los escalares son invariantes ante una transformacion de coordenadas. Podemos pensar
que un escalar es un tensor de rango cero. El u
nico elemento de un tensor de rango cero no
tiene subndices y no esta combinado con una base vectorial. La ecuacion (5.4) se reduce a
S=S
(5.9)
donde S (o S ) en el u
nico elemento del escalar.
Ejemplo
Como un ejemplo del uso de las propiedades de las transformaciones para identificar a un
objeto como tensor, consideremos la delta de Kronecker. Recordemos que este smbolo fue
introducido para formar el producto punto en sistemas de coordenadas ortonormales. El producto punto entre dos vectores, A y B escrito en dos sistemas ortonormales de coordenadas,
uno primado y otro primado, puede ser escrito por
A B = Ai Bj ij = Ar Bs rs .
(5.10)
Ahora, sabemos que tanto ij como rs pueden ser escritos como matrices unitarias, tal
como [1]. Sin embargo, para los propositos de esta discusion, observemos las consecuencias
de imponer que las dos expresiones para el producto punto en la ecuacion (5.10) sean iguales,
y que Ai y Bi son componentes vectoriales, y por tanto, transforma de acuerdo a la ecuacion
(5.7). Sustituyendo en la ecuacion (5.10), tenemos para Ar y Bs
Ai Bj ij = ari Ai asj Bj rs .
= Ai Bj ari asj rs .
87
(5.11)
Como esta expresion debe ser verdadera para cualquier A y B, podemos escribir
ij = ari asj rs .
(5.12)
ij = air ajs rs .
(5.13)
Comparando las ecuaciones (5.12) y (5.13) con las ecuaciones (5.4) y (5.5), se observa que los
elementos de la delta de Kronecker transforman como los elementos de un tensor de segundo
rango. Por tanto, el smbolo de la delta de Kronecker es un tensor de segundo rango, el cual
puede ser expresado con una base vectorial como
= ij ei ej = ij ei ej .
5.2.
(5.14)
Hasta este punto, hemos tratado solo con sistemas de coordenadas ortonormales. En
sistemas cartesianos, los vectores base ei son independientes de la posicion y ortonormales,
por lo tanto ei ej = ij . En sistemas curvilneos, los vectores base qi no son independientes de
la posicion, pero a
un son ortonormales, por tanto qi qj = ij . Ahora consideraremos sistemas
no ortonormales. Para distinguir estos sistemas, escribiremos los vectores base de sistemas
de coordenadas no ortonormales como gi , y la condicion de no ortonormalidad se convierte
en gi gj = ij . Para mantener esta discusion y las derivaciones de la forma mas simple, nos
limitaremos a sistemas de coordenadas donde las bases vectoriales no varen con la posicion.
Obviamente esto no es el caso mas general de sistemas de coordenadas no ortogonales, pero
es suficiente para demostrar las ideas de covarianza, contravarianza y metrica.
En fsica, los sistemas de coordenadas no ortonormales aparecen, por ejemplo, en relatividad (tanto especial como general). El postulado basico de la relatividad especial es que la
velocidad de la luz c es la misma para todos los sistemas de referencia. Como consecuencia
de este postulado, la posicion y el tiempo de alg
un fenomeno fsico (un evento) cambia tal
como cambie el sistema de referencia. Es muy similar a como las componentes de un vector
cambian cuando transformamos los ejes coordenados. Si restringimos el movimiento a una
coordenada espacial, un evento puede ser descrito por dos coordenadas, una coordenada espacial y una temporal. Como sera mostrado, la observacion de un evento en dos sistemas de
coordenadas distintos, uno primado y otro no primado, puede ser dibujado como un punto
usando el conjunto de ejes combinados, como es mostrado en la figura 5.1. Tomando sus
componentes con respecto a ambos ejes coordenados, podemos obtener todas las relaciones
impuestas por la relatividad especial. Notemos como los ejes x y ct se intersectan en angulos
rectos, pero los ejes x y ct no lo hacen. Mientras el sistema no primado parece ser ortogonal,
el sistema primado parece ser un sistema no ortogonal e inclinado.
88
ct
ct
Un evento
x
Figura 5.1: Los sistemas de coordenadas de la Relatividad Especial.
El postulado basico de la relatividad general es que la gravedad y la aceleracion son equivalentes. Los eventos observados en un campo gravitacional aparecen como si estos estuviesen
siendo observados en un sistema de coordenadas acelerado. Esto implica que la luz propagandose a traves del campo gravitacional de un objeto masivo, como una estrella, se debera
doblar, como es mostrado en la figura 5.2. Esto podra causar que la posicion aparente de
una estrella se desva de su posicion actual. Este fenomeno fue observado por primera vez
por Arthur Eddington, el cual midio la peque
na deflexion de las estrellas provocadas por el
Sol durante el eclipse total de 1919. Los caminos que siguen los rayos de luz a traves del
espacio son llamados geodesicas. Una eleccion natural para las lneas de la grilla de un sistema de coordenadas localizado, siguen estas geodesicas, como es mostrado en la figura 5.2.
No discutiremos ejemplos de este tipo de sistemas, pero si nos restringiremos a discutir los
sistemas inclinados, donde las bases vectoriales no son ortonormales, pero son espacialmente
invariantes.
Sistema de coordenadas
local no ortogonal
Estrella Aparente
Mo
Estrella
5.2.1.
89
figura dos pares de vectores base y un vector arbitrario v. La base vectorial de sistema no
primado es ortonormal
ei ej = ij .
2
(5.15)
2
V
V2
1
V2
g2
e2
V1
g1
e1
V1
(5.16)
gi gj = ij .
(5.17)
Como podemos ver, el formalismo que es desarrollado permite que los vectores base no sean
unitarios. Sin embargo, para comenzar el tratamiento de la manera mas sencilla, suponemos
que la base vectorial del sistema inclinado satisface la ecuacion (5.16).
En el sistema ortonormal, el vector v puede ser expresado como la suma de sus componentes proyectadas de forma paralela en los ejes, como es mostrado en la figura 5.3, junto a
la correspondiente base vectorial
v = v1 e1 + v2 e2 .
(5.18)
(5.19)
90
(5.20)
Estas componentes tambien pueden ser determinadas por trigonometra, pero como tenemos
una geometra inclinada, no es tan sencillo como lo es en el sistema ortogonal. Como la base
de vectores primados no son ortogonales, un intento por aislar una componente particular
por una manipulacion vectorial, similar a la desarrollada en la ecuacion (5.19) falla
v g1 = (v1 g1 + v2 g2 ) g1
= v1 (
g1 g1 ) + v2 (
g2 g1 )
= v1 + v2 (
g2 g1 )
= v1 .
(5.21)
5.2.2.
Covarianza, contravarianza y m
etrica.
La complicacion basica introducida por un sistema de coordenadas no-ortogonal es evidentemente en la operacion producto punto. En un sistema ortonormal de dos dimensiones
descrito anteriormente, el producto interno entre dos vectores es dado por
A B = Ai ei Bj ej
= Ai Bj ij
= A1 B1 + A2 B2 .
(5.22)
(5.23)
(5.24)
91
(5.25)
Estas cantidades son llamadas las componentes covariantes de B, mientras que las componentes originales son llamadas contravariantes. Claramente, el vector B no puede ser
expresado por la combinacion de estas nuevas componentes covariantes con los vectores bases g1 y g2 :
1 g1 + B
2 g2 .
B=B
(5.26)
Sin embargo, con estas componentes el producto evaluado en el sistema inclinado puede ser
puesto en una forma simple
i
A B = Ai B
1 + A2 B
2 .
= A1 B
(5.27)
(5.28)
(5.29)
El producto interno necesita estar formado con una mezcla de componentes covariantes y
contravariantes, pero no importa que vector es expresado en que tipo de componentes.
Estos argumentos pueden ser extendidos a sistemas no-ortogonales de dimension arbitraria. La restriccion que los vectores bases esten normalizados a la unidad puede ser levantada.
Las componentes covariantes pueden ser generadas a partir de las componentes contravariantes usando la expresion general
Ai = Aj (
gi gj ) .
(5.30)
Hemos usado convencion de Einstein, lo cual implica suma sobre j. Para un sistema de
coordenada n-dimensional en cada suma habra n terminos. Notemos que si el sistema de coordenadas es ortonormal la ecuacion (5.30) se reduce a Ai = Ai y las componentes covariante
y contravariantes son iguales. En este caso, ambas ecuaciones (5.27) y (5.28) se revierten a
la ecuacion (5.22). Esto es importante, porque implica que esta nueva notacion es suficientemente general para manejar todos nuestros previos sistemas de coordenadas Cartesianos y
curvilneos, tanto como los nuevos no-ortogonales.
Existe otra manera de expresar el producto interno entre dos vectores en un sistema noortogonal que hace uso de una cantidad llamada la m
etrica. Como veremos mas tarde, la
metrica es un tensor de rango dos. Los elementos de la metrica, en un sistema sin primas,
estan definidos como
Mij = gi gj .
(5.31)
92
(5.32)
(5.33)
(5.34)
(5.35)
(5.36)
Cuando la ecuacion (5.34) es usada para el producto interno, las componentes vectoriales no
se mezclan. Las componentes contravariantes son usadas para ambos vectores. Si el sistema es
ortonormal Mij = ij , resultando el producto interno standard para un sistema ortonormal.
Notemos que la metrica es determinada solamente por los vectores bases del sistema de
coordenadas. Esto se volvera un hecho importante y nos permitira identificar a la metrica
como un tensor de rango dos.
En resumen, hay dos maneras de realizar el producto interno entre dos vectores en un
sistema no-ortogonal. Una manera es usar las componentes covariantes y contravariantes,
como fue hecho en las ecuaciones (5.27) y (5.28). Un metodo completamente equivalente es
usar la metrica y las componentes regulares contravariantes del vector, como demostramos en
la ecuacion (5.34). Estos argumentos pueden ser naturalmente extendidos al producto interno
entre cantidades tensoriales, pero esta generalizacion sera pospuesta hasta que las ecuaciones
de transformacion para sistema no-ortogonales sean trabajadas.
5.2.3.
93
2
V
V2
1
V2
g2
e2
V1
g1
e1
V1
xi = xi (x1 , x2 , x3 )
xi = xi (x1 , x2 , x3 ) .
(5.37)
(5.38)
La restriccion para sistemas ortonormales nos permitio invertir esta expresion de forma trivial, ya que se transformo en a1
on similar para la ecuacion
ij = aji . Podemos escribir una relaci
(5.38) para las transformaciones entre sistemas no ortonormales, pero necesitamos tener mas
cuidado, ya que la inversa de la matriz transformacion no es su transpuesta. Para no perder
la pista entre las transformaciones que aceptan esta inversion simple y las que no, reservaremos la matriz [a] para las transformaciones entre sistemas ortonormales. La matriz [t]
representara las transformaciones entre las coordenadas no primadas y las primadas, donde
los sistemas pueden ser no ortonormales
vi = tij vj .
(5.39)
La operacion en reversa, una transformacion entre las coordenadas primadas y las coordenadas no primadas, usaremos la matriz [g],
vi = gij vj ,
(5.40)
donde gij = t1
on, se sigue que tij gjk = ik . Discutiremos detalladamente
ij = tji . Por su definici
la relacion entre las matrices [t] y [g] mas adelante. En ambas expresiones, las componentes
vectoriales son componentes contravariantes regulares de v, no las componentes covariantes
que presentamos.
94
Todos los vectores en un punto dado transforman usando la misma matriz [t]. Para determinar los elementos tij , es mas facil considerar el vector desplazamiento dr, el cual en los
dos sistemas de coordenadas esta dado por
dr = dxi gi = dxi gi .
(5.41)
(5.42)
xi
dxj ,
xj
(5.43)
xi
.
xj
(5.44)
Hasta ahora, estos resultados se parecen mucho a las transformaciones cartesianas que ya
habamos visto. De hecho, la ecuacion para las componentes de [t] dadas en la ecuacion (5.44)
es el mismo resultado obtenido para la matriz [a] entre sistemas cartesianos. Las complicaciones aparecen cuando tratamos de invertir estas ecuaciones. Como ya hemos mencionado,
la inversion de [t] no es simplemente calcular la traspuesta. Una forma general de obtener
[t]1 , la cual estamos llamando [g], es utilizar la expresion
gij = t1
ij =
cji
,
|tij |
(5.45)
donde cji es el cofactor ji de la matriz tij . Del algebra de matrices, este cofactor es definido
como (1)i+j por el determinante de la matriz tij , con la columna j-esima y la columna iesima removida. La matriz [g] puede tambien ser obtenida desde las ecuaciones que relacionan
las coordenadas, exactamente de la misma manera que se llega a la ecuacion (5.44)
gij = t1
ij =
xi
.
xj
(5.46)
Las matrices [t] y [g] pueden tambien ser usadas para relacionar una base vectorial con
la otra. Usando las componentes contravariantes, cualquier vector v puede ser expresado en
el sistema primado o el no primado como
v = vj gj = vi gi .
(5.47)
(5.48)
(5.49)
95
(5.50)
Notemos que las componentes vectoriales contravariantes son transformadas por contracciones sobre el segundo subndice de tij o gij , mientras que las bases vectoriales son transformados
contrayendo sobre el primer subndice.
Para resumir los resultados de esta seccion, la transformacion entre los dos sistemas de
coordenadas no ortonormales es gobernada por las relaciones
tij = xi /xj
5.2.4.
gij = xi /xj
vi = tij vj
vi = gij vj
gj = tij gi
gj = gij gi .
Notaci
on de subndices y superndices.
Antes de proceder con una discusion de como las componentes de un vector covariantes
transforman, resulta conveniente introducir una notacion nueva. La notacion con tilde (
vi )
que hemos usado para las componentes de los vectores covariantes es engorrosa. No es obvio
que las siguientes convenciones son mucho mejores, pero proveen un mecanismo valioso para
mantener la pista de cual tipo de componentes (contravariantes o covariantes) deben ser
usados en una expresion. Las componentes vectoriales proyectadas en forma paralela, las
cuales hemos llamado las componentes contravariantes, seran anotadas con un superndice,
mientras que para las nuevas componentes covariantes se usara un subndice en vez de un tilde.
Por ejemplo, las componentes contravariantes del vector v son v i , mientras las componentes
covariantes seran vi .
Una ventaja de esta nueva notacion es evidente viendo la forma del producto interno.
Con la convencion ya propuesta, podemos escribir el producto punto de A y B como
A B = Ai Bi = Ai B i .
(5.51)
Notemos que el ndice sobre el cual sumamos aparece una vez como subndice y otra como
superndice. Esto es, por supuesto, lo mismo que decir que la suma es hecha sobre cantidades covariantes y contravariantes mezcladas. Este proceso de mezclar subndices y superndices persistira sobre casi todas las contracciones sobre un ndice repetido. Tambien
funcionara cuando queramos formar un vector desde sus componentes con la interpretacion
adecuada de los vectores base. Sabemos que el vector puede ser formado con las componentes
contravariantes y la base vectorial
v = v i gi .
(5.52)
Para ser consistentes con la convencion de subndices y superndices, las bases vectoriales
deben ser escritas con subndices y ser consideradas covariantes. Veremos en la proxima
seccion, que esta conclusion es consistente con la forma en que estas bases transforman.
Esta convencion tambien previene que accidentalmente formemos un vector combinando
sus componentes covariantes con la base vectorial gi
96
v = vi gi .
(5.53)
La notacion nos advierte que esto no es correcto ya que ambos ndices aparecen como subndices.
En la seccion anterior generamos varias relaciones, las cuales describieron como las componentes contravariantes del vector v transforman entre dos sistemas inclinados. Como debiesen ser modificados la presentacion de estos resultados para ser consistente con la nueva
convencion? En la seccion anterior escribimos
vi = tij vj .
(5.54)
Ahora estas componentes vectoriales deben ser escritas de manera correcta. Para ser consistentes con esta nueva notacion, uno de los ndices de la matriz transformacion necesita ser
un subndice y otra con superndice,
v i = tij v j ,
(5.55)
donde
x i
.
xj
De manera similar, la inversion de la ecuacion (5.55) se convierte en
tij =
(5.56)
v i = g ij v j ,
(5.57)
donde
xi
.
(5.58)
x j
Notemos como en las ecuaciones (5.56) y (5.58) la componente con superndice en el denominador de la derivada parcial resulta en un subndice en el lado izquierdo de esta expresion.
Esta es una propiedad general de las derivadas parciales con respecto a cantidades covariantes
y contravariantes. Una derivada parcial con respecto a una cantidad contravariante produce un resultado covariante, mientras que una derivada parcial con respecto a una cantidad
covariante da como resultado una cantidad contravariante. Probaremos este hecho mas tarde
en este captulo.
Estas matrices de transformacion tienen lo que es llamado una combinacion de propiedades contravariantes/covariantes. Ellas son contravariantes con respecto a un ndice, pero
covariantes con respecto al otro.
Con la notacion que usabamos hasta comenzar esta seccion, la naturaleza recproca de [t]
y [g] era indicada por la ecuacion tij gjk = ik . Pero ahora, para ser consistentes con la nueva
notacion, anotaremos
g ij =
tij gkj = ik .
(5.59)
La delta de Kronecker, escrita de esta manera, tambien presenta la forma mezclada de covariante y contravariante.
97
Las ecuaciones (5.49) y (5.50), las cuales indican como transforman las bases vectoriales,
son escritas usando la notacion de subndices/superndices por
gj = tij gi
gj = g ij gi .
(5.60)
Notemos la importancia de las posiciones horizontales de los ndices de la matriz transformacion. En las ecuaciones (5.55) y (5.57) la suma era sobre el segundo ndice de la matriz,
mientras que estas sumas son sobre el primer ndice. Esto previene de escribir los elementos
de la matriz [t] como tij , ya que esto podra indicar cual ndice viene primero.
Deberamos tambien reescribir las relaciones que involucran la metrica usando la nueva notacion. Nuestra definicion previa de la metrica fue en terminos de una base vectorial
covariante. Por tanto, la ecuacion (5.31) se mantiene
Mij = gi gj ,
(5.61)
y ambos ndices permanecen como subndices. De esta manera, los elementos de la metrica
son puramente covariantes, ya que ambos ndices son subndices. La metrica convierte las
componentes contravariantes de un vector a sus componentes covariantes, dentro del mismo
sistema de coordenadas. Esta operacion puede ser escrita, usando la notacion de subndices/superndices
vi = Mij v j .
(5.62)
(5.63)
vi = Mij v j .
(5.64)
En resumen, las ecuaciones que gobiernan las transformaciones de las componentes contravariantes de un vector v pueden ser escritas usando la nueva notacion de subndices/superndices
tij = x i /xj
g ij = xi /x j
vi = tij v j
v i = g ij v j
gj = tij gi
gj = g ij gi .
Las componentes covariantes de v puede ser obtenida desde las componentes contravariantes
usando la metrica
Mij = gi gj
Mij = gi gj
vi = Mij v j
vi = Mij v j .
98
Claramente hay algunos hoyos en estos cuadros. Primero, esta la pregunta de como las
componentes covariantes de un vector transforman. Segundo, decimos que los vectores base
gi son covariantes por naturaleza. Necesitamos probar esto. Finalmente, podemos definir
bases vectoriales contravariantes? Estos topicos estan ntimamente relacionados unos con los
otros, y apuntamos a esa direccion.
5.2.5.
(5.65)
Para determinar [?] de esta expresion, consideremos dos formas equivalentes del producto
interno de dos vectores, uno en el sistema primado y otro en el sistema no primado
A B = Ai Bi = A j Bj .
(5.66)
(5.67)
(5.68)
Como esta ecuacion debe ser valida para cualquier A, se debe tener
Bi = tj i Bj .
(5.69)
(5.70)
Notemos la similaridad entre las ecuaciones (5.60), (5.69) y (5.70). Esto soporta nuestra
conclusion que la base del eje paralelo es covariante.
Ahora somos capaces de combinar las componentes de los vectores base contravariantes,
gi , las cuales pueden ser determinados con la componente del vector covariante para formar
el mismo vector. Esto es,
v = v i gi .
(5.71)
Sera mas bonito construir un nuevo conjunto de vectores base contravariantes, gi , los cuales
pudiesen ser combinados con las componentes covariantes para formar el mismo vector. Esto
es,
v = vi gi .
(5.72)
99
De hecho, podemos usar esta expresion para definir las bases de vectores contravariantes, y
ver las consecuencias.
Las propiedades basicas de las bases de vectores contravariantes pueden ser deducidas
considerando nuevamente el producto interno entre dos vectores, A y B. Si A es expresado
usando la base de vectores covariantes y las componentes contravariantes, mientras B es
escrito con vectores base contravariantes y componentes vectoriales covariantes, el producto
interno se convierte en
A B = Ai gi Bj gj
= Ai Bj gi gj .
(5.73)
De acuerdo a la ecuacion (5.51), esta expresion debe ser igual a Ai Bi , por tanto
gi gj =
1 i=j
,
0 i=j
(5.74)
(5.75)
Esta u
ltima condicion permite determinar tanto la magnitud como la direccion de la base
de vectores contravariante, si la base de vectores covariante es conocida. Trabajando en dos
dimensiones, g1 g2 = 0 y g1 g1 = 1. En palabras, g1 debe ser perpendicular a g2 , mientras
que su proyeccion a lo largo del eje 1, paralelo a g1 , debe ser uno. Esta unicidad determina
g1 y, por argumentos similares, g2 . Las condiciones de la ecuacion (5.75) pueden ser vistas
graficamente como es mostrado en la figura 5.5. Las construcciones en esta figura fueron
hechas suponiendo que |
gi | = 1.
2
g2
g2
1
g1
g1
100
ha supuesto que |
gi | = 1. Las componentes de los vectores contravariantes son simplemente
las magnitudes de las proyecciones paralelas a los ejes del vector sobre los ejes inclinados
definidos por la base covariante de vectores. Las componentes covariantes son las magnitudes
de las proyecciones del vector en el mismo eje coordenado, pero siguiendo las lneas paralelas
a las nuevas base de vectores contravariante. Esto hace que las lneas de proyeccion para
las componentes vectoriales covariantes perpendiculares a los ejes, como es mostrado en la
figura. La geometra asegura que
v = v i gi = vi gi .
(5.76)
V2
V
V2
1
V1
V1
g i = tij gj
i
g =
g ij g j
(5.77)
.
(5.78)
Esto confirma nuestra clasificacion de esta nueva base vectorial como contravariante, ya que
transforma exactamente como las componentes contravariantes de un vector.
El conjunto completo de reglas de transformacion para componentes vectoriales contravariantes y covariantes pueden ser resumidas por el conjunto simetrico de relaciones
v i = tij v j
g i = tij gj
v i = g ij v j
gi = g ij g j
vi = g j i vj
gi = g ji gj
vi = tj i vj
gi = tj i gj
101
con
tij = x i /xj
g ij = xi /x j .
Notemos que las cantidades contravariantes siempre transforman por una suma sobre el
segundo ndice tanto de tij y g ij , mientras las cantidades covariantes transforman sobre
el primer ndice. Para cantidades contravariantes, tij es usado para ir desde el sistema no
primado al sistema primado, mientras que g ij es usado para ir desde el sistema primado al
sistema no primado. Para cantidades covariantes, los roles de tij y g ij son los contrarios.
La nueva base de vectores contravariantes nos permiten construir otra version del tensor
metrico, esta vez con superndices
M ij = gi gj .
(5.79)
(5.80)
Veremos en la proxima seccion que las dos metricas distintas, Mij y M ij son simplemente
representaciones del mismo objeto, el tensor metrico.
5.2.6.
(5.81)
T = T ijk gi gj gk = Tijk gi gj gk .
(5.82)
Sin embargo, los tensores de mas alto rango son mas flexibles que los vectores, ya que
pueden ser expresados en una forma mixta, con ndices contravariantes y covariantes. Por
ejemplo,
T = T ij k gi gj gk
(5.83)
102
misma metrica. Por ejemplo, si las dos expresiones para T en la ecuacion (5.82) son iguales,
podemos escribir
T ijk = M il M jm M kn Tlmn .
(5.84)
(5.85)
(5.86)
Ti jk = tli g jm tnk T l mn
(5.87)
Ejemplo
Hemos dicho que el tensor metrico es un tensor, pero no lo hemos probado. La demostracion es directa. Consideremos los elementos de la metrica, expresado en forma covariante
pura,
Mij = gi gj .
(5.88)
El producto interno entre dos vectores, expresados en dos sistemas de coordenadas distintos,
puede ser escrito como
A B = Ai B j Mij = A m B m Mmn ,
(5.89)
donde Mmn = gm gn . Las ecuaciones de transformacion pueden ser usadas para expresar las
componentes del vector en el sistema primado en terminos de las componentes no primados.
Esto resulta ser,
Ai B j Mij = Ai B j tmi tnj Mmn .
(5.90)
(5.91)
Mij = g mi g nj Mmn .
103
(5.92)
Pero esto es exactamente como transforman los elementos de un tensor de segundo rango.
Por tanto, el tensor metrico es por definicion un tensor. Esto implica que podemos escribir
M = Mij gi gj .
(5.93)
Como la metrica es un tensor, podemos modificar su naturaleza covariante o contravariante como lo haramos para cualquier tensor. Aunque puede parecer un poco extra
na utilizar la
misma metrica para modificarla, podemos cambiar una metrica puramente covariante a una
metrica puramente contravariante aplicando la metrica dos veces
M ij = M im M jn Mmn .
(5.94)
(5.95)
(5.96)
Esto implica que el tensor metrico es realmente solo una generalizacion del tensor Delta de
Kronecker.
5.2.7.
Cuando las derivadas parciales son tomadas con respecto a las coordenadas contravariantes, el resultado es una cantidad covariante. Para ver esto, sean xi y x i las coordenadas
contravariantes en un par arbitrario de sistemas de coordenadas. Las reglas del calculo requieren que se cumpla
xj
=
,
(5.97)
x i
x i xj
donde hay una suma implcita sobre el ndice j. Pero notemos que el termino xj /x i es
exactamente la definicion de g ji . Esto nos permite escribir
= g ji j .
(5.98)
i
x
x
Comparando esta expresion con la ecuacion (5.70) vemos que la operacion derivada parcial
transforma como una cantidad covariante. En ese caso, encontramos que
xj
=
xi
xi xj
= tj i
,
xj
(5.99)
(5.100)
104
(5.101)
(5.102)
(5.103)
donde dxi es una cantidad contravariante, es claro que el gradiente de puede ser escrito
por
=
i
g .
dxi
(5.104)
Podemos chequear la validez de esta expresion, reemplazando las ecuaciones (5.104) y (5.103)
en el lado derecho de la ecuacion (5.102), de donde obtenemos
i
g dxj gj
dxi
= i dxj ij
dx
= i dxi
dx
= d
dr =
(5.105)
(5.106)
,
xi
(5.107)
(5.108)
105
Otro ejemplo
`
Un campo magnetico estatico B puede ser calculado usando la ley de Ampere
dr B =
C
4
I .
c
(5.109)
En esta expresion, I es la corriente total que fluye a traves del camino cerrado C. Tomando
dr como el vector diferencial con componentes contravariantes, como esta dado en la ecuacion
(5.103), las componentes del campo magnetico usadas en esta integracion deben ser escritas
en forma covariante, por tanto
dxi Bi =
C
4
I .
c
(5.110)
106
Captulo 6
Determinantes y matrices.
versi
on final 1.31-1604011
6.1.
Determinantes.
Comenzamos el estudio de matrices resolviendo ecuaciones lineales las cuales nos llevan
a determinantes y matrices. El concepto de determinante y su notacion fueron introducidos
por Leibniz.
Ecuaciones lineales homogeneas.
Una de las mayores aplicaciones de los determinantes esta en el establecimiento de una
condicion para la existencia de una solucion no trivial de un conjunto de ecuaciones algebraicas lineales homogeneas. Supongamos que tenemos tres incognitas x1 , x2 , x3 (o n ecuaciones
con n incognitas).
a1 x1 + a2 x2 + a3 x3 = 0 ,
b1 x 1 + b2 x 2 + b3 x 3 = 0 ,
c1 x1 + c2 x2 + c3 x3 = 0 .
(6.1)
El problema es: en que condiciones hay alguna solucion, aparte de la solucion trivial x1 = 0,
x2 = 0, x3 = 0? Si usamos notacion vectorial x = (x1 , x2 , x3 ) para la solucion y tres filas
a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ), c = (c1 , c2 , c3 ) para los coeficientes, tenemos que las tres
ecuaciones, ecuacion (6.1), se convirten en
ax=0 ,
bx=0 ,
cx=0 .
(6.2)
Estas tres ecuaciones vectoriales tienen la interpretacion geometrica obvia que x es ortogonal
a a, b, c. Si el volumen sustentado por a, b, c dado por el determinante (o el producto escalar
triple)
a1 a2 a3
D3 = (a b) c = det(a, b, c) = b1 b2 b3 ,
(6.3)
c1 c2 c3
1
107
108
(6.5)
puede ser reducido al caso previo embebiendolo en un espacio tridimensional con una solucion
vectorial x = (x1 , x2 , 1) y el vector fila a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ). Como antes, ecuacion
(6.5) en notacion vectorial, a x = 0 y b x = 0, implica que x a b tal que el analogo de la
ecuacion (6.4) se mantiene. Para que esto se aplique la tercera componente de a b debiera
ser distinta de cero, i.e., a1 b2 a2 b1 = 0, ya que la tecera componente de x es 1 = 0. Esto
produce que los xi tengan la forma
a3
b3
(a3 b2 a2 b3 )
x1 =
=
(a1 b2 a2 b1 )
a1
b1
a2
b2
a2
b2
(6.6a)
a1
b1
(a1 b3 a3 b1 )
x2 =
=
(a1 b2 a2 b1 )
a1
b1
a3
b3
.
a2
b2
(6.6b)
. . . an
. . . bn
,
. . . cn
...
(6.7)
6.1. DETERMINANTES.
109
de n
umeros (o funciones), los coeficientes de n ecuaciones lineales en nuestro caso. El n
umero
n de columnas (y de filas) en el arreglo es llamado algunas veces el orden del determinante.
La generalizacion de la expansion del producto escalar triple (de vectores fila de las tres
ecuaciones lineales) tiende al siguiente valor del determinante Dn en n dimensiones,
Dn =
ijk... ai bj ck . . . ,
(6.8)
i,j,k,...
donde ijk . . . ., analogo al smbolo de Levi-Civita de la ecuacion (1.52), es +1 para permutaciones pares (ijk . . .) de (123 . . . n), 1 para permutaciones impares, y cero si alg
un ndice
es repetido.
Especficamente, para el determinante de orden tres D3 de las ecuaciones (6.3) y (6.8)
tenemos
D3 = +a1 b2 c3 a1 b3 c2 a2 b1 c3 + a2 b3 c1 + a3 b1 c2 a3 b2 c1 .
(6.9)
El determinante de orden tres, entonces, es esta particular combinacion lineal de productos. Cada producto contiene uno y solo un elemento de cada fila y de cada columna. Cada
producto es sumado si las columnas (los ndices) representan una permutacion par de (123) y
restando si corresponde a una permutacion impar. La ecuacion (6.3) puede ser considerada en
umero de terminos en la suma (ecuacion (6.8))
notacion abreviada de la ecuacion (6.9). El n
es 24 para un determinante de cuarto orden, en general n! para un determinante de orden
n. A causa de la aparicion de signos negativos en la ecuacion (6.9) pueden haber cancelaciones. Debido a esto es muy posible que un determinante de elementos grandes tenga un valor
peque
no.
Algunas propiedades u
tiles de los determinantes de n-esimo orden siguen de la ecuacion
(6.8). De nuevo, para ser especfico, la ecuacion (6.9) para determinantes de orden tres es
usada para ilustrar estas propiedades.
Desarrollo laplaciano por las menores.
La ecuacion (6.9) puede ser reescrita
D3 = a1 (b2 c3 b3 c2 ) a2 (b1 c3 b3 c1 ) + a3 (b1 c2 b2 c1 )
= a1
b b
b2 b3
b b
a2 1 3 + a3 1 2 .
c1 c2
c2 c3
c1 c3
(6.10)
En general, el determinante de orden n-esimo puede ser expandido como una combinacion
lineal de productos de elementos de alguna fila (o columna) por determinantes de orden
(n 1) formados suprimiendo la fila y la columna del determinante original en el cual aparece
el elemento. Este arreglo reducido (2 2 en el ejemplo especfico) es llamado una menor. Si
el elemento esta en la i-esima fila y en la j-esima columna, el signo asociado con el producto
es (1)i+j . La menor con este signo es llamada el cofactor. Si Mij es usado para designar
la menor formado omitiendo la fila i y la columna j y cij es el cofactor correspondiente, la
ecuacion (6.10) se convierte en
3
3
j+1
D3 =
(1)
j=1
aj M1j =
aj c1j .
j=1
(6.11)
110
1 0
0 0
0 0
0 1
0
0
,
1
0
(6.12)
D = (1)
1 0 0
0 1 .
(1) 0
0 1 0
(6.13)
0 1
1 0
(6.14)
Este determinante D (ecuacion (6.12)) esta formado de una de las matrices de Dirac que
aparecen en la teora relativista del electron de Dirac.
Antisimetra.
El determinante cambia de signo si cualquier par de filas son intercambiadas o si cualquier
par de columnas son intercambiadas. Esto deriva del caracter par-impar del Levi-Civita en
la ecuacion (6.8) o explcitamente de la forma de las ecuaciones (6.9) y (6.10).
Esta propiedad es frecuentemente usada en Mecanica Cuantica para la construccion de
una funcion de onda de muchas partculas que, en concordancia con el principio de exclusion
de Pauli, sera antisimetrica bajo el intercambio de cualquier par de partculas identicas con
spin 1/2 (electrones, protones, neutrones, etc).
Como un caso especial de antisimetra, cualquier determinante con dos filas iguales o dos
columnas iguales es nulo.
Si cada elemento en una fila o de una columna es cero el determinante completo es nulo.
Si cada elemento en una fila o de una columna es multiplicado por una constante, el
determinante completo es multiplicado por esa constante.
El valor de un determinante es inalterado si un m
ultiplo de una fila es a
nadido (columna
por columna) a otra fila o si un m
ultiplo de una columna es a
nadido (fila por fila) a otra
columna. Tenemos
a1 a2 a3
a1 + ka2 a2 a3
b1 b2 b3 = b1 + kb2 b2 b3 .
(6.15)
c1 c2 c3
c1 + kc2 c2 c3
6.1. DETERMINANTES.
111
(6.16)
entonces por la propiedad de antisimetra el segundo determinante del lado derecho se anula,
verificando la ecuacion (6.15).
Un caso especial, un determinante es igual a cero, si cualquier par de filas o columnas son
proporcionales.
Volviendo a las ecuaciones homogeneas (6.1) y multiplicando el determinante de los coeficientes por x1 , y luego sumando x2 veces la segunda columna y x3 veces la tercera columna,
podemos establecer directamente la condicion para la presencia de una solucion no trivial
para la ecuacion (6.1):
a1 a2 a3
x1 a1 a2 a3
a1 x1 + a2 x2 + a3 x3 a2 a3
0 a2 a3
x1 b1 b2 b3 = x1 b1 b2 b3 = b1 x1 + b2 x2 + b3 x3 b2 b3 = 0 b2 b3 = 0 . (6.17)
c1 c2 c3
x1 c1 c2 c3
c1 x1 + c2 x2 + c3 x3 c2 c3
0 c2 c3
Por lo tanto x1 (x2 y x3 ) deberan ser cero a menos que el determinante de los coeficientes
sea nulo. Podemos mostrar que si el determinante de los coeficientes es nulo, existe realmente
una solucion no trivial.
Si nuestras ecuaciones lineales son inhomogeneas, esto es, como en la ecuacion (6.5) o si
los ceros en el lado derecho de la ecuacion (6.1) fueran reemplazados por a4 , b4 , c4 respectivamente, luego de la ecuacion (6.17) obtenemos,
a4
b4
c4
x1 =
a1
b1
c1
a2
b2
c2
a2
b2
c2
a3
b3
c3
,
a3
b3
c3
(6.18)
112
Resolvamos
3x + 2y + z = 11
2x + 3y + z = 13
x + y + 4z = 12 .
(6.19)
El determinante de la ecuacion lineal no homogenea ecuacion (6.19) es 18, por lo tanto existe
una solucion.
Por conveniencia y para una optima precision numerica, las ecuaciones son reordenadas
tal que los coeficientes mayores corran a lo largo de la diagonal principal (superior izquierda
a inferior derecha). Esto ha sido hecho en el conjunto anterior.
La tecnica de Gauss es usar la primera ecuacion para eliminar la primera incognita x de
las ecuaciones restantes. Entonces la (nueva) segunda ecuacion es usada para eliminar y de la
u
ltima ecuacion. En general, descendemos poco a poco a traves del conjunto de ecuaciones,
y luego, con una incognita determinada, avanzamos gradualmente para resolver cada una de
las otras incognitas en sucesion.
Dividiendo cada fila por su coeficiente inicial, vemos que las ecuaciones (6.19) se convierten
en
2
1
11
x+ y+ z =
3
3
3
3
1
13
x+ y+ z =
2
2
2
x + y + 4z = 12 .
(6.20)
(6.21)
2
1
11
x+ y+ z =
3
3
3
1
17
y+ z=
5
5
y + 11z = 25 .
(6.22)
(6.23)
6.1. DETERMINANTES.
113
o
z=2.
Finalmente, al reemplazar obtenemos
y+
1
17
2=
,
5
5
o
y=3.
Luego con z e y determinados,
x+
2
1
11
3+ 2=
,
3
3
3
y
x=1.
La tecnica podra parecer no tan elegante como la ecuacion (6.17), pero esta bien adaptada
a los computadores modernos y es mas rapida que el tiempo gastado con los determinantes.
Esta tecnica de Gauss puede ser usada para convertir un determinante en una forma
triangular:
a1 b1 c1
D = 0 b2 c 2 ,
0 0 c3
para un determinante de tercer orden cuyos elementos no deben ser confundidos con aquellos
en la ecuacion (6.3). De esta forma D = a1 b2 c3 . Para un determinante de n-esimo orden la
evaluacion de una forma triangular requiere solamente n 1 multiplicaciones comparadas
con las n! requeridas para el caso general.
Una variacion de esta eliminacion progresiva es conocida como eliminacion de GaussJordan. Comenzamos como si fuera el procedimiento de Gauss, pero cada nueva ecuacion
considerada es usada para eliminar una variable de todas las otras ecuaciones, no solo
de aquellas bajo ella. Si hemos usado esta eliminacion de Gauss-Jordan, la ecuacion (6.23)
llegara a ser
1
7
x+ z =
5
5
1
17
y+ z=
5
5
z=2,
(6.24)
(6.25)
114
6.2.
Matrices.
El analisis matricial pertenece al algebra lineal ya que las matrices son operadores o
mapas lineales tales como rotaciones. Supongamos, por ejemplo, que rotamos las coordenadas
cartesianas de una espacio bidimensional tal que, en notacion vectorial,
x1
x2
x1 cos x2 sen
x2 sin x1 cos
aij xj
(6.26)
(6.27)
Para extender esta definicion de multiplicacion de una matriz por un vector columna a el
producto de dos matrices de 2 2, consideremos la rotacion de coordenada seguida por una
segunda rotacion dada por la matriz B tal que
x = Bx .
(6.28)
Por componentes
xi =
bij xj =
j
bij
j
ajk xk =
k
bij ajk
k
xk .
(6.29)
cik xk ,
(6.30)
6.2. MATRICES.
115
por sus efectos sobre las coordenadas o vectores base. Los elementos de matriz aij constituyen
una representacion del operador, una representacion que depende de la eleccion de una base.
El caso especial donde una matriz tiene una columna y n filas es llamada un vector
columna, |x , con componentes xi , i = 1, 2, . . . ., n. Si A es una matriz de n n, |x es un
vector columna de n componentes, A|x esta definida como en la ecuacion (6.27) y (6.26).
Similarmente, si una matriz tiene una fila y n columnas, es llamada un vector fila, x| con
componentes xi , i = 1, 2, . . . .n. Claramente, x| resulta de |x > por el intercambio de filas
Definiciones b
asicas.
Una matriz puede ser definida como una arreglo cuadrado o rectangular de n
umeros
o funciones que obedecen ciertas leyes. Esto es una extension perfectamente logica de los
conceptos matematicos familiares. En aritmetica tratamos con n
umeros simples. En la teora
de variable compleja tratamos con pares ordenados de n
umeros, (1, 2) = 1 + 2i, en el cual
el orden es importante. Ahora consideremos n
umeros (o funciones) ordenados en un arreglo
cuadrados o rectangular. Por conveniencia en el trabajo posterior los n
umeros son distinguidos
por dos subndices, el primero indica la fila (horizontal) y el segundo indica la columna
(vertical) en la cual aparecen los n
umeros. Por ejemplo, a13 es el elemento de matriz en la
primera fila y tercera columna. De este modo, si A es una matriz con m filas y n columnas,
a11
a21
A = ..
.
a12
a22
..
.
am1 am2
a1n
a2n
.. .
..
.
.
amn
(6.31)
Quizas el hecho mas importante a notar es que los elementos aij no estan combinados unos
con otros. Una matriz no es un determinante. Es un arreglo ordenado de n
umeros, no un
simple n
umero.
La matriz A hasta ahora de solo es un arreglo de n
umeros que tiene las propiedades
que le asignamos. Literalmente, esto significa construir una nueva forma de matematicas.
Postulamos que las matrices A, B y C, con elementos aij , bij y cij , respectivamente, combinan
de acuerdo a las siguientes reglas.
Igualdad.
Matriz A= Matriz B si y solo si aij = bij para todos los valores de i y j. Esto, por su
puesto, require que A y B sean cada uno arreglos de m n (m filas y n columnas).
2
116
Suma.
A + B = C si y solo si aij + bij = cij para todos los valores de i y j, los elementos se
combinan de acuerdo a las leyes del algebra lineal (o aritmetica si hay n
umeros simples). Esto
significa que A + B = B + A, la conmutacion. Tambien, se satisface la ley de asociatividad
(A + B) + C = A + (B + C). Si todos los elementos son cero, la matriz es llamada matriz nula
y se denota por 0. Para todo A,
A+0=0+A=A ,
con
0
0
.. . .
.
.
0 0
0
0
0 = ..
.
0
0
.. .
.
0
(6.32)
Tal que las matrices de m n forman un espacio lineal con respecto a la suma y la resta.
Multiplicaci
on (por un escalar).
La multiplicacion de la matriz A por una cantidad escalar esta definida como
A = (A) ,
(6.33)
en la cual los elementos de A son aij ; esto es, cada elemento de la matriz A es multiplicado
por el factor escalar. Esto contrasta con el comportamiento de los determinantes en el cual el
factor multiplica solamente una columna o una fila y no cada elemento del determinante.
Una consecuencia de esta multiplicacion por escalar es que
A = A ,
conmutacion.
(6.34)
Multiplicaci
on (multiplicaci
on matricial) producto interno.
aik bkj .
AB = C si y solo si cij =
(6.35)
Los elementos i y j de C estan formados como un producto escalar de la i-esima fila de A con
el j-esima columna de B (el cual demanda que A tenga el mismo n
umero de columnas como
B tiene de filas). El ndice mudo k toma los valores 1, 2, . . . , n en sucesion, esto es,
cij = ai1 b1j + ai2 b2j + ai3 b3j ,
(6.36)
6.2. MATRICES.
117
El elemento 11 del producto, (1 3 )11 esta dado por la suma de productos de elementos de la
primera fila de 1 con el correspondiente elemento de la primera columna de 3 : Aqu
(1 3 )ij = 1i1 31j + 1i2 32j .
Una aplicacion directa de la multiplicacion de matrices muestra que
3 1 =
0 1
1 0
(6.38)
(6.39)
(6.40)
1 0 0
0 1 0
1 = .. .. . . .. .
(6.41)
. .
. .
0 0 1
Notamos que es posible que el producto de dos matrices sea una matriz nula sin ser ninguna
de ellas una matriz nula. Por ejemplo, si
A=
1 1
0 0
y B=
1 0
1 0
La perdida de la propiedad conmutativa es descrita por el conmutador [A, B] = AB BA. La no conmutatividad se expresa por [A, B] = 0.
118
Producto directo.
(6.43)
(6.44)
con
= n(i 1) + k ,
= n(j 1) + l .
AB=
a12 b11
a12 b21
a22 b11
a22 b21
a12 b12
a12 b22
.
a22 b12
a22 b22
(6.45)
a11 0
0
A = 0 a22 0 .
0
0 a33
Una interpretacion fsica de tales matrices diagonales y el metodo de reducir matrices a esta
forma diagonal son considerados en la seccion 10.5. Aqu nos limitamos a notar la importante
propiedad de que la multiplicacion de matrices es conmutativa, AB = BA, si A y B son cada
una diagonales.
6.2. MATRICES.
119
Traza.
En cualquiera matriz cuadrada la suma de los elementos diagonales es llamada la traza.
Claramente la traza es una operacion lineal:
traza(A B) = traza(A) traza(B) .
Una de sus interesantes y u
tiles propiedades es que la traza de un producto de dos matrices
A y B es independiente del orden de la multiplicacion:
traza(AB) =
(AB)ii =
i
aij bji
i
bji aij =
i
(BA)jj
(6.46)
= traza(BA) .
Esto se mantiene a
un cuando AB = BA. La ecuacion (6.46) significa que la traza de cualquier
conmutador, [A, B] = AB BA, es cero. De la ecuacion (6.46) obtenemos
traza(ABC) = traza(BCA) = traza(CAB) ,
lo cual muestra que la traza es invariante bajo permutaciuones cclicas de la matriz en un
producto.
Para una matriz simetrica o una matriz Hermtica compleja la traza es la suma, y el
determinante el producto, de sus autovalores, y ambos son coeficientes del polinomio caracterstico. La traza servira una funcion similar para las matrices como la ortogonalidad sirve
para los vectores y funciones.
En terminos de tensores la traza es una contraccion y como el tensor de segundo orden
contrado es un escalar (invariante).
Las matrices son usadas ampliamente para representar los elementos de grupos. La traza
de las matrices representando los elementos de grupo es conocido en teora de grupos como
el caracter. La razon de este nombre especial y espacial atencion es que mientras las matrices
pueden variar la traza o caracter se mantiene inavariante.
Inversi
on de matriz.
Al comienzo de esta seccion la matriz A fue presentada como la representacion de un
operador que (linealmente) transforma los ejes de coordenadas. Una rotacion podra ser un
ejemplo de tal transformacion lineal. Ahora buscaremos la transformacion inversa A1 que
restablecera los ejes de coordenadas originales. Esto significa, ya sea como una ecuacion
matricial o de operador4 ,
AA1 = A1 A = 1 .
(6.47)
Podemos probar (ejercicio) que
a1
ij =
4
Cji
,
|A|
(6.48)
120
con la suposicion que el determinante de A (|A|) = 0. Si es cero, etiquetaremos a A como singular. No existe la inversa. Como fue explicado en la seccion 10.1 esta forma con determinante
es totalmente inapropiado para el trabajo numerico con grandes matrices.
Hay una amplia variedad de tecnicas alternativas. Una de las mejores y mas com
unmente
usada es la tecnica de inversion de matrices de Gauss-Jordan. La teora esta basada en los
resultados que muestran que existen matrices ML tal que el producto ML A sera A pero con
a. una fila multiplicada por una constante, o
b. una fila reemplazada por la fila original menos un m
ultiplo de otra fila, o
c. filas intercambiadas.
Otras matrices MR operando sobre la derecha de (AMR ) puede llevar a las mismas operaciones sobre las columnas de A.
Esto significa que las filas y las columnas de la matriz pueden ser alteradas (por multiplicacion de matrices) como si estuvieramos tratando con determinantes, as podemos aplicar
las tecnicas de eliminacion de Gauss-Jordan a los elementos de matriz. Por tanto existe una
matriz ML (o MR ) tal que5
ML A = 1 .
(6.49)
La ML = A1 . Determinamos ML realizando las operaciones de eliminacion identicas sobre
la matriz unidad. Luego
ML 1 = ML .
(6.50)
Para clarificar esto consideremos un ejemplo especfico.
Deseamos invertir la matriz
3 2 1
A = 2 3 1 .
1 1 4
Por conveniencia escribimos A y 1
una de ellas
3
2
1
2 1
1 0 0
0 1 0 .
3 1
(6.52)
1 4
0 0 1
0
0
3
1
0 2 0 .
0 0 1
1 3 3
0
0
3
5 1
1 1
0 6 6
3 2 0 .
0 31 11
13 0 1
3
5
(6.51)
(6.53)
(6.54)
121
Entonces dividimos la segunda fila (de ambas matrices) por 5/6 y sustrayendola 2/3 veces
de la primera fila, y 1/3 veces de la tercera fila. Los resultados para ambas matrices son
1 0
0 1
0 0
1
5
1
5
18
5
25 0
3
0 .
5
15 1
3
5
2
5
15
(6.55)
Dividimos la tercera fila (de ambas matrices) por 18/5. Luego como u
ltimo paso 1/5 veces
la tercera fila es sustrada de cada una de las dos primeras filas (de ambas martices). Nuestro
par final es
11
7
1
1 0 0
8
18
18
11
1
18
(6.56)
18 18
0 1 0
.
1
1
5
0 0 1
18 18 18
El chequeo es multiplicar la original A por la calculada A1 para ver si realmente obtuvimos
la matriz unidad 1.
Como con la solucion de Gauss-Jordan de ecuaciones algebraicas simultaneas, esta tecnica
esta bien adaptada para computadores.
6.3.
Matrices ortogonales.
El espacio de tres dimensiones ordinario puede ser descrito con las coordenadas cartesianas (x1 , x2 , x3 ). Consideremos un segundo conjunto de coordenadas cartesianas (x1 , x2 , x3 )
cuyo origen y sentido coinciden con el primero pero su orientacion es diferente (figura 10.1).
Podemos decir que el sistema de ejes prima ha sido rotado respecto al inicial sistema de
x3
x2
x3
x1
x2
x1
x1
x1
coordenadas sin prima. Ya que esta rotacion es una operacion lineal, esperamos una ecuacion
matricial que relaciones la base con primas con la sin primas.
122
Cosenos directores.
(6.57)
Por conveniencia estos cosenos, los cuales son los cosenos directores, son etiquetados
cos(x1 , x1 ) = x1 x1 = a11 ,
cos(x1 , x2 ) = x1 x2 = a12 ,
cos(x1 , x3 ) = x1 x3 = a13 .
(6.58)
Continuando, tenemos
cos(x2 , x1 ) = x2 x1 = a21 ,
cos(x2 , x2 ) = x2 x2 = a22 ,
(a21 = a12 ) ,
y as sucesivamente.
(6.59)
(6.60)
(6.61)
Aplicaciones a vectores.
Si consideramos un vector cuyas componentes son funciones de la posicion, entonces
V (x1 , x2 , x3 ) = x1 V1 + x2 V2 + x3 V3
= V (x1 , x2 , x3 ) = x1 V1 + x2 V2 + x3 V3 ,
(6.62)
ya que el punto puede ser dado en cualquiera de los dos sistema de coordenadas (x1 , x2 , x3 ) o
(x1 , x2 , x3 ). Notemos que V y V son geometricamente el mismo vector (pero con diferentes
componentes). Si los ejes de coordenadas son rotados, el vector se mantiene fijo. Usando la
ecuacion (6.60) para eliminar x1 , x2 , x3 , podemos separar la ecuacion (6.62) en tres ecuaciones
escalares
V1 = a11 V1 + a12 V2 + a13 V3
V2 = a21 V1 + a22 V2 + a23 V3
V3 = a31 V1 + a32 V2 + a33 V3 .
(6.63)
123
(6.64)
y similarmente para las coordenadas primas. En esta notacion el conjunto de tres ecuaciones
(6.64) pueden ser escritas como
3
xi =
aij xj ,
(6.65)
j=1
xi
aik xk
aij xj
i
xj xk
(6.66)
aij aik .
i
j,k
Esto solo puede ser cierto para todos los puntos si y solo si
aij aik = jk ,
j, k = 1, 2, 3 .
(6.67)
(6.68)
(6.69)
124
x2
x2
x2
n
e
s
x2
os
c
x1
x1
x1
x1
cos sen
sen cos
(6.70)
Notemos que A se reduce a la matriz unidad para = 0. La rotacion cero significa que nada
ha cambiado. Es claro a partir de la figura 10.2 que
a11 = cos = cos(x1 , x1 ) ,
= cos(x1 , x2 ) ,
a12 = sen = cos
2
y as sucesivamente,
(6.71)
de este modo identificamos los elementos de matriz aij con los cosenos directores. La ecuacion
(6.67), la condicion de ortogonalidad, llega a ser
sen2 + cos2 = 1 ,
sen cos sen cos = 0 .
(6.72)
la extension a tres dimensiones ( rotacion de las coordenadas a lo largo del eje z en un angulo
en el sentido de los punteros del reloj) es simplemente
cos sen 0
A = sen cos 0 .
0
0
1
(6.73)
El a33 = 1 expresa el hecho que x3 = x3 , ya que la rotacion ha sido en torno al eje x3 Los
ceros garantizan que x1 y x2 no dependen de x3 y que x3 no depende de x1 y x2 . En un
lenguaje mas sofisticado, x1 y x2 se extienden sobre un subespacio invariante, mientras que
x3 forma un subespacio invariante por si solo. La forma de A es reducible. La ecuacion (6.73)
da una posible descomposicion.
125
Matriz inversa A1 .
Volviendo a la matriz de transformacion general A, la matriz inversa A1 es definida tal
que
|x = A1 |x .
(6.74)
Esto es, A1 describe el inverso de la rotacion dada por A y retorna el sistema de coordenadas
a su posicion original. Simbolicamente, las ecuaciones (6.68) y (6.74) combinadas dan
|x = A1 A|x ,
(6.75)
A1 A = 1 ,
(6.76)
AA1 = 1 .
(6.77)
y ya que |x es arbitrario,
Matriz transpuesta, A.
Podemos determinar los elementos de nuestra postulada matriz inversa A1 empleando
la condicion de ortogonalidad. La ecuacion (6.67), la condicion de ortogonalidad, no esta de
acuerdo con nuestra definicion de multiplicacion matricial, pero la podemos definir de acuerdo
tal que
a una nueva matriz A
a
ji = aij .
(6.78)
La ecuacion (6.67) llega a ser
=1.
AA
(6.79)
Esta es una reformulacion de la condicion de ortogonalidad y puede ser tomada como una
definicion de ortogonalidad. Multiplicando (6.79) por A1 por la derecha y usando la ecuacion
(6.77), tenemos
= A1 .
A
(6.80)
Este importante resultado que la inversa es igual a la transpuesta se mantiene solo para
matrices ortogonales y puede ser tomado como una reformulacion de la condicion de ortogonalidad.
Multiplicando la ecuacion (6.80) por A por la izquierda, obtenemos
=1,
AA
(6.81)
aji aki = jk ,
(6.82)
o
i
126
(6.83a)
aji aki = jk
(6.83b)
= AA
=1
AA
= A1 .
A
(6.83c)
(6.83d)
Cualquiera de estas relaciones es condicion necesaria y suficiente para que A sea ortogonal.
Es posible ahora ver y enteder por que el nombre ortogonal es apropiado para estas
matrices. Tenemos la forma general
Angulos
de Euler.
Nuestra matriz de trasformacion A contiene nueve cosenos directores. Claramente, solo
tres de ellos son independientes, la ecuacion (6.67) proveen seis restricciones. De otra manera,
uno puede decir que necesita dos parametros ( y en coordenadas polares esfericas) para
fijar el eje de rotacion, mas uno adicional para describir la magnitud de la rotacion en torno a
ese eje. En la formulacion Lagrangiana de la mecanica es necesario describir A usando alg
un
conjunto de tres parametros independientes mas que los redundantes cosenos directores. La
eleccion usual de estos parametros es la de los angulos de Euler6
El objetivo de describir la orientacion de un sistema final rotado (x1 , x2 , x3 ) relativo a
algun sistema de coordenadas inicial (x1 , x2 , x3 ). El sistema final es desarrollado en tres pasos
cada paso involucra una rotacion descrita por un angulo de Euler (figura 10.3):
1. Los ejes x1 , x2 , y x3 son rotados respecto al eje x3 en un angulo en el sentido horario
relativo a x1 , x2 y x3 . (Los ejes x3 y x3 coinciden.)
6
No hay una u
nica manera de definir los
angulos de Euler. Usamos la eleccion usual en Mecanica Cuantica
de momento angular.
127
x 3= x3
x
3 = x
3
x 3= x3
x
3
x1
x1
x2
x 3= x3
x2
x1
x
1
x2
x=
2 x
2
x
1
(b)
(a)
x
2
x=
x
2
2
x
1
(c)
Figura 6.3: (a) Rotacion respecto al eje x3 en un angulo ; (b) Rotacion respecto a un eje x2
en un angulo ; (c) Rotacion respecto a un eje x3 en un angulo .
cos sen
Rz () = sen cos
0
0
0
0 ,
1
(6.84)
cos 0 sen
1
0
Ry () = 0
sen 0 cos
(6.85)
cos sen 0
Rz () = sen cos 0 .
0
0
1
(6.86)
(6.87)
128
Comparando A(aij ) con A(, , ) elemento por elemento, nos produce los cosenos directores
en terminos de los angulos de Euler.
Propiedades de simetra.
Nuestra descripcion matricial conduce al grupo de rotaciones SO(3) en el espacio tridimensional R3 , y la descripcion en terminos de angulos de Euler de las rotaciones forman una
base para desarrollar el grupo de rotaciones. Las rotaciones pueden tambien ser descritas por
el grupo unitario SU (2) en el espacio bidimensional C2 .
La matriz transpuesta es u
til en la discusion de las propiedades de simetra. Si
,
A=A
aij = aji ,
(6.89)
aij = aji ,
(6.90)
es llamada antisimetrica. Los elementos de la diagonal son nulos. Es facil mostrar que cualquier matriz cuadrada puede ser escrita como la suma de una matriz simetrica y una antisimetrica. Consideremos la identidad
A=
1
+ 1 AA
.
A+A
2
2
(6.91)
r
y
r 1= A r
y
x
129
Supongamos que interpretamos la matriz A como rotar un vector r en una nueva posicion
r1 , i.e., en un particular sistema de coordenadas tenemos la relacion
r1 = Ar .
(6.92)
Ahora rotemos las coordenadas aplicando una matriz B, la cual rota (x, y, z) en (x , y , z ),
r 1 = Br1 = BAr = (Ar)
= BA(B1 B)r
1
(6.93)
1
r1 = A
r .
En el nuevo sistema las coordenadas han sido rotadas por la matriz B, A tiene la forma A ,
en la cual
A = BAB1 .
(6.94)
A opera en el espacio x , y , z como A opera en el espacio x, y, z.
La transformacion definida por la ecuacion (6.94) con B cualquier matriz, no necesariamente ortogonal, es conocida como trasformacion de similaridad. Por componentes la ecuacion
(6.94) llega a ser
aij =
bik akl (B1 )lj .
(6.95)
k,l
Ahora si B es ortogonal,
lj = bjl ,
(B1 )lj = (B)
(6.96)
y tenemos
aij =
(6.97)
k,l
6.4.
Definiciones.
Hasta aqu hemos generalmente supuesto que nuestro espacio vectorial es un espacio real
y que los elementos de las matrices (la representacion de los operadores lineales) son reales.
Para muchos calculos en Fsica Clasica los elementos de matriz reales seran suficientes. Sin
130
embargo, en Mecanica Cuantica las variables complejas son inevitables por la forma de las
reglas de conmutacion basicas (o la ecuacion tiempo dependiente de Schodinger). Con esto
en mente, generalizamos al caso de matrices con elementos complejos. Para manejar estos
elementos, definamos algunas propiedades.
1. Compleja conjugada, A ,
formada por tomar los complejos conjugados (i i) de
cada elemento, donde i = 1.
2. Adjunta, A , formada por transponer A ,
.
A = A = A
(6.98)
(6.99)
(6.100)
131
0 1
1 0
2 =
0 i
i 0
3 =
1 0
0 1
1
2
(6.101)
en Mecanica Cuantica
anticonmutacion
permutacion cclica de los ndices
(6.102)
(6.103)
(6.104)
(6.106)
2mi = tr(M i ) ,
i = 1, 2, 3 .
(6.107)
En 1927 P.A.M. Dirac extendio este formalismo para partculas de spin 21 moviendose a
velocidades cercana a la de la luz tales como electrones Para inclur la relatividad especial
su punto de partida es la ecuacion de Einstein para la energa E 2 = p 2 c2 + m2 c4 en vez de
la energa cinetica y potencial no relativista E = p 2 /2m + V . La clave para la ecuacion de
Dirac es factorizar
E 2 p 2 c2 = E 2 (c p)2 = (E c p)(E + c p) = m2 c4 ,
(6.108)
(6.109)
(6.111)
132
0 + 0 = 0 ,
(6.112)
debe satisfacerse que las cuatro matrices anticonmuten, justo como las tres matrices de
Pauli. Ya que estas u
ltimas son un conjunto completo de matrices anticonmutantes de 2 2,
la condicion (6.112) no puede ser satisfacerse para matrices de 2 2, pero ella puede ser
satisfecha para matrices de 4 4
1 0 0
0
0 1 0
12 0
0
0 = 0 =
0 0 1 0 = 0 12 ,
0 0 0 1
(6.113)
0
0 0 1
0
0 1 0
0 12
=
0 1 0 0 = 12 0 .
1 0 0 0
Alternativamente, el vector de matrices de 4 4
=
0
0
= = 1 ,
(6.114)
puede obtenerse como el producto directo en el mismo sentido de la seccion 10.2 de las
matrices de 2 2 de Pauli. De la misma manera, 0 = 3 12 y 14 = 12 12 .
Resumiendo el tratamiento relativista de una partcula de spin 21 , produce matrices de
4 4, mientras que las partculas no relativistas de spin 12 son descritas por las matrices de
Pauli de 2 2.
6.5.
Diagonalizaci
on de matrices.
(6.115)
donde viene a ser la velocidad angular. La matriz de inercia I tiene elementos diagonales
mi (ri2 x2i ) , y as sucesivamante,
Ixx =
i
(6.116)
DE MATRICES.
6.5. DIAGONALIZACION
133
Por inspeccion la matriz I es simetrica. Tambien, ya que I aparece en una ecuacion fsica de la
forma (6.115), la cual se mantiene para todas las orientaciones del sistema de coordenadas,
esta puede ser considerada un tensor (regla del cuociente).
La clave ahora es la orientacion de los ejes (a lo largo de un cuerpo fijo) tal que Ixy y
los otros elementos no diagonales desaparezcan. Como una consecuencia de esta orientacion
y una indicacion de ella, si la velocidad angular esta a lo largo de tales realineados ejes, la
velocidad angular y el momento angular seran paralelos.
Autovectores y autovalores (eigenvector y eigenvalues).
Es quizas instructivo considerar un cuadro geometrico asociado a este problema. Si la
matriz de inercia I es multiplicada a cada lado por un vector unitario cuya direccion es
variable, n
= (, , ), entonces en notacion de Dirac
n
|I|
n =I ,
(6.118)
(6.119)
Si introducimos
n = = (n1 , n2 , n3 ) ,
I
la cual es variable en direccion y magnitud entonces la ecuacion (6.119) llega a ser
1 = Ixx n21 + Iyy n22 + Izz n23 + 2Ixy n1 n2 + 2Ixz n1 n3 + 2Iyz n2 n3 ,
(6.120)
(6.121)
una forma cuadratica positiva la cual debe ser un elipsoide (ver figura 10.5).
A partir de la geometra analtica es sabido que los ejes de coordenadas pueden ser rotados
para coincidir con los ejes de nuestro elipsoide. En muchos casos elementales, espacialmente
cuando hay simetra, estos nuevos ejes, llamados ejes principales, pueden ser encontrados por
inspeccion. Ahora nosotros procederemos a desarrollar un metodo general de hallazgo de los
elementos diagonales y los ejes principales.
es la correspondiente matriz ortogonal real tal que n = Rn, o |n = R|n en
Si R1 = R
la notacion de Dirac, son las nuevas coordenadas, luego obtenemos usando n |R = n| en la
ecuacion (6.121)
2
2
2
n|I|n = n |RIR|n
= I1 n1 + I2 n2 + I3 n3 ,
(6.122)
donde los Ii > 0 son los momentos de inercia principales. La matriz de inercia I en la ecuacion
(6.122) es diagonal en las nuevas coordenadas,
I1 0 0
= 0 I 0 .
(6.123)
I = R1R
2
0 0 I3
134
n3
n3
n1
n2
n1
n2
(6.124)
i = 1, 2, 3 ,
(6.125)
con autovalores Ii y autovectores vi . Como estas ecuaciones son lineales y homogeneas (para
un i fijo), por la seccion 10.1 los determinantes tienen que anularse:
I11 I1
I12
I13
I21
I22 I2
I23
=0.
I31
I32
I33 I3
(6.126)
Reemplazando los autovalores Ii por una variable veces la matriz unidad 1, podriamos
reescribir la ecuacion (6.125) como
(I 1)|v = 0 ,
(6.127)
|I 1| = 0 ,
(6.128)
cuyo determinante
es un polinomio c
ubico en ; sus tres raices, por supuesto, son los Ii . Sustituyendo una raz
de regreso en la ecuacion (6.125), podemos encontrar los correspondientes autovectores. La
ecuacion (6.126) (o la (6.128)) es conocida como la ecuacion secular. El mismo tratamiento
se aplica a una matriz simetrica real I, excepto que sus autovalores no necesitan ser todos positivos. Tambien, la condicion de ortogonalidad en la ecuacion (6.83a-6.83d) para R dice que,
en terminos geometricos, los autovectores vi son vectores mutuamente ortogonales unitarios.
Por cierto ellos forman las nuevas coordenadas del sistema. El hecho que cualquier par de
DE MATRICES.
6.5. DIAGONALIZACION
135
(6.129)
(6.130)
Ahora mostramos que si A es una matriz hermtica, sus autovalores son reales y sus
autovectores ortogonales.
Sean i y j dos autovalores y |ri y |rj , los correspondientes autovectores de A, una
matriz hermtica. Entonces
A|ri
A|rj
= i |ri
= j |rj .
(6.131)
(6.132)
(6.133)
(6.134)
(6.135)
rj |A|ri = j rj |ri ,
(6.136)
o
ya que A es hermtica. Sustrayendo la ecuacion (6.136) de la ecuacion (6.133), obtenemos
(i j ) rj |ri .
(6.137)
Este es un resultado general para todas las combinaciones posibles de i y j. Primero, sea
j = i. Luego la ecuacion (6.137) se convierte en
(i i ) ri |ri = 0 .
(6.138)
Ya que ri |ri = 0 sera una solucion trivial de la ecuacion (6.138), concluimos que
i = i ,
(6.139)
136
es decir, i es real, para todo i.
Segundo, para i = j y i = j ,
(i j ) ri |rj = 0
(6.140)
ri |rj = 0
(6.141)
o
lo cual significa que los autovectores de distintos autovalores son ortogonales, la ecuacion
(6.141) siendo la generalizacion de ortogonalidad en este espacio complejo.
Si i = j (caso degenerado), ri | no es automaticamente ortogonal a |rj , pero podra
hacerse ortogonal. Consideremos el problema fsico de la matriz del momento de inercia
nuevamente. Si xi es un eje de simetra rotacional, entonces encontraremos que 2 = 3 . Los
autovectores |r2 y |r3 son cada uno perpendiculares al eje de simetra, |r1 , pero ellos yacen
en alguna parte en el plano perpendicular a |r1 ; esto es, alguna combinacion lineal de |r2 y
|r3 es tambien un autovector. Considere (a2 |r2 + a3 |r3 ) con a2 y a3 constantes. Entonces
A(a2 |r2 + a3 |r3 ) = a2 2 |r2 + a3 3 |r3
= 2 (a2 |r2 + a3 |r3 ) ,
(6.142)
como es esperado, para x1 un eje de simetra rotacional. Por lo tanto, si |r1 y |r2 son
fijos, |r3 , puede simplemente escogerse yaciendo en el plano perpendicular a |r1 y tambien
perpendicular a |r2 . Un metodo general para ortogonalizar soluciones conocido como proceso
de Gram-Schmidt, es aplicado a funciones mas adelante.
El conjunto de n autovectores ortogonales de nuestra matriz hermtica de n n forma un
conjunto completo, generando el espacio de n dimensiones complejo. Este hecho es u
til en un
calculo variacional de los autovalores. Los autovalores y los autovectores no estan limitados
a las matrices hermticas. Todas las matrices tienen autovalores y autovectores. Por ejemplo,
la matriz T de poblacion estocastica satisface una ecuacion de autovalores
TPequilibrio = Pequilibrio ,
con = 1. Sin embargo, solamente las matrices hermticas tienen todos los autovectores
ortogonales y todos sus autovalores reales.
Matrices antihermticas.
Ocasionalmente, en Mecanica Cuantica encontramos matrices antihermticas:
A = A .
Siguiendo el analisis de la primera porcion de esta seccion, podemos mostrar que
a. Los autovalores son imaginarios puros (o cero).
b. Los autovectores correspondientes a autovalores distintos son ortogonales.
DE MATRICES.
6.5. DIAGONALIZACION
137
La matriz R formada de los autovectores normalizados es unitaria. Esta propiedad antihermtica es preservada bajo transformaciones unitarias.
Ejemplo: Autovalores y autovectores de una
Sea
A= 1
0
La ecuacion secular es
1 0
0 0 .
0 0
(6.143)
1
0
1 0 = 0 ,
0
0
(6.144)
(2 1) = 0 ,
(6.145)
o
expandiendolo por las menores. Las raices son = 1, 0, 1. Para encontrar el autovector
correspondiente a = 1, sustituimos este valor de vuelta en la ecuacion de autovalores,
ecuacion (6.130),
1
0
x
0
1 0 y = 0 .
(6.146)
0
0
z
0
Con = 1, esto produce
x+y =0 ,
z=0.
(6.147)
Dentro de un factor de escala arbitrario, y un signo arbitrario (factor de fase), r1 | = (1, 1, 0).
Notemos que (para el real |r en el espacio ordinario) el autovector define una lnea en el
espacio. El sentido positivo o negativo no esta determinado. Esta indeterminacion puede
ser entendida si notamos que la ecuacion (6.130) es homogenea en |r . Por conveniencia
requeriremos que los autovectores esten normalizados a la unidad, r1 |r1 = 1. Con esta
eleccion de signo
1
1
(6.148)
r1 | = r 1 = , , 0 ,
2
2
esta fijo. Para = 0, la ecuacion (6.130) produce
y=0,
x=0,
(6.149)
z=0,
(6.150)
1 1
, ,0 .
(6.151)
2 2
La ortogonalidad de r1 , r2 y r3 , correspondientes a los tres autovalores distintos, puede ser
facilmente verificada.
r3 | = r 3 =
138
Consideremos
La ecuacion secular es
1 0 0
A = 0 0 1 .
0 1 0
(6.152)
1 0
0
0
1 = 0 ,
0
1
(6.153)
o
(1 )(2 1) = 0 ,
= 1, 1, 1 ,
(6.154)
y+z =0 .
(6.155)
1
1
0, ,
2
2
(6.156)
para = 1, tenemos
y+z =0 .
(6.157)
1 1
0, ,
2 2
(6.158)
(6.159)
Funciones de matrices.
Polinomios con uno o mas argumentos matriciales estan bien definidos y ocurren a menudo. Series de potencias de una matriz tambien pueden estar definidas para dar la convergencia
de la serie para cada uno de los elementos de matriz. Por ejemplo, si A es cualquiera matriz
de n n entonces la serie de potencia
exp(A) =
i=0
sen(A) =
Ai
,
i!
(1)i
A2i+1
,
(2i + 1)!
(6.160b)
(1)i
A2i
,
(2i)!
(6.160c)
i=0
cos(A) =
i=0
7
(6.160a)
139
son matrices de n n bien definidas. Para todas las matrices de Pauli k la identidad de
Euler para real y k =1, 2 o 3
exp(ik ) = 12 cos() + ik sen() ,
(6.161)
sale a partir de colectar las potencias pares e impares en series separadas usando k2 = 1.
Para las matrices de Dirac ij de 4 4 con ( ij )2 = 1, si j = k = 1, 2 o 3, obtenemos de
manera similar (sin escribir las obvias matrices 14 nunca mas)
exp(i jk ) = cos() + i jk sen() ,
(6.162)
(6.163)
mientras
manteniendo real porque (i 0k )2 = 1 para k = 1, 2 o 3.
Para una matriz hermtica A hay una matriz unitaria U que la diagonaliza, es decir,
UAU = [a1 , a2 , . . . , an ]. Entonces la formula de la traza
det(exp(A)) = exp(tr(A))
(6.164)
(6.165)
lo cual resulta de multiplicar las serie de potencia para exp(iG) y recolectar los terminos de
la misma potencia en iG. Aqu definimos
[G, H] = GH HG
como el conmutador de G con H.
6.6.
Matrices normales.
(6.166)
140
Autovectores
Matriz
Autovalores
(para diferentes autovalores)
Hermtica
Real
Ortogonal
Antihermtica Imaginaria puro (o cero)
Ortogonal
Unitaria
Magnitud uno
Ortogonal
Normal
Si A tiene autovalor
Ortogonal
A tiene autovalor
A y A tienen los mismos autovectores
Cuadro 6.1:
o
(A 1)|x = 0 .
(6.167)
(6.169)
(6.170)
x|BB |x = 0 .
(6.171)
Usando (6.169)
Ahora la ecuacion (6.171) puede ser rescrita como
(B |x ) (B |x ) = 0 .
(6.172)
B |x = (A 1)|x = 0 .
(6.173)
Asi
Vemos que para matrices normales, A tiene los mismos autovectores que A pero los autovalores son los complejos conjugados.
II. Ahora, consideremos mas que uno autovector-autovalor, tenemos
A|xi = i |xi ,
A|xj = j |xj .
(6.174)
(6.175)
(6.176)
141
(6.177)
A partir de la ecuacion (6.173) sabemos que A tiene los mismos autovectores que A pero con
los complejos conjugados de los autovalores
(A |xi ) = (i |xi ) = i xi | .
(6.178)
(6.179)
(i j ) xi |xj = 0 .
(6.180)
o
Esta es la misma que la ecuacion (6.140).
Para i = j
xi |xj = 0 .
Los autovectores correspondientes a diferentes autovalores de una matriz normal son ortogonales. Esto significa que una matriz normal puede ser diagonalizada por una transformacion
unitaria. La matriz unitaria requerida puede ser construida a partir de los vectores ortonormales como se mostro en la seccion anterior.
El converso tambien es valido. Si A puede ser diagonalizada por una transformacion
unitaria, entonces A es normal.
Modos normales de vibraci
on.
Consideremos las vibraciones de un modelo clasico de la molecula de CO2 Esta es una
ilustracion de la aplicacion de las tecnicas matriciales a un problema que no parte como
un problema de matrices. Tambien provee un ejemplo de autovalores y autovectores de una
matriz real asimetrica.
Ejemplo: Modos Normales.
Consideremos tres masas sobre el eje x unidas por resortes como muestra la figura 10.6.
Las fuerzas de los resortes se suponen lineales (para peque
nos desplazamientos, ley de Hooke)
y las masas se restringen a mantenerse sobre el eje x.
Usando una coordenada diferente para cada masa la segunda ley de Newton produce el
conjunto de ecuaciones
k
(x1 x2 )
M
k
k
x2 = (x2 x1 ) (x2 x3 )
M
m
k
x3 = (x3 x2 ) .
M
x1 =
(6.181)
142
x1
x2
x3
El sistema de masa esta vibrando. Buscamos las frecuencias comunes, tal que todas las
masas vibren en esta misma frecuencia. Estos son los modos normales. Sea
xi = xi0 eit ,
i = 1, 2, 3.
M
M
2k
k
m
m
k
0
x
x1
1
0
x2
= 2
x2 ,
k
x3
x3
M
(6.182)
0
M
M
k
2k
k
=0.
m
m
m
k
k
0
2
M
M
Esto conduce a
2
k
2
M
2k
k
m
M
=0
k
,
M
k
2k
+
,
M
m
(6.183)
143
Los correspondientes autovectores son determinados sustituyendo los autovalores de regreso en la ecuacion (6.182) un autovalor a la vez. Para 2 = 0, ecuacion (6.182) produce
x1 x2 = 0
x1 + 2x2 x3 = 0
x2 + x3 = 0 .
Entonces, tenemos
x1 = x2 = x3 .
Esto describe una translacion pura sin movimiento relativo de las masas y sin vibracion.
k
, la ecuacion (6.182) produce
Para 2 =
M
x1 = x3 ,
x2 = 0 .
(6.184)
Las masas exteriores se mueven en direcciones opuestas. El masa del centro esta estacionaria.
k
2k
Para 2 =
+ , las componentes de los autovectores son
M
M
x2 =
x1 = x3 ,
2M
x1 .
m
Las dos masas exteriores se estan moviendo juntas. La masa del centro se esta moviendo
opuesta a las otras dos. El momentum neto es cero.
Cualquier desplazamiento de estas tres masas a lo largo del eje x puede ser descrito como
una combinacion lineal de estos tres tipos de movimiento: translacion mas dos formas de
vibracion.
Sistemas con condiciones patol
ogicas.
Un sistema lineal de ecuaciones puede ser escrito como
A|x = |y
o A1 |y = |x ,
(6.185)
1/2
K(A)
y|y
y|y
1/2
(6.186)
| |max
.
| |min
(6.187)
144
(6.188)
1 1 1
1
2 3 4
1 1 1 1
(6.189)
H4 = 2 3 4 5 .
1 1 1 1
3 4 5 6
1 1 1 1
4
(1)i+j
(n + i 1)!(n + j 1)!
.
i + j 1 [(i 1)!(j 1)!]2 (n i)!(n j)!
H1
4
16 120
240 140
120
1200 2700
1680
.
=
240 2700
6480 4200
140
1680 4200
2800
(6.190)
(6.191)
umero para H4
A partir de la ecuacion (6.188) la estimacion de Turing de la condicion de n
llega a ser
KTuring = 4 1 6480
2.59 104 .
Esto es una advertencia de que un error en la entrada puede ser multiplicado por 26000
en el calculo del resultado de salida. Esto sentencia que H4 tiene condicion patologica. Si
usted encuentra un sistema altamente patologico tiene un par de alternativas (ademas de
abandonar el problema).
a. Tratar un ataque matematico diferente.
b. Hacer arreglos para llevar mas cifras significativas y a costa de fuerza bruta empujar de
principio a fin.
Captulo 7
Teora de grupo.
versi
on final 1.2-0905021
7.1.
Introducci
on.
145
146
cos 2 sen 2
sen 2 cos 2
cos(1 + 2 ) sen(1 + 2 )
sen(1 + 2 ) cos(1 + 2 )
, (7.2)
7.1. INTRODUCCION.
147
tal que el producto es unitario y un elemento de SU(n). Cada matriz unitaria tiene una
inversa la cual es tambien unitaria.
Homomorfismo, isomorfismo.
Puede haber una correspondencia entre los elementos de dos grupos (o entre dos representaciones), uno a uno, dos a uno, o muchos a uno. Si esta correspondencia preserva la
multiplicacion del grupo, diremos que los dos grupos son homomorficos. Una de las mas importantes correspondencias homomorficas entre el grupo de rotaciones SO(3) y el grupo de
matrices unitarias SU(2) sera desarrollado en la proxima seccion. Si la correspondencia es
uno a uno, y a
un preserva la multiplicacion del grupo,3 entonces los grupos son isomorficos.
Un ejemplo es las rotaciones de coordenadas a traves de un angulo finito en el sentido
horario respecto al eje z en el espacio tridimensional descrito por
cos sen 0
Rz () = sen cos 0 .
(7.3)
0
0
1
El grupo de rotaciones Rz es isomorfico al grupo de rotaciones en la ecuacion (7.1).
Representaciones matriciales, reducibles e irreducibles.
La representacion de los elementos de un grupo por matrices es una tecnica muy poderosa
y ha sido casi universalmente adoptada por los fsicos. El uso de matrices no impone restricciones significativas. Puede mostrarse que los elementos de cualquier grupo finito y de grupos
continuos pueden ser representados por matrices. Ejemplos son las rotaciones descritas en la
ecuacion (7.1) y (7.3).
3
Supongamos que los elementos del primer grupo son etiquetados por gi y los elementos del segundo
grupo por hi . Entonces gi hi en una correspondencia uno a uno para todos los valores de i. Si gi gj = gk y
hi hj = hk , entonces gk y hk deben ser los elementos correspondientes del grupo.
148
Para ilustrar como las representaciones matriciales surgen a partir de una simetra, consideremos la ecuacion estacionaria de Schrodinger (o alg
un otra ecuacion de autovalores tal
como I vi = Ii vi para los momentos principales de inercia de un cuerpo rgido en mecanica
clasica)
H = E .
(7.4)
Supongamos que la ecuacion (7.4) se mantiene invariante bajo la accion de un grupo G de
transformaciones R en G (rotaciones de coordenadas, por ejemplo, para un potencial central
V (r) en el Hamiltoniano H), i.e.,
HR = RHR1 = H .
(7.5)
(7.6)
En otras palabras, todas las soluciones rotadas R son degeneradas en energa o forman lo
que los fsicos llaman un multiplete. Supongamos que este espacio vectorial V de soluciones
transformadas tiene una dimension finita n. Sean 1 , 2 , . . . , n una base. Ya que Rj es un
miembro del multiplete, podemos expandirlo en terminos de esta base
Rj =
rjk k .
(7.7)
As, cada R en G puede ser asociado a una matriz (rjk ), y este mapeo R (rjk ) es llamada
una representacion de G. Si podemos tomar cualquier elemento de V y por rotaciones con
todos los elementos de R de G transforman en todos los otros elementos de V entonces la
representacion es irreducible. Si todos los elementos de V no son alcanzados, entonces V se
separa en una suma directa de dos o mas subespacion vectoriales, V = V1 + V2 + . . ., los
cuales son mapeados dentro de ellos mismos por rotacion de sus elementos. En este caso la
representacion es llamada reducible. Entonces podemos encontrar una base en V (i.e., hay
una matriz unitaria U) tal que
r1 0 . . .
U(rjk )U = 0 r2 . . .
.. .. . .
.
. .
(7.8)
para todos los R de G y todas las matrices (rjk ). Aqui r1 , r2 , . . ., son matrices de menor
dimensiones que (rjk ) que estan alineadas a lo largo de la diagonal y los 0 son matrices de
ceros. podemos decir que R ha sido descompuestas en r1 + r2 + . . . en paralelo con V =
V1 V2 . . ..
Las representaciones irreducibles juegan un rol en teora de grupo que es aproximadamente
analogo a los vectores unitarios en el analisis vectorial. Ellas son las representaciones mas
simples, toda otra puede ser construida desde ellas.
7.2.
149
Un caracterstica de los grupos continuos conocidos como grupos de Lie es que los parametros de un producto de elementos son funciones analticas de los parametros de los factores.
La naturaleza analtica de las funciones nos permite desarrollar el concepto de generador y
reduce el estudio del grupo completo a un estudio de los elementos del grupo en la vecindad
del elemento identidad.
La idea esencial de Lie fue el estudio de elementos R en un grupo G que esten infinitesimalmente cercanos a la unidad de G. Consideremos el grupo SO(2) como un ejemplo simple.
Las matrices de rotacion de 2 2 en la ecuacion (7.1) puede ser escrita en forma exponencial
usando la identidad de Euler ecuacion (6.161) como
R() =
cos sen
sen cos
(7.9)
0,
(7.10)
(7.11)
Este es el caso para el grupo de rotaciones SO(n) y el grupo unitario SU(n), como veremos
mas adelante.
Si R de G en la ecuacion (7.1) es unitario, entonces S = S es hermtica, lo cual tambien
es el caso para SO(n) y SU(n). Ya que hay un i extra en la ecuacion (7.10).
Expandamos los elementos del grupo
1
Ri = exp(ii Si ) = 1 + ii Si 2i S2i + . . . ,
2
1 2 2
R1
i = exp(ii Si ) = 1 ii Si i Si + . . . ,
2
(7.12)
150
1
Rj
Ri
1
Ri
Rj
R ij
Figura 7.1: Ilustracion de la ecuacion (7.13).
1
R1
i Rj Ri Rj = 1 + i j [Sj , Si ] + . . . ,
ckji Sk + . . . ,
= 1 + i j
(7.13)
Los coeficientes ckij son las constantes de estructura del grupo G. Ya que el conmutador en la
ecuacion (7.14) es antisimetrico en i y en j, tambien lo son las constantes de estructura en
los ndices inferiores,
ckij = ckji .
(7.15)
Si el conmutador en la ecuacion (7.14) es tomado como la regla de multiplicacion de los
generadores, vemos que el espacio vectorial de los generadores llega a ser un algebra, el algebra
de Lie G del grupo G. Para SU(l + 1) el algebra de Lie es llamada Al , para SO(2l + 1) es Bl
y para SO(2l) es Dl , donde l = 1, 2, . . . es un entero positivo, esto sera llamado el rango de
grupo de Lie G o de su algebra G.
Finalmente, la identidad de Jacobi se satisface para los doblas conmutadores
[[Si , Sj ], Sk ] + [[Sj , Sk ], Si ] + [[Sk , Si ], Sj ] = 0 ,
(7.16)
(7.17)
151
(7.18)
mn
(7.19)
Las relaciones (7.14), (7.15) y (7.19) forman la base de las algebras de Lie desde la cual los
elementos finitos del grupo de Lie cerca de su unidad puede ser reconstrudo.
Volviendo a la ecuacion (7.5), el inverso de R es exactamente R1 = exp(iS). expandimos HR de acuerdo a la formula de Baker-Haudorff, ecuacion (6.17),
H = HR = exp(iS)H exp(iS) = H + i[S, H] 2
(7.20)
(7.21)
Si S y H son matrices hermticas, la ecuacion (7.21) dice que S y H pueden ser simultaneamente diagonalizados. Si S y H son operadores diferenciales como el Hamiltoniano y el momento
angular orbital en mecanica cuantica, entoces la ecuacion (7.21) dice que S y H tienen autofunciones en com
un y que los autovalores degenerados de H pueden ser distinguidos por los
autovalores de los generadores S. Esta es con mucho la mas importante aplicacion de teora
de grupos a mecanica cuantica.
A continuacion, estudiaremos los grupos ortogonales y unitarios como ejemplos.
Grupos de rotaciones SO(2) y SO(3).
Para SO(2) definido por la ecuacion (7.1) hay solo un generador linealmente independiente, 2 y el orden de SO(2) es 1. Obtenemos 2 a partir de diferenciar la ecuacion (7.9) y
evaluarla en cero,
i
dR()
d
= i
=0
sen
cos
cos sen
= i
=0
0 1
1 0
= 2 .
(7.22)
Para las rotaciones Rz () sobre el eje z descritas por la ecuacion (7.3), el generador es
dado por
0 i 0
dR()
i
= Sz = i 0 0 ,
(7.23)
d =0
0 0 0
donde el factor extra i es insertado para hacer Sz hermtica. La rotacion Rz () en un angulo
infinitesimal puede ser escrita como
Rz () = 13 + iSz ,
(7.24)
152
(7.25)
Sz
N
= exp(iSz ) .
(7.26)
Esta forma identifica Sz como el generador del grupo Rz , un subgrupo abeliano de SO(3), el
grupo de rotaciones en tres dimensiones con determinante +1. Cada matriz de 3 3 Rz ()
es ortogonal, por lo tanto unitaria, y la tr(Sz ) = 0 de acuerdo con la ecuacion (7.11).
Por diferenciacion de las rotaciones de coordenadas
1
0
0
cos 0 sen
cos sen , Ry () = 0
1
0 ,
Rx () = 0
(7.27)
0 sen cos )
sen 0
cos
obtenemos los generadores
0 0 0
Sx = 0 0 i ,
0 i 0
0 0 i
Sy = 0 0 0 ,
i 0 0
(7.28)
(7.30)
En palabras, la matriz R opera sobre la funcion , creando una nueva funcion que
es numericamente igual a (x ), donde x son las coordenadas rotadas por R. Si R rota las
coordenadas en el sentido horario, el efecto de la matriz R es rotar el modelo de la funcion
en el sentido horario.
Volviendo a las ecuaciones (7.3) y (7.28), consideremos una rotacion infinitesimal, .
Luego, usando Rz , ecuacion (7.3), obtenemos
Rz ()(x, y, z) = (x + y, y x, z) .
(7.31)
153
El lado derecho puede ser expandido como una serie de Taylor de primer orden en para
dar
y
y
x
= (1 iLz )(x, y, z) ,
Rz ()(x, y, z) = (x, y, z) x
+ O()2
(7.32)
(7.33)
(7.34)
El lado izquierdo es justo dRz ()/ (para 0). En esta forma la ecuacion (7.34) se
integra inmediatamente a
Rz () = exp(iLz ) .
(7.35)
Note cuidadosamente que Rz () rota funciones (en el sentido horario) relativa a las coordenadas fijadas y que Lz es la componente z del momento angular orbital L. La constante de
integracion esta fijada por la condicion de borde Rz (0) = 1.
Si reconocemos que los elementos de matriz
Lz = (x, y, z)Sz
(7.36)
y ,
z
claramente Lx , Ly , Lz satisface la misma relacion de conmutacion
[Li , Lj ] = iijk Lk
(7.37)
ei cos ei sen
ei sen ei cos
a b
b a
(7.38)
154
U2
U2
1
0
0 1
= 3 ,
0
1
1
0
= 1 ,
0 i
i 0
= 2 .
=0,=0
i U2
sen
i
=0
=0,=0
(7.39)
Por supuesto, las matrices de Pauli son todas de traza nula y hermticas.
Con las matrices de Pauli como generadores de los elementos (U1 , U2 , U3 ) de SU(2) pueden
ser generados por
U1 = exp(ia1 1 /2) ,
U2 = exp(ia2 2 /2) ,
U3 = exp(ia3 3 /2) .
(7.40)
Los tres parametros ai son reales. El factor extra 1/2 esta presente en los exponentes ya que
si = i /2 satisface las mismas relaciones de conmutacion 4
[si , sj ] = iijk sk
(7.41)
155
U
M
M
U
La operacion SU(2) sobre una matriz esta dada por una transformacion unitaria, la ecuacion (7.5), con R = U y la figura (11.2)
M = UMU .
(7.42)
Tomando M como una matriz de 2 2, notemos que cualquier matriz de 2 2 puede ser
escrita como una combinacion lineal de la matriz unidad y las tres matrices de Pauli. Sea M
la matriz de traza cero,
M = x1 + y2 + z3 =
z
x iy
x + iy
z
(7.43)
x iy
z
z
x + iy
(7.44)
(x2 + y 2 + z 2 ) = (x + y + z ) ,
(7.45)
o (x2 + y 2 + z 2 ) es invariante bajo esta operacion de SU(2), como con SO(3). SU(2) debe,
por lo tanto, describir una rotacion. Esto sugiere que SU(2) y SO(3) pueden ser isomorficos
o homomorficos.
Aproximemos el problema de que rotacion describe SU(2) considerando casos especiales.
Retomando la ecuacion (7.38) sea a = ei y b = 0, o
Uz =
ei 0
0 ei
(7.46)
156
Realizando una transformacion unitaria sobre cada una de las tres matrices de Pauli,
tenemos
ei 0
0 ei
Uz 1 Uz =
e2i
0
0 1
1 0
e2i
ei 0
0 ei
(7.47)
(7.48)
Similarmente,
Uz y2 Uz = y sen 21 y cos 22 ,
Uz z3 Uz = z3 .
(7.49)
A partir de esta expresion de doble angulo vemos que podramos comenzar con el angulo
medio: = /2. Entonces, de las ecuaciones (7.42)(7.44), (7.48) y (7.49),
x = x cos + y sen
y = x sen + y cos
z =z .
(7.50)
cos /2 sen /2
sen /2 cos /2
(7.51)
Ux (/2) =
cos /2 i sen /2
i sen /2 cos /2
(7.52)
y Ry () y de
y Rx () pueden calcularse como ejercicio. Podemos notar que Uk (/2) tiene la forma general
Uk (/2) = 1 cos /2 + ik sen /2 ,
(7.53)
donde k = x, y, z.
La correspondencia
Uz
=
2
i/2
0
i/2
cos sen 0
sin cos 0 = Rz () ,
0
0
1
(7.54)
ei/2
0
i/2
0
e
= Uz (/2) .
(7.55)
157
Por lo tanto ambos Uz (/2) y Uz (/2+) = Uz (/2) corresponde a Rz (). La correspondencia es de 2 a 1, o SU(2) y SO(3) son homomorficos. Este establecimiento de la correspondencia
entre las representaciones de SU(2) y de aquella SO(3) significa que las representaciones conocidas de SU(2) automaticamente nos proporciona de las representaciones de SO(3).
Combinando las rotaciones, encontramos que una transformacion unitaria usada
U(, , ) = Uz (/2)Uy (/2)Uz (/2) ,
(7.56)
corresponde a la rotacion general de Euler Rz ()Ry ()Rz (). Por multiplicacion directa,
U(, , ) =
=
ei/2
0
0
ei/2
cos /2 sen /2
sen /2 cos /2
ei/2
0
0
ei/2
(7.57)
( + )
,
2
,
2
( )
.
2
(7.58)
(7.59)
158
159
Masa [MeV]
1321.32
1
2
-1
0
I3
12
+ 12
1314.9
0
+
1197.43
1192.55
1189.37
-1
0
+1
1115.63
939.566
1
2
1
p
938.272
1
2
12
+ 12
y paridad par
Y
n
p
1
0
0
I3
0
0 ,
i =
0 0 0
i
i = 1, 2, 3 .
(7.60)
160
De este modo, el grupo del isospin SU(2) es un subgrupo de SU(3) con I3 = 3 /2. Otros
cuatro generadores tienen los no diagonales 1 de 1 e i, i de 2 en todas las otras posibles
ubicaciones para formar las matrices hermticas 3 3 de traza nula.
0 0 i
0 0 1
5 = 0 0 0 ,
4 = 0 0 0 ,
i 0 0
1 0 0
(7.61)
0 0 0
0 0 0
7 = 0 0 i .
6 = 0 0 1 ,
0 i 0
0 1 0
El segundo generador diagonal tiene la matriz unidad bidimensional 12 en la esquina superior
izquierda, la cual la hace claramente independiente del subgrupo SU(2) isospin ya que su traza
no nula en el subespacio, y -2 en el lugar de la tercera diagonal la hace traza nula,
1 0
0
1
0 .
8 = 0 1
(7.62)
3 0 0 2
Generalmente hay 32 1 = 8 generadores para SU(3) el cual tiene orden 8. De los conmutadores de esos generadores pueden obtenerse facilmente las constantes de estructura de
SU(3).
Volviendo a la simetra de sabor SU(3) imaginemos que el Hamiltoniano para nuestro
octeto de bariones estan compuesto de tres partes
H = Hfuerte + Hmedio + Helectromagnetico .
(7.63)
161
masa
0
+
p
H fuerte
H fuerte + H medio
(a)
d
(b)
1/3
Y
_
s
2/3
2 / 3
I3
I3
_
u
1 / 3
_
d
fundamental en la figura 11.5 (a) contiene los quark u (arriba) y d (abajo) y el s (extra
neza),
y figura 11.5 (b) los correspondientes antiquarks. Ya que los octetos de mesones pueden ser
obtenidos a partir de la representacion de quark como pares q q, 32 = 8 + 1, esto sugiere que
los mesones contienen quarks (y antiquarks) como sus constituyentes. El modelo de quarks
resultante dan una exitosa descripcion de la espectroscopa hadronica. La solucion de sus
problemas con el principio de exclusion de Pauli eventualmente conduce a la teora de gauge
de SU(3)-color de las interacciones fuertes llamada cromodinamica cuantica o QCD.
Para mantener la teora de grupo en su real perspectiva, podramos enfatizar que la teora
de grupo identifica y formaliza las simetras. Ella clasifica partculas (y algunas veces predice).
Pero a parte de decir que una parte del hamiltoniano tiene simetra SU(2) y otra parte tiene
162
simetra SU(3), la teora de grupo no dice nada a cerca de la interaccion de las partculas.
Recuerde que la afirmacion de que el potencial atomico es esfericamente simetrico no nos dice
nada a cerca de la dependencia radial del portencial o de su funcion de onda. En contraste, en
una teora de gauge la interaccion es mediada por bosones vectoriales (como el foton media en
la electrodinamica cuantica) y determinado u
nicamente por la derivada covariante de gauge.
7.3.
(7.64)
(7.65)
(7.66)
(7.67)
Por simplicidad,
[J 2 , Ji ] = 0 .
(7.68)
163
Jz |M = M |M ,
(7.69)
Mostraremos ahora que = J(J + 1). Este tratamiento ilustrara la generalidad y potencia
de las tecnicas de operadores particularmente el uso de operadores de subida y bajada.
Un operador de subida o bajada se defina como
J+ = Jx + iJy ,
J = Jx iJy .
(7.70)
(7.71)
[Jz , J ] = J ,
[J+ , J ] = 2Jz .
(7.72)
(7.73)
(7.74)
(7.75)
o
Por lo tanto, J+ |M todava es una autofuncion de Jz con autovalores M +1. J+ ha elevado el
autovalor en 1 y por eso es llamado operador de subida. Similarmente, J baja los autovalores
en 1 y a menudo es llamado operador de bajada.
Tomando los valores esperados y usando Jx = Jx , Jy = Jy ,
M |J 2 Jz2 |M = M |Jx2 + Jy2 |M = | Jx |M |2 + | Jy |M |2 ,
vemos que M 2 0, tal que M es ligado. Sea J el mas grande valor de M . Luego
J+ |J = 0, lo cual implica que J J+ |J = 0. Luego combinando las ecuaciones (7.71) y
(7.72) obtenemos
J 2 = J J+ + Jz (Jz + 1) ,
(7.76)
encontramos que a partir de la ecuacion (7.76)
0 = J J+ |M = J = (J 2 Jz2 Jz )|M = J = ( J 2 J)|M = J .
Por lo tanto
= J(J + 1) 0;
(7.77)
164
(7.78)
vemos que
2
(7.79)
De manera que
= J(J + 1) = J (J 1) = (J)(J 1) .
As J = J, y M corre en pasos enteros desde J a +J,
J M +J .
(7.80)
Comenzando desde |JJ y aplicando J repetidas veces, alcanzaremos todos los otros estados
|JM . De manera que |JM forma una representacion irreductible; M vara y J esta fijo.
Entonces usando las ecuaciones (7.68), (7.76) y (7.78) obtenemos
J J+ |JM = [J(J + 1) M (M + 1)]|JM = (J M )(J + M + 1)|JM ,
J+ J |JM = [J(J + 1) M (M 1)]|JM = (J + M )(J M + 1)|JM .
(7.81)
J = J+ ,
(7.82)
los autovalores o valores esperados en la ecuacion (7.81) deberan ser positivos o cero.
Ya que J+ aumenta el autovalor de M a M + 1, reetiquetaremos la autofuncion resultante
|JM + 1 . La normalizacion esta dada por la ecuacion (7.81) como
J+ |JM =
(J M )(J + M + 1)|JM + 1 ,
(7.83)
Algebra
de Lie
Grupo de Lie
rango
orden
Al
SU(l+1)
l
l(l+2)
165
Bl
Dl
SO(2l+1) SO(2l)
l
l
l(2l+1)
l(2l-1)
(7.86)
(7.88)
(7.89a)
(7.89b)
Ahora podemos mostrar que E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml tiene los vector peso (m1 +
1 , m2 +2 , . . . , ml +l ) usando las relaciones de conmutacion, la ecuacion (7.86), en conjunto
con las ecuaciones (7.89a) y (7.89b),
Hi E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml = (E Hi + [Hi , E ])|(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml
= (mi + i )E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml .
(7.90)
166
Por lo tanto
7.4.
Grupo homog
eneo de Lorentz.
En relatividad especial requerimos que nuestras leyes fsicas sean covariantes8 bajo
a. traslaciones en el tiempo y en el espacio,
b. rotaciones en el espacio real tridimensional, y
c. transformaciones de Lorentz.
El requerimiento para la covarianza bajo traslaciones esta basada en la homogeneidad del
espacio y el tiempo. Covarianza bajo rotaciones es una afirmacion de la isotropa del espacio.
El requerimiento de la covarianza de Lorentz viene de la relatividad especial. Todas estas
tres transformaciones en conjunto forman el grupo inhomogeneo de Lorentz o el grupo de
Poincare. Aqu exclumos las traslaciones. Las rotaciones espaciales y las transformaciones
de Lorentz forman un grupo, el grupo homogeneo ed Lorentz.
Primero generamos un subgrupo, las transformaciones de Lorentz en el cual la velocidad
relativa v esta a lo largo del eje x = x1 . El generador puede ser determinad considerando un
marco de referencia espacio-temporal moviendose con una velocidad relativa infinitesimal v.
Las relaciones son similares a aquellas para rotaciones en el espacio real, excepto que aqu el
angulo de rotacion es imaginario puro.
Las transformaciones de Lorentz son lineales no solo en el espacio de coordenadas xi
si no que tambien en el tiempo t. Ellas se originan a partir de las ecuaciones de Maxwell
de la electrodinamica las cuales son invariantes bajo la transformaciones de Lorentz, como
veremos luego. Las transformaciones de Lorentz dejan invariante la forma cuadratica siguiente
c2 t2 x21 x22 x23 = x20 x21 x22 x23 donde x0 = ct. Vemos esto si encendemos una fuente
de luz en el origen del sistema de coordenadas. En tiempo t la luz ha viajado una distancia
ct =
x2i , tal que c2 t2 x21 x22 x23 = 0. La relatividad especial requiere esto en todos
los sistemas (inercial) que se mueven con velocidad v c en cualquier direccion relativa
al sistema xi y que tengan el mismo origen a tiempo t = 0, se mantenga tambien que
c2 t 2 x1 2 x2 2 x3 2 = 0. El espacio cuadridimensional con la metrica x20 x21 x22 x23 es
llamado espacio de Minkowski con el producto escalar de dos cuadrivectores definido como
a b = a0 b0 a b. Usando el tensor metrico
1 0
0
0
0 1 0
0
(g ) = (g ) =
(7.91)
0 0 1 0 ,
0 0
0 1
8
Ser covariante significa que tienen la misma forma en diferentes sistemas de coordenadas tal que no hay
un sistema de referencia privilegiado.
7.4. GRUPO HOMOGENEO
DE LORENTZ.
167
podemos subir y bajar ndices de un cuadrivector tal como de las coordenadas x = (x0 , x)
es decir x = g x = (x0 , x) y x g x = x20 x 2 , la convecion de suma de Einstein se
dan por entendida. Para el gradiente = (/x0 , ) = /x y = (/x0 , ) tal que
2 = 2 /x20 2 es un escalar de Lorentz, al igual que la metrica x20 x 2 .
Para v
c, en el lmite no relativista, las transformaciones de Lorentz deben ser transformaciones de Galileo. Por lo tanto, para derivar la forma de una transformacion de Lorentz
a lo largo del eje x1 , partimos con una transformacion Galileana para una velocidad relativa
infinitesimal v:
x1 = x1 vt = x1 x0 .
(7.92)
v
Como es usual = . Por simetra tambien podemos escribir
c
x0 = x0 ax1 ,
(7.93)
donde a es un parametro a fijar una vez que se imponga que x20 x21 deba ser invariante,
2
x0 x1 = x20 x21 .
(7.94)
= (1 1 )
x0
x1
(7.95)
1 N
= exp(1 ) .
N
N
Interpretamos la exponencial como una serie de Maclaurin
lm
exp(1 ) = 1 1 +
(7.97)
(1 )2 (1 )3
+ .
2!
3!
(7.98)
Notando que 2 = 1,
exp(1 ) = 1 cosh + 1 senh .
(7.99)
cosh senh
senh
cosh
x0
x1
(7.100)
168
(7.101)
v
.
c
v
excepto en el lmite v 0.
c
Usando 1 tanh2 = (cosh2 )1 ,
cosh = (1 2 )1/2 ,
senh = .
(7.102)
El anterior caso especial en que la velocidad es paralela a uno de los ejes espaciales es
simple, pero ilustra la velocidad infinitesimal, la tecnica de la exponenciacion y el generador.
Ahora esta tecnica puede ser aplicada para derivar las transformaciones de Lorentz para una
velocidad relativa v no paralela a ning
un eje. Las matrices dadas por la ecuacion (7.100) para
el caso v = xvx forman un subgrupo. Las matrices en el caso general no lo hacen. El producto
de dos matrices de transformaciones de Lorentz, L(v1 ) y L(v2 ), producen una tercera matriz
de transformacion L(v3 ), si las dos velocidades v1 y v2 son paralelas. La velocidad resultante
v3 esta relacionada con v1 y con v2 mediante la regla de adicion de velociades de Einstein. Si
v1 y v2 no son paralelas, no existe entonces una relacion simple.
7.5.
Si una ley fsica se mantiene para todas las orientaciones de nuestro (real) espacial sistema
de coordenadas (i.e. es invariante ante rotaciones), los terminos de la ecuacion deben ser covariantes bajo rotaciones. Esto significa que escribimos las leyes fsicas en la forma matematica
escalar=escalar, vector=vector, tensor de segundo rango=tensor de segundo rango, y as sucesivamente. Similarmente, si una ley fsica se mantiene para todos los sistemas inerciales,
los terminos de la ecuacion deben ser covariantes bajo transformaciones de Lorentz.
Usando el espacio de Minkowski (x = x1 , y = x2 , z = x3 , ct = x0 ) tenemos un espacio
cuadridimensional cartesiano con metrica g . Las transformaciones de Lorentz son lineales
en el espacio y en el tiempo en este espacio real de cuatro dimensiones.
Consideremos las ecuaciones de Maxwell
B
,
t
D
H =
+ v ,
t
D = ,
E =
B =0 ,
(7.103a)
(7.103b)
(7.103c)
(7.103d)
169
y las relaciones
D = 0 E ,
B = 0 H .
(7.104)
Todos los smbolos tienen sus significados usuales y hemos supuesto el vacio por simplicidad.
Supongamos que las ecuaciones de Maxwell se mantienen en todos los sistemas inerciales;
esto es , las ecuaciones de Maxwell son consistentes con la relatividad especial. (La covariancia de las ecuaciones de Maxwell bajo transformaciones de Lorentz fue realmente mostrada
por Lorentz y Poincare antes de que Einstein propusiera su teora de la relatividad especial). Nuestro objetivo inmediato es reescribir las ecuaciones de Maxwell como ecuaciones
tensoriales en el espacio de Minkowski. Esto hara la covariancia de Lorentz explcita.
En terminos de los potenciales escalar y vectorial, podemos escribir
B =A ,
E=
A
.
t
(7.105)
La ecuacion anterior especifica el rotor de A; la divergencia de A no esta definida. Podemos, y por futuras conveniencias lo hacemos, imponer la siguiente relacion sobre el vector
potencial
=0.
(7.106)
A + 0 0
t
Este es conocido como el gauge de Lorentz. Servira a nuestros propositos de desacoplar las
ecuaciones diferenciales para A y para .
Ahora reescribimos las ecuaciones de Maxwell en terminos de los potenciales. A partir de
la ecuacion (7.103c) para D y (7.105)
2 +
= ,
t
0
(7.107)
1
v
+ +
+
.
A 2 A =
2
t
t
0 0
0
(7.108)
2 2 2 = .
c t
0
1 2
= 2 = ,
2
2
c t
(7.109)
170
A1
A3
Az
= c0 Az ,
0 c
(7.110)
A 0 0 = A .
Si ponemos ademas
vx
i1 ,
c
vy
i2 ,
c
vz
i3 ,
c
i0 = i0 ,
(7.111)
(7.112)
La ecuacion anterior parece una ecuacion tensorial, pero eso no basta. Para probar que es una
ecuacion tensorial, partimos investigando las propiedades de transformacion de la corriente
generalizada i .
Ya que un elemento de carga de es una cantidad invariante, tenemos
de = dx1 dx2 dx3 ,
invariante.
(7.113)
Vimos que el elemento de volumen cuadridimensional es tambien un invariante, dx1 dx2 dx3 dx0 ,
comparando estos resultados vemos que la densidad de carga debe transformar de la misma
manera que x0 . Ponemos = i0 con i0 establecida como la componente cero de un cuadrivector. Las otras partes de la ecuacion (7.111) pueden ser expandidas como
vx
dx1
=
c
c dt
dx
1
= i0
.
dt
i1 =
(7.114)
Ya que justo mostramos que i0 transforma como dx0 , esto significa que i1 transforma como
dx1 . Con resultados similares para i2 e i3 . tenemos que i transforma como dx , probando
de esta manera que i es un vector, un vector del espacio cuadridimensional de Minkowski.
La ecuacion (7.112), la cual deriva directamente de las ecuaciones de Maxwell, suponemos
que se mantiene en todos los sistemas cartesianos. Entonces, por la regla del cuociente A es
tambien un vector y (7.112) es una legitima ecuacion tensorial.
Ahora, devolviendonos, la ecuacion (7.105) puede ser escrita
Aj A0
+
, j = 1, 2, 3,
x0
xj
1
Ak Aj
Bi =
, (i, j, k) = (1, 2, 3) ,
c
xj
xk
0 Ej =
y permutaciones cclicas.
(7.115)
171
A
A
F = F
x
x
(, = 0, 1, 2, 3)
0
Ex
Ey
Ez
0 Ex Ey Ez
Ex
0 cBz
cBy
0 cBz
cBy
, F = 0 Ex
.
F = 0
Ey
Ey
cBz
0 cBx
cBz
0 cBx
Ez cBy
cBx
0
Ez cBy
cBx
0
(7.116)
Notemos que en nuestro espacio de Minkowski E y B no son mas vectores sino que juntos
forman un tensor de segundo rango. Con este tensor podemos escribir las dos ecuaciones de
Maxwell nohomogeneas (7.103b) y (7.103c) y combinandolas como una ecuacion tensorial
F
= i .
x
(7.117)
=0,
x2
x3 x0
(7.119)
para (7.103a). Una segunda ecuacion permutando 120 y una tercera permutando 130.
Ya que
F
F =
t ,
x
es un tensor de tercer rango, las ecuaciones (7.117) y (7.119) pueden ser expresadas por la
ecuacion tensorial
t + t + t = 0 .
(7.120)
En todos los casos anteriores los ndices , y se suponen diferentes.
Transformaciones de Lorentz de E y B.
La construccion de las ecuaciones tensoriales (7.118) y (7.120) completan nuestro objetivo
inicial de reescribir las ecuaciones de Maxwell en forma tensorial. Ahora explotamos las
propiedades tensoriales de nuestros cuadrivectores y del tensor F .
172
Para las transformaciones de Lorentz que correspoonden a movimientos a lo largo del eje
z(x3 ) con velocidad v, los cosenos directores estan dados por
x0 = (x0 x3 )
x3 = (x3 x1 ) ,
donde
=
(7.121)
v
c
y
= 1 2
1/2
(7.122)
Usando las propiedades de transformacion tensorial, podemos calcular los campos electrico y
magnetico en el sistema en movimiento en terminos de los valores en el marco de referencias
original. A partir de las ecuaciones (7.116) y (7.121) obtenemos
Ex =
Ey =
1
1 2
1
1
Ez = Ez ,
v
By
c2
v
Ey + 2 Bx
c
Ex
,
,
(7.123)
y
Bx =
By =
1
1 2
1
1
Bz = Bz .
v
Ey
c2
v
By 2 Ex
c
Bx +
,
,
(7.124)
173
Invariantes electromagn
eticas.
Finalmente, las propiedades tensoriales (o vectorioles) nos permiten construir una multitud de cantidades invariantes. Una de las importantes es el producto escalar de los cuadrivectores A y i . Tenemos
vy
vz
vx
c0 Ay
c0 Az
+ 0
c
c
c
= 0 ( A J) , invariante,
A i = c0 Ax
(7.126)
174
Captulo 8
Series infinitas.
versi
on final corregida 2.31, 6 de Mayo del 20031
8.1.
Conceptos fundamentales
si =
un ,
(8.1)
n=1
Esta es una suma finita y no ofrece dificultades. Si las sumas parciales si convergen a un
lmite (finito) cuando i ,
lm si = S ,
(8.2)
i
n=1
La serie infinita
un se dice que es convergente y tiene el valor S. Note cuidadosamente
que nosotros razonablemente y plausiblemente, pero a
un arbitrariamente definimos que la
serie infinita es igual a S. Podemos notar que una condicion necesaria para esta convergencia
a un lmite es que el lmn un = 0. Esta condicion, sin embargo, no es suficiente para
garantizar la convergencia. La ecuacion (8.2) usualmente esta escrita en notacion matematica
formal:
La condicion para la existencia de un lmite S es que para cada > 0, haya un
N fijo tal que
| S si | < ,
para todo i > N .
1
175
176
Esta condicion a menudo derivada del criterio de Cauchy aplicado a las sumas parciales
si . El criterio de Cauchy es:
Una condicion necesaria y suficiente para que una sucesion (si ) converja es que
para cada > 0 exista un n
umero fijo N tal que
|sj si | <
un = 1 1 + 1 1 + 1 + (1)n .
n=0
n(n + 1)
2
Cuando n ,
lm sn = .
Cada vez que las sumas parciales diverjan (tienden a ), la serie infinita se dice que
diverge. A menudo el termino divergente es extendido para incluir series oscilatorias.
Ya que evaluamos las sumas parciales por aritmetica ordinaria, la serie convergente, definida en terminos del lmite de las sumas parciales, asume una posicion de importancia
suprema. Dos ejemplos pueden clarificar la naturaleza de convergencia o divergencia de una
serie y servira como una base para una investigacion mas detallada en la proxima seccion.
Ejemplo Series geometricas.
La sucesion geometrica, comenzando con a y con una razon r(r >= 0), esta dado por
a + ar + ar2 + ar3 + + arn1 + .
La suma parcial n-esima esta dada por
sn = a
1 rn
1r
(8.3)
177
lm sn =
para r < 1.
(8.4)
De modo que, por definicion, la serie geometrica infinita converge para r < 1 y esta dada por
arn1 =
n=1
a
.
1r
(8.5)
n1 = 1 +
n=1
1 1 1
1
+ + + + + .
2 3 4
n
(8.6)
Tenemos que el lmn un = lmn 1/n = 0, pero esto no es suficiente para garantizar la
convergencia. Si agrupamos los terminos (no cambiando el orden) como
1+
1
+
2
1 1
+
3 4
1 1 1 1
+ + +
5 6 7 8
1
1
+ +
9
16
+ ,
(8.7)
(8.8)
Formando sumas parciales sumando un grupos entre parentesis por vez, obtenemos
s1 = 1 ,
3
,
2
4
s3 > ,
2
s2 =
5
,
2
6
s5 > ,
2
n+1
sn >
.
2
s4 >
(8.9)
Las series armonicas consideradas de esta manera ciertamente son divergentes. Una demostracion independiente y alternativa de su divergencia aparece en la seccion 8.2.
Usando el teorema del binomio, podramos expandir la funcion (1 + x)1 :
1
= 1 x + x2 x3 + . . . + (x)n1 + .
1+x
(8.10)
(8.11)
178
una serie que etiquetamos como oscilatoria anteriormente. Aunque no converge en el sentido
usual, significa que puede ser ligada a su serie. Euler, por ejemplo, asignado un valor de 1/2 a
esta sucesion oscilatoria sobre la base de la correspondencia entre esta serie y la bien definida
funcion (1 + x)1 . Desafortunadamente, tal correspondencia entre la serie y la funcion no es
u
nica y esta aproximacion debera ser redefinida. Otros metodos de asignar un significado a
una serie oscilatoria o divergente, metodos de definir una suma, han sido desarrollados. Otro
ejemplo de generalizar la convergencia lo vemos en las serie asintotica o semi-convergente,
consideradas mas adelante.
8.2.
Pruebas de Convergencia
8.2.1.
Pruebas de comparaci
on.
Si termino a termino una serie de terminos un an , en el cual los an forman una serie
convergente, las series n un tambien es convergente. Simbolicamente, tenemos
an = a1 + a2 + a3 + ,
convergente,
un = u1 + u2 + u3 + .
n
divergente,
vn = v1 + v2 + v3 + .
n
Raz de Cauchy
179
Integral de
Euler Maclaurin
Kummer, an
(Comparacin con
la integral)
an= n
Raabe
an= n ln n
Gauss
Figura 8.1: Prueba de comparacion.
Todos las pruebas desarrolladas en esta seccion son esencialmente pruebas de comparacion.
La figura 8.1 muestra estas pruebas y sus relaciones.
Ejemplo Las series p.
Probamos n np , p = 0.999, por convergencia. Ya que n0.999 > n1 , y bn = n1 forman
la serie armonica divergente, la prueba de comparacion muestra que n n0.999 es divergente.
Generalizando, n np se ve como divergente para todo p 1.
8.2.2.
Si (an )1/n r < 1 para todo n suficientemente grande, con r independiente de n, entonces
1/n
1 para todo n suficientemente grande, entonces n an es
n an es convergente. Si (an )
divergente.
La primera parte de esta prueba se verifica facilmente elevando (an )1/n r a la n-esima
potencia. Obtenemos
an r n < 1 .
Ya que rn es solo el termino n-esimo en una serie geometrica convergente, n an es convergente por la prueba de comparacion. Conversamente, si (an )1/n 1, entonces an 1 y la serie
debera diverger. La prueba de la raz es particularmente u
til en establecer las propiedades
de la serie de potencias.
180
8.2.3.
Prueba de la raz
on de D Alembert o Cauchy.
convergencia
divergencia
indeterminado.
(8.12)
an+1
=1,
an
(8.13)
(8.14)
(8.15)
Ya que
an+1
3
an
4
para n 2,
(8.16)
y de nuevo converge.
(8.17)
8.2.4.
181
Esta es otra clase de prueba de comparacion en la cual comparamos una serie con una
integral. Geometricamente, comparamos el area de una serie de un rectangulo de ancho
unitario con el area bajo la curva.
Sea f (x) una funcion continua, monotonamente decreciente en la cual f (n) = an . Luego
esima suma
n an converge si 0 f (x) dx es finita y diverge si la integral es infinita. Para la i-
parcial
i
si =
an =
n=1
f (n) .
(8.18)
n=1
Pero
i+1
si >
f (x) dx ,
(8.19)
por la figura 8.2a, f (x) es monotonamente decreciente. Por otra parte, de la figura 8.2b,
i
si a1 <
f (x) dx ,
(8.20)
en la cual la serie esta representada por los rectangulos inscritos. Tomando el lmite como
i , tenemos
an <
f (x) dx <
1
n=1
f (x) dx + a1 .
(8.21)
De modo que la serie infinita converge o diverge cuando la integral correspondiente converge
o diverge respectivamente.
(a)
f(x)
(b)
f(1)=a1
f(2)=a2
f(x)
f(1)=a1
x
1 2 3 4
1 2 3 4 5
Figura 8.2: (a) Comparacion de la integral y la suma de bloques sobresalientes. (b) Comparacion de la integral y la suma de bloques envueltos.
182
Esto es,
an =
n=1
donde
an +
n=1
an ,
n=N +1
f (x) dx <
an <
N +1
f (x) dx + aN +1 .
N +1
n=N +1
Nf
f (n) =
Nf
(x [x])f (x) dx .
f (x) dx +
Ni
n=Ni +1
(8.22)
Ni
Aqu [x] denota el entero mayor por debajo de x, tal que x [x] vara como diente de sierra
entre 0 y 1.
Ejemplo Funcion Zeta de Riemann.
La funcion zeta de Riemann esta definida por
np .
(p) =
(8.23)
n=1
xp+1
, p=1
p
+
1
p
x dx =
1
ln x ,
p=1
1
(8.24)
La integral y por lo tanto la serie son divergentes para p 1 y convergente para p > 1. De
modo que la ecuacion (8.23) lleva la condicion de p > 1. Esto, incidentalmente, es una prueba
independiente de que la serie armonica (p = 1) diverge y lo hace en forma logartmica. La
suma del primer millon de terminos 1.000.000 n1 , es solamente 14.392726. . . .
Esta comparacion con la integral tambien puede ser usada para dar una cota superior a
la constante Euler-Mascheroni definida por
n
= lm
1
ln n
m
m=1
(8.25)
dx
ln n + 1 .
x
(8.26)
sn =
m
m=1
ln n <
1
Evaluando la integral del lado derecho, sn < 1 para todo n y por lo tanto < 1. Realmente
la constante de Euler-Mascheroni es 0.57721566. . . .
8.2.5.
183
Prueba de Kummer.
Esta es la primera de tres pruebas que son algo mas difciles para aplicar que las anteriores.
Su importancia radica en su poder y sensibilidad. Frecuentemente, al menos una de las
tres funcionara cuando las pruebas mas faciles sean indeterminadas. Debe recordarse, sin
embargo, que estas pruebas, como aquellas previamente discutidas, estan finalmente basadas
en comparaciones. Esto significa que todas las pruebas de convergencia dadas aqu, incluyendo
la de Kummer, puedan fallar algunas veces.
Consideremos una serie de terminos positivos ui y una sucesion de constantes positivas
finitas ai . Si
un
an
an+1 C > 0 ,
(8.27)
un+1
para todo n N , alg
un n
umero fijo, entonces
an
i=1
ui converge. Si
un
an+1 0
un+1
(8.28)
a1
diverge, luego
i
i=1 ui diverge.
La prueba de este poderoso test es simple y queda como ejercicio.
Si las constantes positivas an de la prueba de Kummer son elegidas como an = n, tenemos
la prueba de Raabe.
y
i=1
8.2.6.
Prueba de Raabe.
Si un > 0 y si
n
un
1
un+1
P >1,
(8.29)
i
ui converge.
(8.30)
un
1
un+1
=P .
(8.31)
Tenemos convergencia para P > 1, y divergencia para P < 1, y no hay prueba para P = 1
exactamente como con el test de Kummer. Esta indeterminancia esta expresada en que
podemos encontrar ejemplos de una serie convergente y una divergente en que ambas series
tienden a P = 1 en la ecuacion (8.31).
1
El test de Raabe es mas sensible que la prueba de la razon de DAlembert ya que
n=1 n
un mas sensible (y una relatidiverge mas lentamente que n=1 1. Obtenemos una prueba a
vamente facil de aplicar) si escogemos an = n ln n. Esto es la prueba de Gauss.
184
8.2.7.
Prueba de Gauss.
(8.32)
en el cual B(n) es una funcion acotada de n para n , luego i ui converge para h > 1
y diverge para h 1.
La razon un /un+1 de la ecuacion (8.32) a menudo llega a ser como la razon de dos formas
cuadraticas:
n2 + a1 n + a0
un
= 2
.
(8.33)
un+1
n + b1 n + b0
Se puede mostrar que tenemos convergencia para a1 > b1 + 1 y divergencia para a1 b1 + 1.
El test de Gauss es un test extremadamente sensible para la convergencia de series. Esto
funcionara para practicamente todas las series que encontraremos en Fsica. Para h > 1 o
h < 1 la prueba se deduce directamente del test de Raabe
lm n 1 +
h B(n)
B(n)
+ 2 1 = lm h +
=h.
n
n
n
n
(8.34)
n ln n 1 +
(8.35)
1
n
= lm (n + 1)
n
1
1
1
2 + 3 ...
n 2n
3n
= 1 < 0 .
(8.36)
De modo que tenemos divergencia para h = 1. Esto es un ejemplo de una aplicacion exitosa
del test de Kummer en el cual el test de Raabe falla.
Ejemplo Series de Legendre.
La relacion de recurrencia para la solucion en serie de la ecuacion de Legendre pueden ser
colocadas en la forma
a2j+2
2j(2j + 1) l(l + 1)
=
.
(8.37)
a2j
(2j + 1)(2j + 2)
Esto es equivalente a u2j+2 /u2j para x = +1. Para j
a2j
(2j + 1)(2j + 2)
2j + 2
1
=
=1+ .
a2j+2
2j(2j + 1)
2j
j
(8.38)
185
Por la ecuacion (8.33) la serie es divergente. Mas adelante exigiremos que las series de Legendre sean finitas (se corten) para x = 1. Eliminaremos la divergencia ajustando los parametros
n = 2j0 , un entero par. Esto truncara la serie, convirtiendo la serie infinita en un polinomio.
8.2.8.
Mejoramiento de convergencia.
En esta seccion no nos preocupara establecer la convergencia como una propiedad matematica abstracta. En la practica, la razon de convergencia puede ser de considerable importancia. Aqu presentamos un metodo que mejora la razon de la convergencia de una serie
ya convergente.
El principio basico de este metodo, debido a Kummer, es formar una combinacion lineal
de nuestra serie lentamente convergente y una o mas series cuya suma es conocida. Entre las
series conocidas, la coleccion
1 =
n=1
2 =
n=1
3 =
n=1
..
.
p =
n=1
1
=1,
n(n + 1)
1
1
= ,
n(n + 1)(n + 2)
4
1
1
=
,
n(n + 1)(n + 2)(n + 3)
18
..
.
1
1
=
,
n(n + 1)(n + 2) (n + p)
p p!
es particularmente u
til. Las series estan combinadas termino a termino y los coeficientes en
combinacion lineal son escogidos para cancelar los terminos que convergen lentamente.
Ejemplo Funcion zeta de Riemann, (3).
3
Sea la serie a ser sumada
on 8.10 esta identificada como una funcion
n=1 n . En la secci
zeta de Riemann, (3). Formamos una combinacion lineal
n3 +
+ a2 2 =
n=1
n=1
a2
.
4
1 no esta incluida ya que converge mas lentamente que (3). Combinando terminos, obtenemos sobre la mano izquierda
n=1
1
a2
+
3
n
n(n + 1)(n + 2)
=
n=1
n2 (1 + a2 ) + 3n + 2
.
n3 (n + 1)(n + 2)
(3) =
n
n=1
1
3n + 2
.
= +
3
4 n=1 n (n + 1)(n + 2)
(8.39)
186
La serie resultante no es muy bonita pero converge como n4 , apreciablemente mas rapido
que n3 .
El metodo puede ser extendido incluyendo a3 3 para obtener la convergencia como n5 ,
a4 4 para obtener la convergencia como n6 , etc. Eventualmente, usted tiene que alcanzar
un compromiso entre cuanta algebra usted hace y cuanta aritmetica la computadora hace.
Como las computadoras lo hacen mas rapido, el balance esta seguramente sustituyendo menos
algebra hecha por usted, por mas aritmetica realizada por el computador.
8.3.
Series alternadas.
En la seccion 8.2 nos limitamos a series de terminos positivos. Ahora, en contraste, consideraremos series infinitas en las cuales los signos se alternan. La cancelacion parcial debida a
la alternancia de los signos hace la convergencia mas rapida y mucho mas facil de identificar.
Probaremos que el criterio de Leibniz es una condicion general para la convergencia de una
serie alternada.
8.3.1.
Criterio de Leibniz.
n+1
Consideremos la serie
an con an > 0. Si an es monotonamente decreciente
n=1 (1)
(para N suficientemente grande) y el lmn an = 0, entonces la serie converge.
Para probar esto, examinemos las sumas parciales pares
s2n = a1 a2 + a3 . . . a2n ,
s2n+2 = s2n + (a2n+1 a2n+2 ) .
(8.40)
(8.41)
(8.42)
(8.43)
Con las sumas parciales pares acotamos s2n < s2n+2 < a1 y los terminos an decrecen monotonamente aproximandose a cero, esta serie alternada converge.
Un resultado mas importante puede ser extrado de las sumas parciales. A partir de las
diferencias entre el lmite de la serie S y las sumas parciales sn
S sn = an+1 an+2 + an+3 an+4 + . . .
= an+1 (an+2 an+3 ) (an+4 an+5 ) . . .
(8.44)
S sn < an+1 .
(8.45)
o
La ecuacion (8.45) dice que el error en el corte de una serie alternada despues de n terminos
es menor que an+1 , el primer termino excluido. Un conocimiento del error obtenido de esta
manera puede ser de gran importancia practica.
8.3.2.
187
Convergencia absoluta.
1 1 1
1
(8.46)
(1)n1 n1 = 1 + + +
2
3
4
n
n=1
convergente por el criterio de Leibniz, pero
n1 = 1 +
n=1
1 1 1
1
+ + + + +
2 3 4
n
n=1
x
cos(nx)
= ln 2 sen
n
2
(8.47)
converge teniendo coeficientes que cambian de signo frecuentemente, pero no tanto para que
el criterio de convergencia de Leibniz se aplique facilmente. Apliquemos el test de la integral
de la ecuacion (8.22). Usando integracion por partes vemos de inmediato que
cos(nx)
sen(nx)
dn =
n
nx
1
x
sen(nx)
dn
n2
x
cos(nx)
(n [n]) sen(nx)
n
n2
dn ,
g (n)
g(n)
dn =
n
n
+
1
g(n)
dn ,
n2
188
8.4.
Algebra
de series.
Establecer la convergencia absoluta es importante porque puede probarse que las series
absolutamente convergentes pueden ser manipuladas de acuerdo a las reglas familiares del
algebra o aritmetica.
1. Si una serie infinita es absolutamente convergente, la suma de la serie es independiente
del orden en el cual los terminos son a
nadidos.
2. La serie puede ser multiplicada por otra serie absolutamente convergente. El lmite del
producto sera el producto de los lmites de las series individuales. El producto de las
series, una doble serie, tambien sera absolutamente convergente.
No hay tales garantas en series condicionalmente convergentes. Nuevamente consideremos
la serie armonica alternada. Si escribimos
1
1 1 1
+ + = 1
2 3 4
1 1
2 3
1 1
4 5
(8.48)
(1)n1 n1 < 1 .
(8.49)
n=1
Sin embargo, si rearreglamos los terminos sutilmente, podemos hacer que la serie armonica
alternada converja a 3/2. Reagrupamos los terminos de la ecuacion (8.48), tomando
1+
1 1
+
3 5
1
+
2
+
1 1
1
1
1
+ +
+
+
7 9 11 13 15
1
1
1
+ +
+
17
25
6
1
4
1
1
+ +
27
35
1
+ .
8
(8.50)
Tratando los terminos agrupados en parentesis como terminos simples por conveniencia,
obtenemos las sumas parciales
s1
s3
s5
s7
s9
= 1.5333
= 1.5218
= 1.5143
= 1.5103
= 1.5078
s2 = 1.0333
s4 = 1.2718
s6 = 1.3476
s8 = 1.3853
s10 = 1.4078
8.4. ALGEBRA
DE SERIES.
189
1.5
1.4
1.3
2
10
Figura 8.3: Serie armonica alternada, rearreglo de terminos para dar convergencia a 1.5.
8.4.1.
La serie
(1)n1
ln(1 + x) =
n=1
xn
,
n
1 < x 1 ,
(8.51)
converge muy suavemente cuando x se aproxima a +1. La razon de convergencia podra ser
mejorada sustancialmente multiplicando ambos lados de la ecuacion (8.51) por un polinomio
y ajustando los coeficientes del polinomio para cancelar las porciones que convergen mas
lentamente en la serie. Consideremos la posibilidad mas simple: Multiplicar ln(1 + x) por
1 + a1 x.
(1)n1
(1 + a1 x) ln(1 + x) =
n=1
xn
xn+1
+ a1
.
(1)n1
n
n
n=1
(1)n1
(1 + a1 x) ln(1 + x) = x +
n=2
(1)n1
=x+
n=2
1
a1
n n1
xn
n(1 a1 ) 1 n
x .
n(n 1)
190
x+
ln(1 + x) =
(1)n xn
n(n 1)
n=1
1+x
Tales aproximaciones racionales pueden ser ambas compactas y precisas. Los programas
computacionales hacen extensivo el uso de ellas.
8.4.2.
m= 0
n= 0 a00
1
a01
2
a02
3
a03
a13
a10
a11
a12
a20
a21
a22 a23
a30
a31
a32 a33
Figura 8.4: Series dobles, la suma sobre n es indicada por lneas segmentadas verticales.
an,m .
m=0 n=0
sustituyamos
n=q0,
m=pq 0 ,
(q p) .
Esto resulta en la identidad
an,m =
m=0 n=0
aq,pq .
(8.52)
p=0 q=0
m = r 2s 0 ,
r
2
8.4. ALGEBRA
DE SERIES.
191
p= 0
q= 0 a00
1
1
a01
2
a02
3
a03
a10
a11
a12
a20 a21
a30
Figura 8.5: Series dobles nuevamente, la primera suma es representada por lneas segmentadas
verticales pero estas lneas verticales corresponden a las diagonales en la figura 8.4.
tiende a
[r/2]
an,m =
m=0 n=0
as,r2s .
(8.53)
r=0 s=0
con [r/2] = r/2 para r par, (r 1)/2 para r impar. La suma sobre r y s de la ecuacion
(8.53) esta mostrada en la figura 8.6. Las ecuaciones (8.52) y (8.53) son claramente reordenamientos del arreglo de coeficientes an,m , reordenamientos que son validos en tanto tengamos
convergencia absoluta. La combinacion de las ecuaciones (8.52) y (8.53),
r= 0 1 2 3 4
s= 0 a00 a01 a02 a03 a04
1
a20
Figura 8.6: Series dobles. La suma sobre s corresponde a la suma a lo largo de la lneas
segmentadas inclinadas, en la figura 8.4.
[r/2]
aq,pq =
p=0 q=0
as,r2s .
r=0 s=0
(8.54)
192
8.5.
Series de funciones.
Extendemos nuestro concepto de series infinitas para incluir la posibilidad que cada
termino un pueda ser una funcion de alguna variable, un = un (x). Numerosas ilustraciones de tales series de funciones apareceran mas adelante. Las sumas parciales llegan a ser
funciones de la variable x
sn (x) = u1 (x) + u2 (x) + + un (x) ,
(8.55)
tal como lo hacemos para la suma de serie, definimos el lmite como el lmite de las sumas
parciales
n=1
(8.56)
Hasta ahora nos hemos ocupado del comportamiento de las sumas parciales como una funcion
de n. Ahora consideremos como las cantidades anteriores dependen de x. Aqu el concepto
clave es la convergencia uniforme.
8.5.1.
Convergencia uniforme.
(8.57)
se dice que la serie converge uniformemente en el intervalo [a, b]. Esto dice que para que
nuestra serie sea uniformemente convergente, debe ser posible encontrar un N finito tal que
la cola de la serie infinita, |
no para
i=N +1 ui (x)|, sea menor que un arbitrariamente peque
todo x en el intervalo dado.
Esta condicion, ecuacion (8.57), la cual define la convergencia uniforme, es ilustrada en
la figura 8.7. El punto es que no importa cuan peque
no sea podemos siempre tomar un n
suficientemente grande tal que la magnitud absoluta de la diferencia entre S(x) y sn (x) sea
menor que para todo x, a x b. Si esto no puede ser hecho, entonces
un (x) no es
uniformemente convergente en el intervalo [a, b].
Ejemplo
un (x) =
n=1
n=1
x
.
[(n 1)x + 1][nx + 1]
(8.58)
La suma parcial sn (x) = nx(nx + 1)1 puede ser verificada por induccion matematica. Por
inspeccion esta expresion para sn (x) es valida para n = 1, 2. Suponemos que se mantiene
193
S(x) +
S(x)
S(x)
sn (x)
x
x=a
x=b
sn+1 = sn +
completando la prueba.
Tomando n tenemos
S(0) = lm sn (0) = 0 ,
n
S(x = 0) = lm sn (x = 0) = 1 .
n
8.5.2.
Prueba M de Weierstrass.
194
Mi converge,
Mi < .
(8.59)
i=n+1
Esto a partir de nuestra definicion de convergencia. Entonces, con |ui (x)| Mi para todo x
en el intervalo a x b,
(8.60)
i=n+1
De modo que
|S(x) sn (x)| =
ui (x) < ,
(8.61)
i=n+1
y por definicion
1 ui (x) es uniformemente convergente en [a, b]. Ya que tenemos especificados valores absolutos en el planteamiento de la prueba M de Weierstrass, la serie
1 ui (x)
tambien es vista como serie absolutamente convergente.
Podemos notar que la convergencia uniforme y convergencia absoluta son propiedades
independientes. Una no implica la otra. Para ejemplos especficos,
n=1
(1)n
,
n + x2
< x <
(8.62)
(1)n1
n=1
xn
= ln(1 + x) ,
n
0x1,
(8.63)
converge uniformemente en los intervalos indicados pero no converge absolutamente. Por otra
parte,
(1 x)xn =
n=1
1, 0x<1
,
0, x=1
(8.64)
f (x) =
un (x) ,
(8.65)
n=1
8.5.3.
195
Prueba de Abel.
Una prueba algo mas delicada para la convergencia uniforme ha sido dada por Abel. Si
un (x) = an fn (x) ,
an = A ,
convergente,
y las funciones f (x) son monotonas [fn+1 (x) fn (x)] y acotadas, 0 fn (x) M , para todo
x en [a, b], entonces
un (x) converge uniformemente en [a, b].
Las series uniformemente convergentes tienen tres propiedades particularmente u
tiles.
1. Si los terminos individuales un (x) son continuos, la suma de la serie
f (x) =
un (x) ,
(8.66)
n=1
es tambien continua.
2. Si los terminos individuales un (x) son continuos, las series pueden ser integradas termino
a termino. La suma de las integrales es igual a la integral de la suma.
un (x)dx .
f (x) dx =
a
n=1
(8.67)
3. Las derivadas de la suma de la serie f (x) es igual a la suma de los terminos individuales
derivados,
df (x)
dun (x)
=
,
(8.68)
dx
dx
n=1
siempre que las siguientes condiciones sean satisfechas:
dun (x)
son continuas en [a, b].
dx
dun (x)
es uniformemente convergente en [a, b].
dx
un (x) y
n=1
La integraci
on termino a termino tambien puede ser valida en ausencia de convergencia uniforme.
196
8.6.
Expansi
on de Taylor.
Esta es una expansion de una funcion en una serie infinita o en una serie finita mas
un termino remanente. Los coeficientes de los terminos sucesivos de la serie involucra las
derivadas sucesivas de la funcion. Este tipo de expansiones de son ampliamente usadas.
Ahora derivaremos la expansion de Taylor.
Supongamos que nuestra funcion f (x) tiene una derivada n-esima continua en el intervalo
a x b. Entonces, integrando esta n-esima derivada n veces,
x
f
a
(n)
(8.69)
(x) dx dx =
=f
a
(n2)
Continuando, obtenemos
x
(x a)2 (n1)
f
(a) . (8.70)
2
(x a)n1 (n1)
(x a)2
f (a)
f
(a) .
2!
(n 1)!
(8.71)
Note que esta expresion es exacta. No hay terminos que hayan sido excluidos, ni aproximaciones hechas. Ahora, resolviendo para f (x), tenemos
f (x) = f (a) + (x a)f (a) +
(x a)2
(x a)n1 (n1)
f (a) + +
f
(a) + Rn .
2!
(n 1)!
(8.72)
f (n) (x)(dx)n .
(8.73)
Este remanente, ecuacion (8.73), puede ser puesto en una forma mas inteligible usando la
forma integral del teorema del valor medio
x
g(x) dx = (x a)g() ,
(8.74)
(x a)n (n)
f () .
n!
(8.75)
DE TAYLOR.
8.6. EXPANSION
197
(8.76)
=
n=0
(x a)2
f (a) +
2!
(x a)n (n)
f (a) .
n!
(8.77)
Nuestra serie de Taylor especifica el valor de una funcion en un punto, x, en terminos del
valor de la funcion y sus derivadas en un punto de referencia, a. Esta es una expansion en
potencias de un cambio en la variable, x = xa en este caso. La notacion puede ser variada
seg
un la conveniencia del usuario. Con la sustitucion x x + h y a x tenemos una forma
alterna
hn (n)
f (x + h) =
f (x) .
n!
n=0
Cuando usamos el operador D = d/dx la expansion de Taylor se convierte en
f (x + h) =
n=0
hn Dn
f (x) = ehD f (x) .
n!
8.6.1.
Teorema de Maclaurin.
Si expandimos alrededor del origen (a = 0), la ecuacion (8.77) es conocida como la serie
de Maclaurin
f (x) = f (0) + xf (0) +
=
n=0
x2
f (0) +
2!
xn (n)
f (0) .
n!
(8.78)
(8.79)
198
n=0
xn
.
n!
(8.80)
Esta es la expansion en serie de la funcion exponencial. Algunos autores usan esta serie para
definir la funcion exponencial.
Aunque esta serie es claramente convergente para todo x, podramos chequear el termino
remanente, Rn . Por la ecuacion (8.75) tenemos
xn (n)
f ()
n!
xn
=
e ,
0 || x .
n!
Rn =
Por lo tanto
(8.81)
xn x
e
n!
(8.82)
lm Rn = 0
(8.83)
| Rn |
y
n
para todo los valores finitos de x, el cual indica que esta expansion de Maclaurin de ex es
valida sobre el intervalo < x < .
Ejemplo
Sea f (x) = ln(1 + x). Diferenciando, obtenemos
f (x) =
f
(n)
1
,
(1 + x)
n1
(x) = (1)
1
(n 1)!
.
(1 + x)n
(8.84)
+ + Rn
2
3
4
n
xp
=
(1)p1 + Rn .
p
p=1
ln(1 + x) = x
(8.85)
, 0x1.
n
Rn =
(8.86)
DE TAYLOR.
8.6. EXPANSION
199
xn
ln(1 + x) =
(1)n1
,
(8.87)
n
n=1
la cual converge para 1 < x 1. El intervalo 1 < x < 1 es facilmente establecido por la
prueba de la razon de D Alembert. La convergencia en x = 1 se deduce a partir del criterio
de Leibniz. En particular, en x = 1, tenemos
1 1 1 1
+ +
2 3 4 5
1
(1)n 1 ,
=
n
n=1
ln 2 = 1
(8.88)
8.6.2.
Teorema Binomial.
Una segunda, aplicacion extremadamente importante de las expansiones de Taylor y Maclaurin es la derivacion del teorema binomial para potencias negativas y/o no enteras.
Sea f (x) = (1 + x)m , en la cual m puede ser negativo y no esta limitado a valores enteros.
La aplicacion directa de la ecuacion (8.78) da
m(m 1) 2
x + + Rn .
2!
(8.89)
xn
(1 + )mn m(m 1) (m n + 1)
n!
(8.90)
(1 + x)m = 1 + mx +
Para esta funcion el remanente es
Rn =
xn
m(m 1) (m n + 1) .
n!
(8.91)
Note que los factores dependientes de m no dan un cero a menos que m sea entero no negativo;
Rn tiende a cero cuando n si x esta restringido al intervalo 0 x 1. La expansion
binomial resulta
(1 + x)m = 1 + mx +
(8.92)
(1 + x)m =
n=0
=
n=0
3
m!
xn
n!(m n)!
m n
x .
n
(8.93)
200
Cuando la cantidad m
es igual a m!/(n!(mn)!), es llamado el coeficiente binomial. Aunque
n
hemos mostrado solamente que el remanente se anula,
lm Rn = 0 ,
para 0 x < 1, realmente puede mostrarse que la serie en la ecuacion (8.92) converge en el
intervalo extendido 1 < x < 1. Para m un entero, (m n)! = si n > m y las series
automaticamente terminan en n = m.
Ejemplo Energa relativista.
La energa total relativista de una partcula es
E = mc
1/2
v2
1 2
c
(8.94)
1 2
mv .
2
v2
1
Por la ecuacion (8.92) con x = 2 y m = tenemos
c
2
E = mc2 1
+
1
2
v2
c2
(1/2)(3/2)
2!
(1/2)(3/2)(5/2)
3!
v2
c2
v2
c2
o
1
5
3
v2
E = mc + mv 2 + mv 2 2 + mv 2
2
8
c
16
2
v2
c2
+ .
(8.95)
1
3 v2 5
= mv 2 1 + 2 +
2
4c
8
v2
c2
(8.96)
n!
an1 an2 anmm ,
n1 !n2 ! nm ! 1 2
donde la suma anterior incluye todas las combinaciones diferentes de los n1 , n2 , . . . , nm tal
que m
ni y n son enteros. Esta generalizacion encuentra considerables usos
i=1 ni = n. Aqu
en Mecanica Estadstica.
201
Las series de Maclaurin pueden aparecer algunas veces indirectamente mas que el uso directo de la ecuacion (8.78). Por ejemplo, la manera mas conveniente para obtener la expansion
en serie
sen1 x =
0
dt
.
(1 t2 )1/2
2 1/2
Expandimos (1 t )
(teorema binomial) y luego integramos termino a termino. Esta
integracion termino a termino es discutida en la seccion 8.7. El resultado es la ecuacion
(8.97). Finalmente, podemos tomar el lmite cuando x 1. La serie converge por la prueba
de Gauss.
8.6.3.
Expansi
on de Taylor de m
as de una variable.
La funcion f tiene mas de una variable independiente, es decir, f = f (x, y), la expansion
de Taylor se convierte en
f
f
+ (y b) +
x
y
2
1
2f
2f
f
(x a)2 2 + 2(x a)(y b)
+ (y b)2 2 +
+
2!
x
xy
y
3
3
1
f
f
+
(x a)3 3 + 3(x a)2 (y b) 2 +
3!
x
x y
3
3
f
f
+ (y b)3 3 + ,
+3(x a)(y b)2
2
xy
y
f (x, y) = f (a, b) + (x a)
(8.98)
con todas las derivadas evaluadas en el punto (a, b). Usando j t = xj xj0 , podemos escribir
la expansion de Taylor para m variables independientes en la forma simbolica
f (xj ) =
n=0
tn
n!
i=1
i
xi
f (xk )
(8.99)
xk =xk0
(r + a) =
n=0
8.7.
1
(a )n (r) .
n!
(8.100)
Series de potencias.
an xn ,
=
n=0
(8.101)
202
8.7.1.
Convergencia.
La ecuacion (8.101) puede testearse rapidamente para la convergencia ya sea por la prueba
de la raz de Cauchy o por la prueba de la razon de D Alembert. Si
an+1
= R1 ,
n an
lm
(8.102)
la serie converge para R < x < R. Este es el intervalo o radio de convergencia. Ya que las
pruebas de la raz y la razon fallan cuando el lmite es la unidad, el punto final del intervalo
requiere atencion especial.
Por ejemplo, si an = n1 , entonces R = 1 y, la serie converge para x = 1, pero diverge
para x = +1. Si an = n!, entonces R = 0 y la serie diverge para todo x = 0.
8.8.
Supongamos que nuestra serie de potencia es convergente para R < x < R; entonces
sera uniforme y absolutamente convergente en cualquier intervalo interior, S x S,
donde 0 < S < R. Esto podra ser probado directamente por la prueba M de Weierstrass
usando Mi = |ai |S i .
8.8.1.
Continuidad.
8.8.2.
Diferenciaci
on e integraci
on.
La ecuaci
on (8.101) puede ser reescrita con z = x + iy, reemplazando a x. Luego todos los resultados de
esta secci
on se aplican a series complejas
8.8.3.
203
Teorema de unicidad.
an xn ,
f (x) =
Ra < x < Ra
n=0
(8.103)
bn x n ,
Rb < x < Rb ,
n=0
(8.104)
para todo n; esto es, supongamos dos representaciones de serie de potencias (diferentes) y
luego procedamos a demostrar que las dos son identicas.
De la ecuacion (8.103)
bn x n ,
an x =
n=0
R < x < R
(8.105)
n=0
nan x
n1
n=1
nbn xn1 .
(8.107)
n=1
(8.108)
(8.109)
lo cual muestra que las dos series coinciden. Por lo tanto nuestra representacion en serie de
potencia es u
nica.
Esto sera un punto crucial cuando usamos una serie de potencia para desarrollar soluciones
de ecuaciones diferenciales. Esta unicidad de las series de potencia aparece frecuentemente
en fsica teorica. La teora de perturbaciones en Mecanica Cuantica es un ejemplo de esto.
La representacion en serie de potencia de funciones es a menudo u
til en formas de evaluacion
indeterminadas, particularmente cuando la regla de lHospital puede ser inconveniente de
aplicar.
204
Ejemplo
Evaluemos
1 cos x
.
x0
x2
lm
(8.110)
(8.111)
La unicidad de las series de potencia significa que los coeficientes an pueden ser identificadas con las derivadas en una serie de Maclaurin. A partir de
f (x) =
an x =
n0
n=0
tenemos
an =
8.8.4.
1 (n)
f (0)xn
n!
1 (n)
f (0) .
n!
Inversi
on de series de potencia.
an (x x0 )n ,
(8.112)
n=1
en la cual esta dada (y y0 ) en terminos de (x x0 ). Sin embargo, podra ser deseable tener
una expresion explcita para (xx0 ) en terminos de (y y0 ). Necesitamos resolver la ecuacion
(8.112) para (x x0 ) por inversion de nuestra serie. Supongamos que
bn (y y0 )n ,
x x0 =
(8.113)
n=0
205
b1 =
(8.114)
y as sucesivamente.
Los coeficientes mayores son listados en tablas generalmente. Una aproximacion mas general
y mucho mas elegante es desarrollada usando variables complejas.
8.9.
Integrales elpticas.
Las integrales elpticas son incluidas aqu parcialmente como una ilustracion del uso de
las series de potencias y por su propio interes intrnseco. Este interes incluye la ocurrencia
de las integrales elpticas en una gran variedad de problemas fsicos.
Ejemplo Perodo de un pendulo simple.
Para peque
nas oscilaciones en la amplitud nuestro pendulo, figura 8.8, tiene un movimiento armonico simple con un perodo T = 2(l/g)1/2 . Para una amplitud grande M tal
que sen M = M , la segunda ley de movimiento de Newton y las ecuaciones de Lagrange
conducen a una ecuacion diferencial no lineal (sen es una funcion no lineal de ), as que
necesitamos un acercamiento diferente.
La masa oscilante m tiene una energa cinetica de ml2 (d/dt)2 /2 y una energa potencial
de mgl cos ( = /2 como la eleccion del cero de la energa potencial). Ya que d/dt = 0
en = M , el principio de la conservacion de la energa da
1 2
ml
2
d
dt
(8.115)
206
Resolviendo para d/dt obtenemos
1/2
2g
l
d
=
dt
(8.116)
con la cancelacion de la masa m. Tomando t como cero cuando = 0 y d/dt > 0. Una
integracion desde = 0 a = M produce
M
1/2
(cos cos M )
2g
l
d =
1/2
dt =
0
2g
l
1/2
t.
(8.117)
Esto es 1/4 del ciclo, y por lo tanto el tiempo t es 1/4 del perodo, T . Notemos que M ,
trataremos la sustitucion
M
sen
= sen
sen .
(8.118)
2
2
Con esto, la ecuacion (8.117) se convierte en
T =4
1/2
l
g
/2
1 sen2
(8.119)
M
2
sen2
8.9.1.
l
g
1/2
1+
1
M
9
M
sen2
+
sen4
+
4
2
64
2
(8.120)
Definiciones.
Generalizando el ejemplo anterior para incluir el lmite superior como una variable, la
integral elptica del primer tipo esta definida como
F (\) =
0
d
1 sen2 sen2
dt
F (x\m) =
(1
t2 )(1
mt2 )
(8.121)
0m<1.
(8.122)
K(m) =
0
1
=
0
d
1 m sen2
dt
(1 t2 )(1 mt2 )
(8.123)
,
207
E(\) =
1 sen2 sen2 d
(8.124)
o
x
1 mt2
dt ,
1 t2
E(x\m) =
0
0m<1
(8.125)
E(m) =
1 m sen2 d
0
1
=
0
1 mt2
dt ,
1 t2
(8.126)
0m<1.
La figura 8.9 muestra el comportamiento de K(m) y E(m). Los valores de ambas funciones
pueden encontrarse en tablas o evaluar en software como Mathematica.
3
K(m)
/2
E(m)
0.2
0.4
0.6
0.8
8.9.2.
Expansi
on de series.
Para nuestro intervalo 0 m < 1, el denominador de K(m) puede ser expandido en serie
binomial
1
3
(1 m sen2 )1/2 = 1 + m sen2 + m2 sen4 +
2
8
(2n 1)!! n
=
m sen2n .
(2n)!!
n=0
(8.127)
208
Para cualquier intervalo cerrado [0, mmax ], con mmax < 1, esta serie es uniformemente convergente y puede ser integrada termino a termino.
/2
sen2n d =
0
(2n 1)!!
.
(2n)!! 2
(8.128)
De modo que
1+
K(m) =
2
1
2
m+
13
24
13
24
m +
135
246
m2
135
246
m3 +
(8.129)
m3
5
(8.130)
Similarmente,
E(m) =
1
2
1
2
Mas adelante estas series son identificadas como funciones hipergeometricas, y tenemos
8.9.3.
K(m) =
2 F1
2
1 1
, , 1; m
2 2
(8.131)
E(m) =
1 1
2 F1 , , 1; m
2
2 2
(8.132)
Valores lmites.
De las series en las ecuaciones (8.129) y (8.130), o a partir de las integrales definidas,
obtenemos
lm K(m) = ,
(8.133)
m0
2
lm E(m) = .
(8.134)
m0
2
Para m 1, las expansiones en series no son muy u
tiles, A partir de la representacion
integral tenemos que
lm K(m) = ,
(8.135)
m1
diverge logartmicamente, y por otra parte, la integral para E(m) tiene un lmite finito
lm E(m) = 1 .
m1
(8.136)
Las integrales elpticas han sido usadas ampliamente en el pasado para evaluar integrales.
Por ejemplo, integrales de la forma
x
I=
R(t,
a4 t4 + a3 t3 + a2 t2 + a1 t + a0 ) dt ,
donde R es una funcion racional de t y del radical, pueden ser expresadas en terminos de
integrales elpticas. Con los computadores actuales disponibles para una evaluacion numerica
rapida y directa, el interes en estas tecnicas de integrales elpticas ha declinado. Sin embargo,
las integrales elpticas mantienen su interes a causa de su apariencia en problemas en Fsica.
8.10. NUMEROS
DE BERNOULLI.
8.10.
209
N
umeros de Bernoulli.
Los n
umeros de Bernoulli fueron introducidos por Jacques Bernoulli. Hay muchas definiciones equivalentes, pero debe tenerse extremo cuidado, porque algunos autores introducen
variaciones en la numeracion o en signo. Un acercamiento relativamente simple para definir
los n
umeros de Bernoulli es por la serie5
x
=
x
e 1
n=0
Bn xn
,
n!
(8.137)
la cual converge para |x| < 2 usando el test del cociente. Diferenciando esta serie de potencia
repetidamente y luego evaluando para x = 0, obtenemos
dn
dxn
Bn =
ex
x
1
(8.138)
x=0
Especficamente,
d
B1 =
dx
x
x
e 1
x=0
1
xex
= x
e 1 (ex 1)2
=
x=0
1
,
2
(8.139)
como puede ser visto por la expansion en series de los denominadores. Usando B0 = 1 y
B1 = 1/2, es facil verificar que la funcion
x
x
1+ =
x
e 1
2
n=2
Bn xn
x
x
1 ,
= x
n!
e 1
2
(8.140)
xm
(m + 1)!
m=0
=1+
m=1
x
B2n x2n
1 +
2 n=1 (2n)!
1
1
xN
+
(m + 1)! 2 m!
N =2
1nN/2
B2n
.
[(2n)!(N 2n + 1)!]
(8.141)
1
= (N 1) ,
2
B2n
N +1
2n
B2n
2N + 1
2n
B2n
2N
2n
1nN/2
(8.142)
la cual es equivalente a
1
N =
2
n=1
N 1
N 1=
n=1
5
La funci
on
ex
,
(8.143)
x
puede ser considerada una funci
on generatriz ya que genera los n
umeros de Bernoulli.
1
210
n Bn
Bn
0
1 1.0000 00000
1 21 -0.5000 00000
1
2
0.1666 66667
6
1
3 30 -0.0333 33333
1
4
0.0238 09524
42
1
-0.0333 33333
5 30
5
6
0.0757 57576
66
Cuadro 8.1: N
umeros de Bernoulli
A partir de la ecuacion (8.143) los n
umeros de Bernoulli en la tabla 8.1 se obtienen rapidamente. Si la variable x en la ecuacion (8.137) es remplazada por 2xi (y B1 elegido igual a
-1/2), obtenemos una definicion alternativa (y equivalente) de B2n , la expresion
(1)n B2n
x cot x =
n=0
(2x)2n
,
(2n)!
< x < .
(8.144)
(1)n1 2(2n)!
=
(2)2n
p=1
1
,
p2n
n = 1, 2, 3 . . . .
(8.145)
2(2n)!
1
B2n =
,
(8.146)
2n
(2) p=1 p2n
el subndice es justo la mitad de nuestro subndice original y todos los signos son positivos.
Nuevamente, se debe chequear cuidadosamente la definicion que se esta usando de los n
umeros
de Bernoulli.
Los n
umeros de Bernoulli aparecen frecuentemente en teora de n
umeros. El teorema de
von Standt-Clausen establece que
B2n = An
1
1
1
1
,
p1 p2 p3
pk
(8.147)
8.10. NUMEROS
DE BERNOULLI.
211
(8.148)
jp ,
p entero.
j=1
(8.149)
Los n
umeros de Bernoulli probablemente vengan en tales expansiones en series a causa de las
ecuaciones de definicion (8.137) y (8.143) y de su relacion con la funcion zeta de Riemann
(2n) =
p=1
8.10.1.
1
.
p2n
(8.150)
Funciones de Bernoulli.
Bn (s)
n=0
xn
.
n!
(8.151)
definiendo las funciones de Bernoulli, Bn (s). Las primeras siete funciones de Bernoulli estan
dadas en la tabla 8.2.
De la funcion generadora, ecuacion (8.151),
Bn (0) = Bn ,
n = 1, 2, . . . .
(8.152)
n = 1, 2, . . . .
(8.153)
n = 1, 2, . . . .
(8.154)
212
B0
B1
B2
B3
B4
B5
B6
=
=
=
=
=
=
=
1
x 12
x2 x + 16
x3 23 x2 + 21 x
1
x4 2x3 + x2 30
x5 25 x4 + 35 x2 61 x
x6 3x5 + 52 x4 21 x2 +
1
42
8.10.2.
F
ormula de integraci
on de Euler-Maclaurin.
f (x) dx =
0
f (x)B0 (x) dx .
(8.155)
(8.156)
f (x)B1 (x) dx
0
1
= [f (1) f (0)]
2
(8.157)
f (x)B1 (x) dx
0
(8.158)
1
1
f (x) dx = [f (1) f (0)] [f (1)B2 (1) f (0)B2 (0)]+
2
2!
1
1
f (2) (x)B2 (x) dx .
2! 0
(8.159)
n = 0, 1, 2, . . .
n = 1, 2, 3, . . . ,
(8.160)
ZETA DE RIEMANN.
8.11. FUNCION
213
1
f (x) dx = [f (1) f (0)]
2
1
+
(2p)!
p=1
1
B2p [f (2p1) (1) f (2p1) (0)]+
(2p)!
(8.161)
Esta es la formula de integracion de Euler-Maclaurin. Supone que la funcion f (x) tiene todas
las derivadas requeridas.
El intervalo de integracion en la ecuacion (8.161) puede ser trasladado de [0, 1] a [1, 2]
reemplazando f (x) por f (x + 1). Sumando tales resultados hasta [n 1, n],
n
0
1
1
f (x) dx = f (0) + f (1) + f (2) + + f (n 1) + f (n)+
2
2
q
p=1
1
1
B2p [f (2p1) (n) f (2p1) (0)] +
(2p)!
(2p)!
n1
f (2q) (x + ) dx .
B2q (x)
0
=0
(8.162)
Los terminos 21 f (0) + f (1) + . . . + 21 f (n) aparecen exactamente como una integracion o
cuadratura trapezoidal. La suma sobre p puede ser interpretada como una correccion a la
aproximacion trapezoidal. La ecuacion (8.162) es la forma usada en la derivacion de la formula
de Stirling.
La formula de Euler-Maclaurin es a menudo u
til para sumar series al convertirlas en
integrales.
8.11.
Funci
on zeta de Riemann.
2n
Estas series
fueron usadas como series de comparacion para probar la conp=1 p
vergencia y en la ecuacion (8.144) como una definicion de los n
umeros de Bernoulli, B2n .
Tambien sirve para definir la funcion zeta de Riemann por
(s)
n=1
1
,
ns
s>1.
(8.163)
La tabla 8.3 muestra los valores de (s) para s entero, s = 2, 3, . . . , 10. La figura 8.10 es un
grafico de (s) 1. Una expresion integral para esta funcion zeta de Riemann aparecera como
parte del desarrollo de la funcion gama.
Otra interesante expresion para la funcion zeta puede ser derivada como
(s)(1 2s ) = 1 +
1
1
+ s +
s
2
3
1
1
1
+ s + s +
s
2
4
6
+
+
+ ,
3s 9s 15s
(8.164)
(8.165)
214
s
2
3
4
5
6
7
8
9
10
(s)
1.64493 40668
1.20205 69032
1.08232 32337
1.03692 77551
1.01734 30620
1.00834 92774
1.00407 73562
1.00200 83928
1.00099 45751
10
1
s
0.1
(s)1
0.01
0.001
0.0001
0
10
12
14
s
Figura 8.10: Funcion zeta de Riemann, (s) 1, versus s.
(s)(1 2 )(1 3 ) (1 P
(1 P s ) = 1 .
) = (s)
(8.166)
P (primo)=2
Por lo tanto
(s) =
P (primo)=2
1
(1 P s )
(8.167)
ZETA DE RIEMANN.
8.11. FUNCION
215
(s) =
n=1
(s) =
n=0
(1)n1
= (1 21s )(s) ,
ns
1
=
(2n + 1)s
1
2s
(s) ,
(1)n
(s) =
n=0
1
.
(2n + 1)s
A partir de los n
umeros de Bernoulli o de las series de Fourier podemos determinar algunos
valores especiales
(2) = 1 +
(4) = 1 +
(2) = 1
(4) = 1
(2) = 1 +
(4) = 1 +
(1) = 1
(3) = 1
1
1
2
+
+
=
22 32
6
1
4
1
+
+ =
24 34
90
1
2
1
+
=
22 32
12
1
1
7 4
+
=
24 34
720
1
1
2
+
+ =
32 52
8
1
4
1
+
+ =
34 54
96
1 1
+ =
3 5
4
1
1
3
+
=
33 53
32
La constante de Catalan
(2) = 1
6
1
1
+ 2 = 0.9159 6559 . . . ,
2
3
5
Este es el punto de partida para la vasta aplicacion de la funcion zeta de Riemann a la teora de n
umeros.
216
8.11.1.
Mejoramiento de la convergencia.
1
1
1
. Expandiendo
= 2
2
2
(1 + n )
(1 + n )
n
1
1
1+ 2
n
por
1 + n2
n2
n2 n4 1 + n2
1
1
1
1
= 2 4+ 6 8
.
n
n
n
n + n6
Por lo tanto
n=1
1
1
=
(2)
(4)
+
(6)
.
8 + n6
1 + n2
n
n=1
8.12.
Series asint
oticas o semi-convergentes.
Las series asintoticas aparecen frecuentemente en Fsica. En calculo numerico ellas son
empleadas para el calculo de una variedad de funciones. Consideremos aqu dos tipos de
integrales que conducen a series asintoticas: primero, una integral de la forma
eu f (u) du ,
I1 (x) =
x
donde la variable x aparece como el lmite inferior de una integral. Segundo, consideremos la
forma
u
I2 (x) =
eu f
du ,
x
0
con la funcion f expandible en serie de Taylor. Las series asintoticas a menudo ocurren como
solucion de ecuaciones diferenciales. Un ejemplo de este tipo de series aparece como una de
las soluciones de la ecuacion de Bessel.
8.12. SERIES ASINTOTICAS
O SEMI-CONVERGENTES.
8.12.1.
217
Funci
on gama incompleta.
La naturaleza de una serie asintotica es quizas mejor ilustrada por un ejemplo especfico.
Supongamos que tenemos una funcion integral exponencial7
x
Ei(x) =
Ei(x) =
x
eu
du ,
u
(8.168)
eu
du = E1 (x) ,
u
(8.169)
para ser evaluada para grandes valores de x. Mejor todava, tomemos una generalizacion de
la funcion factorial incompleta (funcion gama incompleta),
eu up du = (1 p, x) ,
I(x, p) =
(8.170)
ex
p
xp
eu up1 du =
x
ex pex
p+1 + p(p + 1)
xp
x
eu up2 du
(8.171)
I(x, p) = ex
+
(8.172)
Esta es una serie notable. Chequeando la convergencia por la prueba de D Alembert, encontramos
(p + n)! 1
|un+1 |
= lm
n |un |
n (p + n 1)! x
(p + n)
= lm
n
x
=
lm
(8.173)
para todos los valores finitos de x. Por lo tanto nuestras series son series infinitas que divergen
en todas partes!. Antes de descartar la ecuacion (8.172) como in
util, veamos cuan bien una
suma parcial dada se aproxima a la funcion factorial incompleta, I(x, p).
= (1)n+1
7
(p + n)!
(p 1)!
eu upn1 du = Rn (x, p) .
(8.174)
Esta funci
on ocurre con frecuencia en problemas astrofsicos que involucran gases con una distribuci
on
de energa de Maxwell-Boltzmann.
218
En valor absoluto
| I(x, p) sn (x, p) |
(p + n)!
(p 1)!
eu upn1 du .
x
eu upn1 du = ex
x
ev (v + x)pn1 dv
0
ex
ev 1 +
xp+n+1
v
x
pn1
dv .
(8.175)
Esto significa que si tomamos un x suficientemente grande, nuestra suma parcial sn es arbitrariamente una buena aproximacion a la funcion deseada I(x, p). Nuestra serie divergente,
por lo tanto, es perfectamente buena para calculos de sumas parciales. Por esta razon algunas
veces es llamada serie semi-convergente. Notemos que la potencia de x en el denominador
del remanente (p + n + 1) es mas alto que la potencia de x en u
ltimo termino incluido en
sn (x, p), (p + n).
Ya que el remanente Rn (x, p) alterna en signo, las sucesivas sumas parciales dan alternadamente cotas superiores e inferiores para I(x, p). El comportamiento de la serie (con p = 1)
como una funcion del n
umero de terminos incluidos es mostrado en la figura 8.11. Tenemos
0.21
0.19
sn (x=5)
0.17
0.1741
0.1704
0.1664
0.15
10
.
x=5
eu
du
u
x
1
1!
2!
3!
n!
= sn (x) 2 + 3 4 + + (1)n n+1 ,
x x
x
x
x
ex E1 (x) = ex
(8.176)
8.12. SERIES ASINTOTICAS
O SEMI-CONVERGENTES.
219
la cual es evaluada en x = 5. Para un valor dado de x las sucesivas cotas superiores e inferiores
dadas por las sumas parciales primero convergen y luego divergen. La determinacion optima
de ex E1 (x) esta dada por la aproximacion mas cercana de las cotas superiores e inferiores,
esto es, entre s4 = s6 = 0.1664 y s5 = 0.1741 para x = 5. Por lo tanto
0.1664 ex E1 (x)
0.1741 .
(8.177)
x=5
= 0.1704 ,
(8.178)
x=5
dentro de los lmites establecidos por nuestra expansion asintotica. Note cuidadosamente
que la inclusion de terminos adicionales en la serie de expansion mas alla del punto optimo,
literalmente reduce la precision de la representacion.
Cuando aumentamos x, la diferencia entre la cota superior mas baja y la cota inferior
mas alta disminuira. Tomando x suficientemente grande, uno podra calcular ex E1 (x) para
cualquier grado de precision deseado.
8.12.2.
Las series asintoticas tambien pueden ser desarrolladas a partir de integrales definidas
si el integrando tiene el comportamiento requerido. Como un ejemplo, las integrales seno y
coseno estan definidas por
cos t
Ci(x) =
dt ,
(8.179)
t
x
si(x) =
x
sen t
dt ,
t
(8.180)
sen(x)
dy
y+x
cos(x)
dy
y+x
(8.181)
g(x) + if (x) =
0
=
0
eiy
dy
y+x
iexu
du
1 + iu
(8.182)
220
real y la parte imaginaria, obtenemos
g(x) =
0
f (x) =
0
uexu
du ,
1 + u2
exu
du .
1 + u2
(8.183)
1
f (x)
x
ev
0
1
g(x) 2
x
(1)n
0nN
nv
e
0
(2n)!
v 2n
1
dv =
(1)n 2n
2n
x
x 0nN
x
(1)
0nN
2n+1
x2n
1
dv = 2
x
n (2n
(1)
0nN
+ 1)!
.
x2n
(8.184)
sen(x)
(2n)! cos(x)
n (2n + 1)!
(1)n 2n
(1)
x 0nN
x
x2 0nN
x2n
(2n)! sen(x)
(2n + 1)!
cos(x)
(1)n 2n
(1)n
,
si(x)
2
x 0nN
x
x
x2n
0nN
(8.185)
8.12.3.
Definici
on de series asint
oticas.
(8.186)
donde
a1 a2
an
+ 2 + + n .
x
x
x
La expansion asintotica de f (x) tiene las propiedades que
sn (x) = a0 +
lm xn Rn (x) = 0 ,
x
8
9
para n fijo,
La parte real.
No es necesario que las series asint
oticas sean series de potencia.
(8.187)
(8.188)
221
y
lm xn Rn (x) = ,
para x fijo,
(8.189)
Vemos la ecuaciones (8.172) y (8.173) como un ejemplo de estas propiedades. Para series de
potencias, como las supuestas en la forma de sn (x), Rn (x) xn1 . Con condiciones (8.188)
y (8.189) satisfechas, escribimos
1
an n .
f (x)
(8.190)
x
n=0
Notemos el uso de en lugar de =. La funcion f (x) es igual a la serie solamente en el lmite
cuando x .
Las expansiones asintoticas de dos funciones pueden ser multiplicadas entre s y el resultado sera una expansion asintotica de un producto de dos funciones.
La expansion asintotica de una funcion dada f (t) puede ser integrada termino a termino
(justo como en una serie uniformemente convergente de una funcion continua) a partir de
8.12.4.
Aplicaciones a c
alculo num
erico.
Las series asintoticas son usadas frecuentemente en el calculo de funciones por los computadores. Este es el caso de las funciones de Neumann N0 (x) y N1 (x), y las funciones modificadas de Bessel In (x) y Kn (x). Las series asintoticas para integrales del tipo exponencial,
ecuacion (8.176), para las integrales de Fresnel, y para la funcion de error de Gauss, son usadas para la evaluacion de estas integrales para valores grandes del argumento. Cuan grande
debera ser el argumento depende de la precision requerida.
8.13.
Productos infinitos.
f1 f2 f3 f4 fn =
fi .
(8.191)
i=1
pn =
fi ,
i=1
(8.192)
222
y entonces investigamos el lmite
lm pn = P .
(8.193)
(8.194)
0 < lm fn < 1 ,
(8.195)
o a cero para
n
(1 + an ) .
n=1
ln(1 + an ) .
(1 + an ) =
ln
(8.196)
n=1
n=1
8.13.1.
n=1
an
1 + an ean .
(8.197)
pn esn ,
(8.198)
(1 + an ) exp
n=1
an .
(8.199)
n=1
pn = 1 +
ai aj + > s n ,
ai +
i=1
i=1 j=1
(8.200)
223
(1 + an )
n=1
an .
(8.201)
n=1
Si la suma infinita permanece finita, el producto infinito tambien lo hara. Si la suma infinita
diverge, tambien lo hara el producto infinito.
El caso de (1an ) es complicado por el signo negativo, pero una prueba de que depende
de la prueba anterior puede ser desarrollada notando que para an < 1/2 (recuerde que an 0
para convergencia)
1
(1 an )
1 + an
y
1
.
(8.202)
(1 an )
1 + 2an
8.13.2.
El lector reconocera que un polinomio de orden n Pn (x) con n races reales puede ser
escrito como un producto de n factores:
n
(x xi ) .
Pn (x) = (x x1 )(x x2 ) (x xn ) =
(8.203)
i=1
x2
(8.204)
sen(x) = x
1 2 2 ,
n
n=1
cos(x) =
n=1
4x2
(2n 1)2 2
(8.205)
La mas conveniente y quizas la mas elegante derivacion de estas dos expresiones es usando
variable compleja. Por nuestro teorema de convergencia, las ecuaciones (8.204) y (8.205) son
convergentes para todos los valores finitos de x. Especficamente, para el producto infinito
para el sen(x), an = x2 /n2 2 ,
x2
an = 2
n=1
n=1
1
x2
=
(2)
n2
2
(8.206)
x2
=
.
6
La serie correspondiente a la ecuacion (8.205) se comporta en una manera similar.
La ecuacion (8.204) conduce a dos resultados interesantes. Primero, si fijamos x = /2,
obtenemos
(2n)2 1
=
.
(8.207)
1=
1
2 n=1
(2n)2
2 n=1
(2n)2
224
Resolviendo para /2, obtenemos
(2n)2
22 44 66
=
=
,
2 n=1 (2n 1)(2n + 1)
13 35 57
(8.208)
(x) = xe
x x
1+
er
r
x
r=1
(8.209)
(x)(x) = xe
x
r=1
x x x
x x
1+
1
e r xe
er
r
r
r=1
= x2
1
r=1
x
r2
(8.210)
.
x sen(x)
(8.211)
.
sen(x)
(8.212)
Esto sera u
til cuando tratamos la funcion gama.
Estrictamente hablando, podramos chequear el intervalo en x para el cual la ecuacion
(8.209) es convergente. Claramente, para x = 0, 1, 2, . . . los factores individuales se anulan.
La prueba que el producto infinito converge para todos los otros valores (finitos) de x es dejado
como ejercicio.
Estos productos infinitos tienen una variedad de usos en matematica analtica. Sin embargo, a causa de su lentitud de convergencia, ellas no son aptas para un trabajo numerico
preciso.
Captulo 9
Ecuaciones diferenciales.
versi
on final 2.1 7 de Julio del 20031
9.1.
(9.1)
As, las ODE y las PDE aparecen como ecuaciones de operadores lineales
L() = F ,
donde F es una funcion conocida de una (para ODE) o mas variables (para PDE), L es una
combinacion lineal de derivadas, es una funcion o solucion desconocida. Cualquier combinacion lineal de soluciones es de nuevo una solucion; esto es el principio de superposicion.
1
225
226
Ya que la dinamica de muchos sistemas fsicos involucran solo dos derivadas, e.g., la aceleracion en mecanica clasica y el operador de energa cinetica, 2 , en mecanica cuantica,
las ecuaciones diferenciales de segundo orden ocurren mas frecuentemente en Fsica. [Las
ecuaciones de Maxwell y de Dirac son de primer orden pero involucran dos funciones desconocidas. Eliminando una incognita conducen a una ecuacion diferencial de segundo orden
por la otra.]
9.1.1.
Ejemplos de PDE.
1
.
a2 t
1 2
.
c2 t2
La forma cuadridimensional que involucra el DAlembertiano, un analogo cuadridimensional del Laplaciano en el espacio Minkowski,
= 2 =
1 2
2 .
c2 t2
227
2m
2 + V = i
y
2
2m
para el caso tiempo independiente.
2 + V = E ,
228
Aunque no son tan frecuentemente encontrados y quizas no son tan importantes como
las ecuaciones diferenciales de segundo orden, las ecuaciones diferenciales de primer orden
aparecen en Fsica teorica y algunas veces son pasos intermedios para ecuaciones diferenciales
de segundo orden. Las soluciones de algunos de los tipos mas importantes de ODE de primer
orden son desarrollados en la seccion 9.2. Las PDEs de primer orden siempre pueden ser
reducidas a ODEs. Este es un proceso directo pero lento e involucra una b
usqueda para las
caractersticas que son presentadas brevemente mas adelante.
9.1.2.
2
2
2
+
2b
+d
+
c
+e
+f ,
2
2
x
xy
y
x
y
(9.2)
la cual puede ser reducida a las formas canonicas (i), (ii), (iii) de acuerdo a si el discriminante
D = ac b2 > 0, = 0 o < 0. Si (x, y) es determinada a partir de la ecuacion de primer
orden, pero no lineal, PDE
a
+ 2b
+c
=0,
(9.3)
donde los terminos de mas bajo orden en L son ignorados, entonces los coeficientes de 2 / 2
en L es cero (i.e., ecuacion (9.3)). Si es una solucion independiente de la misma ecuacion
(9.3), entonces el coeficiente de 2 / 2 tambien es cero. El operador remanente 2 / en L
es caracterstico del caso hiperbolico (iii) con D < 0, donde la forma cuadratica a2 + 2b + c
es factorizable y, por lo tanto, la ecuacion (9.3) tiene dos soluciones independientes (x, y),
(x, y). En el caso elptico (i) con D > 0 las dos soluciones , son complejos conjugados los
cuales, cuando se sustituyeron en la ecuacion (9.2), remueven la derivada de segundo orden
mezclada en vez de los otros terminos de segundo orden produciendo la forma canonica (i).
En el caso parabolico (ii) con D = 0, solamente 2 / 2 permanece en L, mientras que los
coeficientes de las otras dos derivadas de segundo orden se anulan.
Si los coeficientes a, b, c en L son funciones de las coordenadas, entonces esta clasificacion
es solamente local, i.e., su tipo podra cambiar cuando las coordenadas varan.
Ilustremos la fsica implcita en el caso hiperbolico mirando la ecuacion de onda (en 1 +
1 dimensiones por simplicidad)
1 2
2
c2 t2 x2
=0.
(9.4)
229
c
t
x
+c
t
x
=0,
(9.5)
(9.6)
+i
x
y
i
x
y
=0
(9.7)
2m
2 + V
=i
,
t
(9.8)
230
9.1.3.
Las ODEs y PDEs no lineales son un campo importante y de rapido crecimiento. Encontramos mas arriba la ecuacion de onda lineal mas simple
+c
=0,
t
x
como la PDE de primer orden a partir de la caracterstica de la ecuacion de onda. La ecuacion
de onda no lineal mas simple
+ c()
=0,
(9.10)
t
x
resulta si la velocidad local de propagacion, c, no es constante sino que depende de la onda .
Cuando una ecuacion no lineal tiene una solucion de la forma (x, t) = A cos(kx t), donde
(k) vara con k tal que (k) = 0, entonces ella es llamada dispersiva. Quizas la ecuacion
dispersiva no lineal mas conocida de segundo orden es la ecuacion de Korteweg-de Vries
3
=0,
+
+
t
x
x3
(9.11)
la cual modela la propagacion sin perdidas de las ondas de agua superficiales y otros fenomenos. Esta es ampliamente conocida por sus soluciones soliton. Un soliton es una onda viajera
con la propiedad de persistir a traves de una interaccion con otro soliton: despues de que
ellos pasan uno a traves del otro, ellos emergen en la misma forma y con la misma velocidad
y no adquieren mas que un cambio de fase. Sea ( = x ct) tal onda viajera. Cuando es
sustituida en la ecuacion (9.11) esta produce la ODE no lineal
( c)
d d3
+ 3 =0,
d
d
(9.12)
(9.13)
No hay constantes de integracion aditivas en la ecuacion (9.13) para asegurar que se satisfaga
la condicion d2 /d 2 0 con 0 para grande, tal que esta localizado en la caracterstica = 0, o x = ct. Multiplicando la ecuacion (9.13) por d/d e integrando nuevamente
tenemos
2
d
3
= c 2
,
(9.14)
d
3
donde d/d 0 para grande. Tomando la raz de la ecuacion (9.14) e integrando una vez
mas encontramos la solucion solitonica
(x ct) =
2
cosh
3c
x ct
c
2
(9.15)
9.1.4.
231
Condiciones de borde.
9.2.
La fsica involucra algunas ecuaciones diferenciales de primer orden, ellas fueron estudiadas en el curso de ecuaciones diferenciales. Por completitud parece ser deseable revisarlas
brevemente.
Consideremos aqu ecuaciones diferenciales de la forma general
dy
P (x, y)
= f (x, y) =
.
dx
Q(x, y)
(9.16)
232
Condiciones
de borde
Hiperbolicas
Parabolicas
Laplace, Poisson
en (x, y)
Ecuacion de Ondas
en (x, t)
Ecuacion de difusion
en (x, t)
Resultados no fsicos
(inestabilidades)
Solucion u
nica
y estable
Demasiado
restrictivo
Demasiado
restrictivo
Demasiado
restrictivo
Demasiado
restrictivo
Insuficiente
Insuficiente
Solucion u
nica y
estable en 1 dim
Solucion no
u
nica
Demasiado
restrictivo
Insuficiente
Solucion u
nica y
estable en 1 dim
Solucion no
u
nica
Demasiado
restrictivo
Cauchy
Superficie Abierta
Superficie Cerrada
Dirichlet
Superficie Abierta
Cuadro 9.1:
La ecuacion (9.16) es claramente una ecuacion de primer orden ordinaria. Es de primer orden
ya que contiene la primera derivada y no mayores. Es Ordinaria ya que la derivada dy/dx
es una derivada ordinaria o total. La ecuacion (9.16) puede o no puede ser lineal, aunque
trataremos el caso lineal explcitamente mas adelante.
9.2.1.
Variables separables.
(9.17)
P (x )dx +
x0
Q(y )dy = 0 .
(9.18)
y0
Ya que los lmites inferiores x0 e y0 contribuyen en unas constantes, podramos ignorar los
lmites inferiores de integracion y simplemente a
nadir una constante de integracion al final.
233
Note que esta tecnica de separacion de variables no requiere que la ecuacion diferencial sea
lineal.
Ejemplo Ley de Boyle.
Una forma diferencial de la ley de los gases de Boyle es
V
dV
= ,
dP
P
para el volumen V de una cantidad fija de gas a presion P (y temperatura constante). Separando variables, tenemos
dV
dP
=
V
P
o
ln V = ln P + C .
Con dos logaritmos presentes, es mas conveniente reescribir la constante de integracion C
como ln k. Entonces
ln V + ln P = ln P V = ln k
y
PV = k .
9.2.2.
(9.19)
Esta ecuacion se dice que es exacta si podemos calzar el lado izquierdo de ella a un diferencial
d,
dx +
dy .
(9.20)
d =
x
y
Ya que la ecuacion (9.19) tiene un cero a la derecha, buscamos una funcion desconocida
(x, y) = constante, tal que d = 0. Tenemos (si tal funcion (x, y) existe)
P (x, y)dx + Q(x, y)dy =
dx +
dy
x
y
(9.21)
= P (x, y) ,
x
= Q(x, y) .
y
(9.22)
La condicion necesaria y suficiente para que la ecuacion sea exacta es que la segunda derivada
parcial mezclada de (x, y) (supuesta continua) es independiente del orden de diferenciacion:
2
P (x, y)
Q(x, y)
2
=
=
=
.
yx
y
x
xy
(9.23)
234
Si la ecuacion (9.19) corresponde a un rotor (igual cero), entonces un potencial, (x, y),
debiera existir.
Si (x, y) existe entonces a partir de las ecuaciones (9.19) y (9.21) nuestra solucion es
(x, y) = C .
(9.24)
Podemos construir (x, y) a partir de sus derivadas parciales de la misma manera que construimos un potencial magnetico vectorial en el captulo de vectores a partir de su rotor.
Podemos volver a la ecuacion (9.19) y ver que pasa si no es exacta: la ecuacion (9.23) no
es satisfecha. Sin embargo, siempre existe al menos una o quizas una infinidad de factores de
integracion, (x, y), tales que
(x, y)P (x, y)dx + (x, y)Q(x, y)dy = 0
es exacta. Desafortunadamente, un factor de integracion no siempre es obvio o facil de encontrar. Diferente es el caso de la ecuacion diferencial de primer orden lineal considerada a
continuacion, no hay una manera sistematica de desarrollar un factor de integracion para la
ecuacion (9.19).
Una ecuacion diferencial en la cual las variables han sido separadas es automaticamente
exacta. Una ecuacion diferencial exacta no es necesariamente separable.
9.2.3.
Si f (x, y) en la ecuacion (9.16) tiene la forma p(x)y + q(x), entonces la ecuacion (9.16)
se convierte en
dy
+ p(x)y = q(x) .
(9.25)
dx
La ecuacion (9.25) es la ODE de primer orden lineal mas general. Si q(x) = 0, la ecuacion
(9.25) es homogenea (en y). Un q(x) distinto de cero puede representar una fuente o un
termino de forzamiento. La ecuacion (9.25) es lineal ; cada termino es lineal en y o dy/dx.
No hay potencias mayores; esto es, no hay y 2 , ni productos, y(dy/dx). Note que la linealidad
se refiere a y y a la dy/dx; p(x) y q(x) no es necesario que sean lineales en x. La ecuacion
(9.25), es la mas importante de estas ecuaciones diferenciales de primer orden para los fsicos
y puede ser resuelta exactamente.
Busquemos un factor de integracion (x) tal que
(x)
dy
+ (x)p(x)y = (x)q(x) ,
dx
(9.26)
dy d
+
y = (x)q(x) .
dx dx
235
(9.28)
Aqu hay una ecuacion diferencial para (x), con las variables y x separables. Separamos
variables, integramos, y obtenemos
x
(x) = exp
p(x ) dx
(9.29)
d
[(x )y] dx =
dx
(x )q(x ) dx .
(x)y =
(x )q(x ) dx + C .
Las constantes a partir del lmite inferior de integracion constante son reunidas en la constante
C. Dividiendo por (x), obtenemos
1
(x)
y(x) =
(x )q(x ) dx + C
y(x) = exp
p(t) dt
exp
p(t) dt q(s) ds + C
(9.30)
Aqu las variables mudas de integracion han sido reescritas para hacerlas inambiguas. La
ecuacion (9.30) es la solucion general completa de la ecuacion diferencial lineal, de primer
orden, la ecuacion (9.25). La porcion
x
y1 (x) = C exp
p(t) dt
(9.31)
y(x) = exp
p(t) dt
exp
p(t) dt q(s) ds ,
(9.32)
236
Ejemplo Circuito RL.
dI(t)
+ RI(t) = V (t) ,
dt
(t) = exp
R
dt
L
= eRt/L .
Entonces por la ecuacion (9.30)
t
I(t) = eRt/L
eRt/L
V (t)
dt + C
L
con la constante C es determinada por una condicion inicial (una condicion de borde).
Para el caso especial V (t) = V0 , una constante,
I(t) = eRt/L
=
V0 L Rt/L
e
+C
LR
V0
+ CeRt/L .
R
9.2.4.
V0
1 eRt/L .
R
Conversi
on a una ecuaci
on integral.
Nuestra ecuacion diferencial de primer orden, ecuacion (9.16), puede ser convertida a una
ecuacion integral por integracion directa:
x
y(x) y(x0 ) =
f [x, y(x)] dx .
(9.33)
x0
Como una ecuacion integral hay una posibilidad de una solucion en serie de Neumann (se
vera en el proximo curso) con la aproximacion inicial y(x) y(x0 ). En la literatura de
ecuaciones diferenciales esto es llamado el metodo de Picard de aproximaciones sucesivas.
Ecuaciones diferenciales de primer orden las encontraremos de nuevo en conexion con las
transformadas de Laplace y de Fourier.
DE VARIABLES.
9.3. SEPARACION
9.3.
237
Separaci
on de variables.
Las ecuaciones de la fsica matematica listada en la seccion 9.1 son todas ecuaciones diferenciales parciales. Nuestra primera tecnica para su solucion es dividir la ecuacion diferencial
parcial en n ecuaciones diferenciales ordinarias de n variables. Cada separacion introduce
una constante de separacion arbitraria. Si tenemos n variables, tenemos que introducir n 1
constantes, determinadas por las condiciones impuestas al resolver el problema.
9.3.1.
Coordenadas cartesianas.
(9.34)
usando la forma cartesiana para el Laplaciano. Por el momento, k 2 sera una constante. Quizas
la manera mas simple de tratar una ecuacion diferencial parcial tal como la ecuacion (9.34)
es dividirla en un conjunto de ecuaciones diferenciales ordinarias. Esto puede ser hecho como
sigue. Sea
(x, y, z) = X(x)Y (y)Z(z) ,
(9.35)
y sustituir de vuelta en la ecuacion (9.34). Como sabemos que la ecuacion (9.35) es valida?.
La respuesta es muy simple: No sabemos si es valida!. Mejor dicho, estamos procediendo en
este espritu y tratando de ver si trabaja. Si nuestro intento es exitoso, entonces la ecuacion
(9.35) sera justificada. Si no es exitoso, lo descubriremos pronto y luego trataremos otro
ataque tal como las funciones de Green, transformadas integral, o analisis numerico a la
fuerza bruta. Con supuestamente dada por la ecuacion (9.35), la ecuacion (9.34) llega a ser
YZ
d2 X
d2 Y
d2 Z
+
XZ
+
XY
+ k 2 XY Z = 0 .
dx2
dy 2
dz 2
(9.36)
.
X dx2
Y dy 2
Z dz 2
(9.37)
La ecuacion (9.37) exhibe una separacion de variables. El lado izquierdo es solo funcion de x,
mientras que el lado derecho depende solamente de y y z. As la ecuacion (9.37) es una clase
de paradoja. Una funcion de x es igualada a una funcion de y y z, pero x, y y z son todas
coordenadas independientes. Esta independencia significa que el comportamiento de x como
una variable independiente no esta determinada ni por y ni por z. La paradoja esta resuelta
fijando cada lado igual a una constante, una constante de separacion. Escogemos3
1 d2 X
= l2 ,
X dx2
3
(9.38)
La elecci
on de signo es completamente arbitraria, sera fijada en un problema especfico por la necesidad
de satisfacer las condiciones de borde.
238
k2
1 d2 Y
1 d2 Z
= l2 .
2
2
Y dy
Z dz
(9.39)
,
Y dy 2
Z dz 2
(9.40)
y una segunda separacion ha sido realizada. Aqu tenemos una funcion de y igualada a una
funcion de z y aparece la misma paradoja. La resolvemos como antes igualando cada lado a
otra constante de separacion, m2 ,
1 d2 Y
= m2 ,
Y dy 2
(9.41)
1 d2 Z
= k 2 + l2 + m2 = n2 ,
(9.42)
Z dz 2
introduciendo una constante n2 por k 2 = l2 + m2 + n2 para producir un conjunto simetrico de
ecuaciones. Ahora tenemos tres ecuaciones diferenciales ordinarias ((9.38), (9.41), y (9.42))
para reemplazar en la ecuacion (9.34). Nuestra suposicion (ecuacion (9.35)) ha sido exitosa
y es por lo tanto justificada.
Nuestra solucion sera etiquetada de acuerdo a la eleccion de nuestras constantes l, m, n,
esto es,
lmn (x, y, z) = Xl (x)Ym (y)Zn (z) .
(9.43)
Sujeto a las condiciones del problema que se resuelve y a la condicion k 2 = l2 + m2 + n2 ,
podemos escoger l, m, n como queramos, y la ecuacion (9.43) sera todava una solucion de la
ecuacion (9.34), dado que Xl (x) es una solucion de la ecuacion (9.38) y as seguimos. Podemos
desarrollar la solucion mas general de la ecuacion (9.34) tomando una combinacion lineal de
soluciones lmn ,
almn lmn .
(9.44)
=
l,m,n
Los coeficientes constantes almn finalmente son escogidos para permitir que satisfaga las
condiciones de borde del problema.
9.3.2.
1 2 2
+ 2 + k2 = 0 .
2 2
z
(9.45)
(9.46)
(9.47)
DE VARIABLES.
9.3. SEPARACION
239
dP
d
P Z d2
d2 Z
+
P
+ k 2 P Z = 0 .
2 d2
dz 2
(9.48)
Todas las derivadas parciales han llegado a ser derivadas ordinarias. Dividiendo por P Z y
moviendo la derivada z al lado derecho conduce a
1 d
dP
1 d2
1 d2 Z
2
+ 2
+
k
=
.
(9.49)
P d
d
d2
Z dz 2
De nuevo, tenemos la paradoja. Una funcion de z en la derecha aparece dependiendo de
una funcion de y en el lado izquierdo. Resolvemos la paradoja haciendo cada lado de la
ecuacion (9.49) igual a una constante, la misma constante. Escojamos4 l2 . Entonces
d2 Z
= l2 Z ,
dz 2
(9.50)
y
1 d
P d
dP
d
1 d2
+ k 2 = l2 .
2 d2
(9.51)
dP
d
+ n 2 2 =
1 d2
.
d2
(9.52)
(9.53)
d
d
dP
d
+ (n2 2 m2 )P = 0 .
(9.54)
(9.55)
Identificando las soluciones especficas P , , Z por subndices, vemos que la solucion mas
general de la ecuacion de Helmholtz es una combinacion lineal del producto de soluciones:
(, , z) =
(9.56)
m,n
4
La elecci
on del signo de la constante de separacion es arbitraria. Sin embargo, elegimos un signo menos
para la coordenada axial z en espera de una posible dependencia exponencial en z. Un signo positivo es
elegido para la coordenada azimutal en espera de una dependencia periodica en .
240
9.3.3.
1
sen
2
r sen
r
r2
sen
1 2
= k 2 .
sen 2
(9.57)
(9.58)
r2
dR
dr
1
d
2
r sen d
sen
d
d
1
d2
= k2 .
r2 sen2 d2
(9.59)
Note que todas las derivadas son ahora derivadas ordinarias mas que parciales. Multiplicando
por r2 sen2 , podemos aislar (1/)(d2 /d2 ) para obtener5
1 d
1 d2
2
2
2
=
r
sen
d2
r2 R dr
r2
dR
dr
1
d
r2 sen d
sen
d
d
(9.60)
(9.61)
y
1 d
2
r R dr
r2
dR
dr
1
d
2
r sen d
sen
d
d
m2
= k 2 .
r2 sen2
(9.62)
r2
dR
dr
+ r2 k2 =
1
d
sen d
sen
d
d
m2
.
sen2
(9.63)
Nuevamente, las variables son separadas. Igualamos cada lado a una constante Q y finalmente
obtenemos
1 d
d
m2
+ Q = 0 ,
(9.64)
sen
sen d
d
sen2
1 d
r2 dr
5
r2
dR
dr
+ k2R
QR
=0.
r2
(9.65)
DE VARIABLES.
9.3. SEPARACION
241
Una vez mas hemos reemplazado una ecuacion diferencial parcial de tres variables por tres
ecuaciones diferenciales ordinarias. Las soluciones de estas tres ecuaciones diferenciales ordinarias son discutidas en el proximo curso. Por ejemplo, la ecuacion (9.64) es identificada
como la ecuacion de asociada de Legendre en la cual la constante Q llega a ser l(l + 1); con l
entero. Si k 2 es una constante (positiva), la ecuacion (9.65) llega a ser la ecuacion de Bessel
esferica.
Nuevamente, nuestra solucion mas general puede ser escrita
Qm (r, , ) =
RQ (r)Qm ()m () .
(9.66)
q,m
1
1
2
g()
+
h() + k .
r2
r2 sen2
(9.67)
En el problema del atomo de hidrogeno, uno de los ejemplos mas importantes de la ecuacion
de onda de Schrodinger con una forma cerrada de solucion es k 2 = f (r). La ecuacion (9.65)
para el atomo de hidrogeno llega a ser la ecuacion asociada de Laguerre.
La gran importancia de esta separacion de variables en coordenadas polares esfericas
deriva del hecho que el caso k 2 = k 2 (r) cubre una tremenda cantidad de fsica: las teoras de
gravitacion, electroestatica, fsica atomica y fsica nuclear. Y, con k 2 = k 2 (r), la dependencia
angular es aislada en las ecuaciones (9.61) y (9.64), la cual puede ser resuelta exactamente.
Finalmente, una ilustracion de como la constante m en la ecuacion (9.61) es restringida,
notamos que en coordenadas polares esfericas y cilndricas es un angulo azimutal. Si esto es
un problema clasico, ciertamente requeriremos que la solucion azimutal () sea univaluada,
esto es,
( + 2) = () .
(9.68)
Esto es equivalente a requerir que la solucion azimutal tenga un perodo de 2 o alg
un
m
ultiplo entero de el. Por lo tanto m debe ser un entero. Cual entero, depende de los detalles
del problema. Cada vez que una coordenada corresponda a un eje de translacion o a un
angulo azimutal la ecuacion separada siempre tendra la forma
d2 ()
= m2 ()
2
d
para , el angulo azimutal, y
d2 Z
= a2 Z(z)
(9.69)
dz 2
para z, un eje de traslacion en un sistema de coordenadas cilndrico. Las soluciones, por supuesto, son sen az y cos az para a2 y la correspondiente funcion hiperbolica (o exponencial)
senh az y cosh az para +a2 .
Otras ecuaciones diferenciales ordinarias encontradas ocasionalmente incluyen las ecuaciones de Laguerre y la asociada de Laguerre del importante problema del atomo de hidrogeno
en mecanica cuantica:
d2 y
dy
x 2 + (1 x) + y = 0 ,
(9.70)
dx
dx
242
d2 y
dy
+ (1 + k x) + y = 0 .
(9.71)
2
dx
dx
De la teora de la mecanica cuantica del oscilador armonico lineal tenemos la ecuacion de
Hermite,
d2 y
dy
2x + 2y = 0 .
(9.72)
2
dx
dx
Finalmente, de vez en vez encontramos la ecuacion diferencial de Chebyshev
x
(1 x2 )
d2 y
dy
x + n2 y = 0 .
2
dx
dx
(9.73)
Para una referencia conveniente, las formas de la solucion de la ecuacion de Laplace, la ecuacion de Helmholtz y la ecuacion de difusion en coordenadas polares esfericas son resumidas
en la tabla 9.2. Las soluciones de la ecuacion de Laplace en coordenadas circulares cilndricas
son representadas en la tabla 9.3.
alm lm
=
l,m
1.
2.
3.
2 = 0
2 + k 2 = 0
2 k 2 = 0
lm =
lm =
lm =
rl
Plm (cos )
cos m
rl1
Qm
l (cos )
sen m
jl (kr)
Plm (cos )
cos m
nl (kr)
Qm
l (cos )
sen m
il (kr)
Plm (cos )
cos m
kl (kr)
Qm
l (cos )
sen m
2 = 0
am m ,
m,
a.
m =
b.
c.
m =
= 0 (no hay
dependencia en z)
m =
Jm ()
cos m
ez
Nm ()
sen m
ez
Im ()
cos m
cos z
Km ()
sin m
sen z
cos m
sen m
DE VARIABLES.
9.3. SEPARACION
243
244
Parte II
Variable Compleja
245
Captulo 10
N
umeros Complejos
versi
on 1.1, 5 de Mayo del 2003
10.1.
Introducci
on.
Definici
on 10.1 Dominio de integridad, D. Es un conjunto de elementos entre los cuales
estan definidas las operaciones de suma y multiplicacion con las siguientes propiedades:
a) Para todo a, b que pertenece a D existe un solo a + b D y un solo a b D tal que se
satisfacen
La conmutatividad a + b = b + a y a b = b a.
La asociatividad a + (b + c) = (a + b) + c y a (b c) = (a b) c.
b) Existe un elemento 0 D y un elemento 1 D con 0 = 1 tal que a D,
a+0=0+a=a
a1=1a=a .
c) Para todo a D solo existe un x D tal que a + x = 0 a tal elemento se le llama opuesto
de a y es a.
d) Si c D con c = 0 y c a = c b, entonces a = b ley de simplificacion.
Un par de ejemplos de dominios de integridad son los n
umeros reales, R, y los n
umeros
racionales, Q.
Definici
on 10.2 Campo, C. Es un dominio de integridad que contiene para cada elemento
a = 0 un elemento llamado inverso de a y denotado a1 tal que
a a1 = 1 .
Definici
on 10.3 Correspondencia biunvoca. Existe una correspondencia biunvoca entre
los conjuntos A y B si a todos los elementos a A se les puede hacer corresponder un s
olo
elemento a B y viceversa.
Notaci
on: a a , a A y a B.
247
CAPITULO 10. NUMEROS
COMPLEJOS
248
(10.1)
(10.2)
Estos n
umeros complejos forman un campo que llamamos campo complejo C.
Consideremos
el dominio D por los n
umeros reales (R) y la raz de la ecuacion x2 + 1 = 0
2
i.e. i 1, i = 1. Toda expresion de la forma x + iy (con x, y R), pertenece a D. Por
definicion de dominio de integridad
(x + iy) + (x + iy ) = x + x + i(y + y )
(x + iy) (x + iy ) = xx yy + i(xy + x y) .
Establezcamos la correspondencia
(x, y) x + iy .
Afirmamos que esta correspondencia es biunvoca, en efecto, si
(x, y) x + iy
(x , y ) x + iy ,
y
(x + iy) = (x + iy ) (x x ) = i(y y ) ,
elevando al cuadrado
(x x )2 = (y y )2 (x x )2 + (y y )2 = 0 ,
como ambos terminos son 0, deben ser nulos por separados,
x x = 0 ,y y = 0 x = x ,y = y ,
(10.3)
(10.4)
249
(0, 1) = i ,
(1, 0) = 1 ,
(0, y) = iy ,
En el u
ltimo caso tenemos un n
umero que es imaginario puro.
10.2.
Plano complejo.
La forma x+iy de los complejos nos conduce a definir lo que llamaremos el plano complejo,
figura 10.1,
Im
z
Im( z )
Re
i
1
Re( z )
(10.5)
CAPITULO 10. NUMEROS
COMPLEJOS
250
Im
z
Re
~
z
2.
(z1 ) = (z1 ) = (x1 iy1 )
= x1 + iy1
= (x1 iy1 ) = (z1 )
(z1 ) = (z1 ) .
(10.6)
3.
(z1 z2 ) = (z1 z2 ) = (x1 x2 y1 y2 ) i(x2 y1 + x1 y2 )
= x1 x2 (y1 )(y2 ) + i(x1 (y2 ) + x2 (y1 )) = z1 z2
(z1 z2 ) = z1 z2 .
(10.7)
4.
z = (z ) = z .
(10.8)
z + z = z + z = 2 Re(z) .
(10.9)
z z = z z = 2i Im(z) .
(10.10)
z z = z z = (x + iy)(x iy)
= x2 (i)2 y 2 = x2 + y 2 |z|2
z z = |z|2 .
(10.11)
5.
6.
7.
POLAR.
10.3. REPRESENTACION
251
=1
= z
= z
=
z
.
| z |2
10.3.
Representaci
on polar.
Cada n
umero complejo z = x + iy puede representarse en forma polar
z = r(cos + i sen ) ,
(10.12)
donde
r = |z| =
10.4.
(Re(z))2 + (Im(z))2 ,
= tan1
y
x
, con < .
(10.13)
10.5.
Desigualdad triangular.
(10.14)
CAPITULO 10. NUMEROS
COMPLEJOS
252
Im
Im( z )
r=| z|
Re
Re( z )
Im
(a)
Im
(b)
z2 z1
z1
R
z0
z2
Re
Re
Demostraci
on Sean z1 = a1 + ib1 y z2 = a2 + ib2 ,
(a1 b2 a2 b1 )2 = a21 b22 + a22 b21 2a1 b2 a2 b1 0
a21 a22 + a21 b22 + a22 b21 + b21 b22 a21 a22 + 2a1 b2 a2 b1 + b21 b22
(a21 + b21 )(a22 + b22 ) = | z1 |2 | z2 |2 (a1 a2 + b1 b2 )2
| z1 | | z2 | (a1 a2 + b1 b2 )
| z1 |2 + | z2 |2 + 2 | z1 | | z2 | 2a1 a2 + 2b1 b2 + a21 + b21 + a22 + b22
(| z1 | + | z2 |)2 (a1 + a2 )2 + (b1 + b2 )2 = | z1 + z2 |2
| z1 | + | z2 | | z1 + z2 | .
q.e.d.
10.6.
253
a b
.
b a
Consideremos dos complejos z1 = a1 + ib1 y z2 = a2 + ib2 y asociemosles, va la funcion A.
a1 b1
a2 b2
Las matrices A(z1 ) =
y A(z2 ) =
respectivamente. Podemos probar
b1 a1
b2 a2
que
El algebra de los n
umeros complejos es isomorfa a la de las matrices de la forma
A(z1 + z2 ) =
A(z1 z2 ) =
a1 + a2 b1 + b2
b1 b2 a1 + a2
a1 b1
b1 a1
a1 a2 b1 b2
a1 b1 + a2 b2
(a1 b1 + a2 b2 ) a1 a2 b1 b2
a2 b2
b2 a2
a1 b1
b1 a1
= A(z1 ) + A(z2 ) ,
a2 b2
b2 a2
= A(z1 ) A(z2 ) .
A(1) =
=1,
A(i) =
0 1
1 0
=I.
10.7.
Sucesi
on de n
umeros complejos.
10.8.
Series de n
umeros complejos.
zi = z lm Sn =
i=0
zi = z .
(10.15)
i=0
CAPITULO 10. NUMEROS
COMPLEJOS
254
Im
z3
z2
z4
z0
z1
Re
Definici
on 10.7 La serie
=0
a converge absolutamente si
=0
| a | converge.
10.8.1.
Pruebas m
as comunes para la convergencia absoluta.
an converge entonces
zn
10.8.2.
Radio de convergencia.
Consideremos la serie
z = 1 + z2 + z3 + z4 + . . . .
=0
i)
Para | z | < 1, la prueba de la razon nos da | z n+1 /z n | = | z | < 1. Lo anterior implica que
la serie
zn converge absolutamente para | z | < 1.
ii)
Para | z | > 1, la prueba de la razon nos da | z n+1 /z n | = | z | > 1. Lo anterior implica que
la serie
zn diverge para | z | < 1.
iii)
zn diverge para
La serie
zn converge absolutamente dentro de una circunferencia de radio R = 1. Este
R se llama radio de convergencia.
10.8. SERIES DE NUMEROS
COMPLEJOS.
255
Zona de
Divergencia
Zona de
Convergencia
10.8.3.
La serie exponencial.
Consideremos la serie
=0
z
.
!
e = exp z
=0
z
.
!
(10.16)
Propiedades a, b C:
a)
a b
e e =
=0
=
e e =e
=0
k
1
k!
k=0
(a+b)
a b
a
!
=0
b
!
a b
!!
k=0 +=k
k!
ak b
(k )!!
=
k=0
k!
k!
1
(a + b)k
k!
b)
z2 z4
z3 z5
+
... + i z
+
...
2!
4!
3!
5!
= cos(z) + i sen(z) .
eiz =
CAPITULO 10. NUMEROS
COMPLEJOS
256
10.9.
Relaci
on de Euler.
(10.17)
(10.18)
(10.19)
cos z =
(10.20)
e2i = +1 ,
ei/2 = i ,
ei/2 = i .
10.10. FORMULA
DE MOIVRE.
10.10.
257
F
ormula de Moivre.
i i i
= e e e e = e
= cos n + i sen n = (cos + i sen )n
n
=
=0
n
cosn sen i ,
luego tenemos
n
cos n + i sen n =
=0
n
cosn sen i .
(10.21)
(10.22)
10.11.
Ecuaci
on ciclot
onica.
(10.23)
2ki
n
con k = 0, 1, . . . , n 1.
n
1
zk
1
-1, +1
3
2
+1, 21 i
1, 1
i 3
2
(10.24)
CAPITULO 10. NUMEROS
COMPLEJOS
258
z2
z1
z3
z1
z4
z5
z0
z1
z2
z3
z0
z0
z1
z2
z3
z1
z1
z0
z3
z2
z2
z2
z3
z1
z0
z3
z3
z2 .
z0
z1
Captulo 11
Ejemplos sencillos de funciones
complejas
versi
on final 1.24, 12 de Mayo del 2003
11.1.
Notaci
on.
C C .
La notacion es que el plano de salida lo denotaremos por Z con elementos z = x + iy, y la
imagen sera el plano W con elementos w = u + iv. Es decir, f (z) = f (x + iy) = w = u + iv.
259
260
11.2.
Ejemplo 1, traslaci
on.
y
a
a
a
a
a
x
11.3.
Ejemplo 2, rotaci
on en torno al origen.
cos sen
sen cos
o bien
x
y
f(z)
z
u
v
11.4.
Ejemplo 3, reflexi
on respecto al eje real.
Im
z
Re
f(z)= ~
z =z *
Figura 11.4: Funcion reflexion respecto al eje real.
Im
f(z)= ~
z = z*
z
Re
~
z =z *
261
262
11.5.
Ejemplo 4, rotaci
on m
as traslaci
on.
Im
|a|
b
Re
Figura 11.6: Funcion rotacion mas traslacion.
w
f
CUADRATICA.
11.6.
263
Ejemplo 5, transformaci
on cuadr
atica.
La transformacion cuadratica
z f (z) = z 2 = (x + iy)2 = x2 y 2 + i2xy = u + iv .
Despejando para u y v
u = x2 y 2 ,
v = 2xy .
f(z)=z2
z
Im
Re
Re( z )>0
v
y reemplazandola en la primera ecuacion
2c
v2
u = c2
.
4c
La funcion inversa, no podemos simplemente escribir z = w a menos que nos restrinjamos a Re z > 0.
Despejando x =
264
z
f(z) = z 2
Parbolas
confocales
Rectas
foco
x
11.7.
Ejemplo 6, transformaci
on exponencial.
La transformacion exponencial
z f (z) = ez = e(x+iy) = ex eiy = ex (cos y + i sen y) = u + iv = w .
Despejando para u y v
u = ex cos y ,
v = ex sen y .
Mapeo de curvas notables
Verticales en z, es decir, x = c = cte. Representacion parametrica con parametro
< y < ,
u = ec cos y ,
v = ec sen y .
Horizontales en z, es decir, y = c = cte. Representacion parametrica con parametro x,
u = ex cos c ,
v = ex sen c .
La funcion inversa de ez , tenemos w = ez tal que < Im (ez ) . Sea w = 0, escribamos
w = rei con < . Debemos identificar lo anterior con ez = ex eiy , basta tomar ex = r
e y = luego x = ln r e y = . Por lo tanto,
z = ln | w | + i = ln w ,
siendo w = | w | ei con < .
DE JOUKOWSKY.
11.8. EJEMPLO 7, TRANSFORMACION
z
y
.5 .5 1
w
f(z)=e z
265
v
i /2
Rectas
i /2
0.3
u
0.3 x
i
i /2
2.2
i
2.2
Mapeo Abanico
i/2
11.8.
Ejemplo 7, transformaci
on de Joukowsky.
1
2
z+
1
z
= u + iv = w ,
1
2
1
rei + ei
r
= u + iv ,
despejando para u y v
1
2
1
v=
2
u=
1
cos ,
r
1
r
sen .
r
r+
u=
1
cos ,
c
1
c
sen .
c
c+
2u
2v
+
=1.
1
1
c+
c
c
c
266
1
2
1
v=
2
r+
u=
f(z)=
z
v
sen 0
1
2
(z + 1z)
=1.
11.9.
Ejemplo 8, inverso.
La funcion inverso
z f (z) =
1
,
z
f (rei ) =
1 i
e
,
|r|
z = 0 w = ,
1/z
z = w = 0 .
(11.1)
(11.2)
267
f(z)=z1
z
11.10.
1
,
z
f (rei ) =
1 i
e ,
|r|
1
z*
268
11.11.
polo N
y
R=1/2
x
0
z
Proyeccin
Estereogrfica
Ponemos una esfera de radio r = 1/2 sobre el plano complejo tal que el polo sur de la
esfera coincida con el origen, llamaremos a esta esfera: esfera de Riemann.
A cada punto z del plano complejo z le haremos corresponder un u
nico punto sobre
la esfera de la siguiente manera: unimos el punto sobre el plano complejo con el extremo
superior de la esfera o polo Norte por una recta y el punto que esta recta intersecta la esfera
correspondera a la imagen del punto z.
Definici
on 11.1 Infinito. El punto, en el plano z, llamado infinito, z = , es aquel cuya
imagen se encuentra en el polo norte de la esfera de Riemann. Es decir,
Def.
z = Polo N .
11.11.1.
(11.3)
1. Crculos en el plano z son mapeados sobre crculos en la esfera , los cuales no pasan
por el polo norte.
2. Lneas rectas en el plano z son mapeadas en circunferencias sobre la esfera , los cuales
pasan por el polo norte.
3. Dos rectas que se cortan en el plano z tienen dos punto comunes sobre la esfera siendo
uno de ellos el polo N.
La proyeccion estereografica es conforme, es decir, preserva los angulos orientados.
269
11.11.2.
270
R= 1_2
R
R
Plano
Ecuatorial
|z|=r
1/r
1/z*
r
cos(2)
1
1 tan2
r2 1
2 =
=
=
=
.
2
sen 2
tan 2
2 tan
2r
(11.4)
Por otro lado, tenemos que tan = (1/r)/1 = 1/r. Claramente desde la figura tenemos que
/2 = 2, por lo tanto, calculamos la tangente de de una manera equivalente
cos(2)
1
1 tan2
1 1/r2
r2 1
2 =
=
=
=
=
.
tan = tan
2
sen 2
tan 2
2 tan
2(1/r)
2r
(11.5)
Captulo 12
Transformaciones homogr
aficas y
rotaciones de la esfera.
versi
on final 1.21, 12 de Mayo del 2003
Consideremos el espacio real de 3 dimensiones en coordenadas cartesianas. Las transformaciones isometricas son aquellas que conservan el producto escalar. Este tipo de transformaciones se pueden representar por matrices reales de 3 3, que satisfacen:
AA = 1 ,
det(A) = 1 .
(12.1)
, = 1, 2, 3.
B
0
0
1
donde B =
271
cos sen
sen cos
272CAPITULO 12. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.
Ya que la matriz A satisface A = A1 eso implica que B = B1 y tambien tenemos que
det(A) = det(B) = 1.
Consideremos ahora la transformacion
f (z) = w =
az + b
,
cz + d
tal que
D = ad bc = 0 C .
(12.2)
a b
c d
z
1
tal que
w
az + b
=
.
1
cz + d
(12.3)
a b
d b
es no singular, es decir, tiene inversa, D1
.
c d
c a
Las transformaciones homograficas forman un grupo respecto a su composicion funcional.
La matriz
Escribamos la matriz como producto de matrices, lo cual nos permitira entender como
mapea las rectas y las circunferencias,
a b
c d
1
c
D a
0 c
0 1
1 0
c d
0 1
az + b
,
cz + d
az0 + b
cz02 + (d a)z0 b = 0 .
cz0 + d
273
En principio hay dos soluciones. Para que haya mas de dos soluciones c = 0 y d = a, lo
a 0
que implica b = 0, por lo tanto, la matriz asociada a la transformacion es
= a1.
0 a
2. Infinito es punto fijo, es decir, c = 0, luego
z0 =
az0 + b
(d a)z0 b = 0 .
d
Para que haya mas de una solucion d = a lo que implica b = 0, por lo tanto, la matriz
a 0
asociada a la transformacion es
= a1.
0 a
q.e.d.
Proposici
on 12.3 Si describimos tres puntos en el plano complejo z1 = z2 = z3 = z1 y sus
respectivas imagenes w1 = w2 = w3 = w1 , entonces existe exactamente una transformacion
homografica f tal que f (zi ) = wi para i = 1, 2, 3.
Demostraci
on Construimos la razon cruzada invariante
z z1 z2 z1
w w1 w2 w1
:
=
:
= f (z) = w .
w w3 w2 w3
z z3 z2 z3
(12.4)
porque 0 = 0,
porque 1 = 1,
porque = .
para = 1, 2, 3.
Tenemos una transformacion homografica g 1 f con tres puntos fijos, luego la transformacion
es la identidad g 1 f = 1 o bien g 1 = f 1 lo que implica finalmente que g = f , es decir f
es u
nica.
q.e.d.
Consideremos las transformaciones homograficas de la forma
f (z) =
az + b
.
b z + a
(12.5)
274CAPITULO 12. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.
Plano
Ecuatorial
1
z*
1
z*
Proposici
on 12.4 Las transformaciones homograficas del tipo (12.5) corresponden exactamente a todas las rotaciones de la esfera.
Demostraci
on Una rotacion transforma puntos diametralmente opuestos en puntos diametralmente opuestos.
El par de puntos (z, 1/z ) son puntos diametralmente opuestos sobre la esfera.
az0 + b
, evaluemos
Sea z0 tal que f (z0 ) = w0 =
b z0 + a
f
1
z0
za + b
bz0 a
=
=
a z0 + b
+ a
b
z0
b z0 + a
az0 + b
1
w0
1
.
w0
Ahora veamos si podemos prescribir un eje frente a esta transformacion. Sea z1 el eje
prescrito, encontremos a y b
a
b
b a
z1
1
=K
z1
1
az + b
,
b z + a
D = | a |2 + | b |2 > 0 ,
275
normalicemos los coeficientes tal que el determinante sea 1.
f (z) =
a z + b
D
D
D z + aD
Az + B
B z + A
D = | A |2 + | B |2 = 1 .
Cada uno de los coeficientes A y B son complejos, por lo tanto, tienen dos parametros reales.
En total cuatro parametros menos la restriccion de que el determinante sea +1, tenemos
entonces tres parametros, dos para el eje y uno para el angulo.
q.e.d.
276CAPITULO 12. TRANSFORMACIONES HOMOGRAFICAS
Y ROTACIONES DE LA ESFERA.
Captulo 13
Derivabilidad.
versi
on final 1.11, 12 de Mayo del 2003
13.1.
Identidades de Cauchy-Riemann.
Definici
on 13.1 La vecindad circular de un punto z0 con radio R es el conjunto de
todos los puntos tales que
0 < | z z0 | < .
(13.1)
Definici
on 13.2 Dominio abierto es aquel en que todos elementos tiene alguna vecindad
circular que pertenece totalmente al dominio.
Consideraremos funciones definidas en un dominio abierto de ahora en adelante.
z0
f(z 0)
Definici
on 13.3 Continuidad.
La funcion f es continua en el punto z0 si f (z0 + h) = f (z0 ) + R, donde R 0 cuando
h 0.
Definici
on 13.4 Diferenciabilidad.
La funcion f es derivable en z0 si
f (z0 + h) = f (z0 ) + Ah + R ,
donde
277
R
0 cuando h 0,
h
(13.2)
278
en tal caso
f
f (z0 + h) f (z0 )
R
=
=A+
.
h
h
h
Notaci
on:
A = f (z0 )
derivada de f en z = z0 .
= | z0 |2 + Ah + R
= z0 z0 + Ah + R
= Ah + R
h
= z0 + z0 + h A .
h
(13.3)
z0
f
u(x0 + x, y0 ) u(x0 , y0 ) + iv(x0 + x, y0 ) iv(x0 , y0 )
=
,
x
x
279
luego para x = h 0
v
u
+i
= f (z) .
x
x
Ahora x = 0,
(13.4)
z0
v
u
=
.
x
y
(13.6)
(x)2 + (y)2 0.
Analogamente
v = v(x0 + x, y0 + y) v(x0 , y0 ) =
donde 3 , 4 0 si h =
v
v
x +
y + 3 x + 4 y ,
x
y
(x)2 + (y)2 0.
280
13.2.
Ecuaciones de Laplace.
Sea f (z) = u(x, y) + iv(x, y) derivable tal que u, v tengan derivadas de segundo orden
continuas
2 u C.R. v
v C.R. 2 u
2u 2u
=
=
=
+
=0,
(13.7)
=
x2
x y
y x
y 2
x2 y 2
analogamente
2 v C.R.
=
x2
x
u
y
u
x
C.R.
2v
2v 2v
=
+
=0.
y 2
x2 y 2
(13.8)
|f | = f f =
v
u
i
x
x
v
u
+i
x
x
u
x
v
x
2
C.R.
u v v u
(u, v)
=
,
x y x y
(x, y)
(13.9)
Definici
on 13.8 La funcion f (z) es entera si es analtica en todo el plano z.
Teorema 13.1 Si u(x, y) es armonica entonces se puede construir f holomorfa.
f (z) = u(x, y) + iv(x, y) .
Demostraci
on Se busca v(x, y) tal que
u
v
=
,
x
y
v
u
=
.
x
y
v
y
v
x
u
x
u
y
281
Y esto es cierto por hipotesis, u es armonica, lo cual implica que v existe y por lo tanto f es
holomorfa.
q.e.d.
2u
= 6y .
y 2
Determinemos v,
u
= 6xy ,
x
usando Cauchy-Riemann
v
u
=
= 6xy = v(x, y) = 3xy 2 + (x) ,
x
y
con (x) arbitraria. Ahora bien,
v C.R. u
=
= 3y 2 + 3x2 = 3y 2 + (x) ,
x
y
lo que implica una ecuacion para (x),
(x) = 3x2 = (x) = x3 + C .
De lo anterior determinamos v(x, y) = 3xy 2 + x3 + C, por lo tanto, f es holomorfa:
f (z) = y 3 3x2 y + i(x3 3xy 2 ) + C = iz 3 + c .
v
= 2y ,
x
u
= 2y ,
y
u
v
v
u
+i
=
i
= 2x + i2y = 2z .
x
x
y
y
282
n
1
n
(z0 + h)n1 ,
1
es decir,
f (z) = (z n ) = nz n1 .
(13.10)
(sen z) = cos z ,
(13.11)
(13.12)
(cos z) = sen z .
Si definimos las funciones hiperbolicas mediante las series
z2 z4
+
+ ... ,
2!
4!
z3
z
+ ... .
senh z +
1! 3!
Su relacion con las funciones trigonometricas
cosh z 1 +
cosh iz = cos z
senh iz = i sen z
=
=
cos iz = cosh z ,
sen iz = i senh z .
(13.13)
(13.14)
(13.15)
(cosh z) = senh z .
La derivada de la funcion logaritmo,
(ln z) =
1
.
z
(13.16)
La transformacion de Joukowsky,
f (z) =
1
2
z+
1
z
(13.17)
su derivada
1
1
1 2 .
2
z
La derivada es distinta de cero en todos los puntos salvo en z = 1.
(f (z)) =
(13.18)
HIDRODINAMICA
13.3. INTERPRETACION
DE LAS IDENTIDADES DE CAUCHY-RIEMANN.283
Proposici
on 13.1 Si = entonces (z) = (z) + cte.
u
u
=0=
.
x
y
Por lo tanto, u(x, y) = cte = c1 y v(x, y) = cte = c2 implica u + iv = cte lo que finalmente
significa que (z) = (z) + cte.
q.e.d.
Demostraci
on Consideremos f = = u + iv su derivada f = 0 luego
13.3.
Interpretaci
on hidrodin
amica de las identidades
de Cauchy-Riemann.
u
v
q1
q2
(13.19)
= 0,
x
y
x y
q1 q2 u v C.R.
q =
k=
= 0.
y
x
y x
q =
(13.20)
Demostraci
on Consideremos el movimiento de una partcula durante un intervalo t con
u
velocidad q =
v
(x0 + ut, y0 vt) + O(t2 )
(x0 , y0 )
tenemos
F (z) =
V
V
+i
= f (x, y) = u + iv ,
y
x
luego
V
=u,
y
V
=v .
x
284
Ahora bien,
V = V (x0 + ut, y0 vt) V (x0 , y0 )
V
V
ut +
(v)t = vut uvt = 0 ,
x
y
1
luego
z
f (z) =
Para q elegimos
q1 =
La primitiva de f (z) =
1
z
1
z
x
y
=
= 2 i 2 .
z
zz
r
r
cos
x
=
,
2
r
r
q2 =
sen
y
=
.
2
r
r
F (z) = ln z = ln | z | + i ,
luego
Im F (z) = cte. = = cte.
Im
= cte.
Re
i
luego
z
f (z) =
Para q elegimos
q1 =
y
sen
=
,
2
r
r
i
y
x
= 2 +i 2 .
z
r
r
q2 =
x
cos
=
.
2
r
r
285
i
z
F (z) = i ln z = i ln | z | ,
luego
Im F (z) = cte. = ln r = cte. = r = cte.
Im
r= cte.
Re
13.4.
Familias ortogonales.
v(x, y) = ,
con y R.
286
Im
u(x,y)= 1
v(x,y)= 1
u(x,y)= 2
u(x,y)= 3
v(x,y)= 2
v(x,y)= 3
Re
u v
x x
u v
y y
u v
y x
v u
x
y
= 1 .
Captulo 14
Integraci
on.
versi
on final 1.1, 26 de Mayo del 2003
14.1.
Definiciones
Sea (t) = 1 (t) + i2 (t) una funcion continua de la variable real t, con t1 t t2 , y
1 , 2 R.
Definici
on 14.1
t2
t2
(t) dt =
t1
t2
1 (t) dt + i
t1
2 (t) dt .
t1
Definici
on 14.2 Curva orientada, seccionalmente lisa
z = (t)
x = 1 (t)
,
y = 2 (t)
t1 t t2 y (1 )2 + (2 )2 > 0.
seccin lisa
Figura 14.1: Curva seccionalmente lisa y orientada.
287
CAPITULO 14. INTEGRACION.
288
Im
i
Re
+1
(1 + t) i
1 + i(t 3)
z=
(5 t) + i
1 + i(7 t)
0t2
2t4
4t6
6t8
Im
z = cos + i sen = ei ,
Re
+1
Las curvas se encuentran incrustadas en regiones. Estas pueden ser dominios abiertos.
Definici
on 14.4 Dominio simplemente conexo. Es un dominio abierto tal que toda curva
cerrada en el encierra solo puntos del dominio.
Una forma equivalente de definir un dominio simplemente conexo es decir que toda curva
cerrada se puede contraer de manera continua a un punto del dominio.
14.1. DEFINICIONES
289
+2
Pero no todos los dominios tendran esta propiedad. Podemos construir dominios que
no sean simplemente conexos, veamos el siguiente ejemplo en que claramente la curva que
dibujaremos sobre la region no puede contraerse a un punto del dominio.
Ejemplo Consideremos el dominio definido por : 0.95 < | z | < 2. Claramente este no es un
dominio simplemente conexo.
+2
CAPITULO 14. INTEGRACION.
290
Los dominios simplemente conexos no tienen lagunas. Por otro lado tenemos los dominios m
ultiplemente conexos como por ejemplo el de la figura 14.7.
Im
Re
14.2.
x+ y<
x + y >
Figura 14.8: Interior de curva I.
291
Una curva cerrada sin puntos dobles tiene un interior bien definido.
Definici
on 14.5 Curva de Jordan es una curva lisa y cerrada, sin puntos dobles, puede o
no puede tener longitud finita.
Teorema 14.1 Teorema de Jordan. (Sin dem.)
Toda curva de Jordan, y por lo tanto, todo contorno cerrado, separa el plano en dos dominios los cuales tienen a los puntos como u
nicos puntos de bordes. Uno de estos dominios,
llamado interior de , es acotado y el otro, llamado el exterior de , es no acotado.
14.3.
Curva orientada: en cada lugar de la curva el conjunto de vectores tangenciales esta subordinado en una clase positiva y una clase negativa. Definida la clase positiva la curva esta orientada.
Situaciones:
1. Considere el triangulo de la figura
Los dos vectores que definen los dos lados del triangulo de la figura 14.11, son a =
(a1 , a2 ) y b = (b1 , b2 ). Si evaluamos el area orientada A del triangulo:
(a b)
2
1 a1 a2
a1 b2 a2 b2
.
=
2 b2 b1
2
Si esta area resulta positiva se dice que el contorno recorrido en el sentido de a, b tienen
orientacion positiva. Los vectores a, b definen un recorrido del contorno:
Recorrido positivo si det(a, b) > 0,
Recorrido negativo si det(a, b) < 0.
CAPITULO 14. INTEGRACION.
292
>
a
2. Considerar una curva cerrada sin puntos dobles (fig. 14.12), x = x(t) e y = y(t).
Si
1
Area
incluida =
2
x x
=
y y
3. Si consideramos el polgono
Es el mismo caso que la situacion 2.
Ejemplo Consideremos la curva z = eit con t , el area es:
1
Area
incluida =
2
luego la curva cerrada
<
cos t sen t
dt = > 0 ,
sen t cos t
293
Area
incluida =
2
cos t sen t
dt = < 0 ,
sen t cos t
Area
incluida =
2
14.4.
cos t sen t
dt = < 0 .
sen t cos t
f (z) dz = 0
lm
f ( ) z ,
f (z) dz =
t2
t2
f ((t)) (t) dt =
t1
CAPITULO 14. INTEGRACION.
294
z1 z
2
zn1
zk
zk1
x
f (z) dz =
f ((( ))) (( )) ( ) d =
1
f (( )) ( ) d ,
1
L Max | f | ,
(14.1)
f ( )z lm
= lm
| f ( )z |
lm
z Max | f |
LMax | f | .
q.e.d.
Ejemplo
La curva puede ser parametrizada por z = eit con 0 t . Integremos f (z) = z 2
sobre . Como z = eit entonces z 2 = e2it y dz = ieit dt.
2it
dz =
it
e ie dt = i
0
1 3it
e
e dt = i
3i
3it
1
1
2
= (e3i e0 ) = (1 1) = .
3
3
3
295
+1
+1
Ejemplo La curva (fig. 14.16), puede ser parametrizada por z = eit con t .
Integremos f (z) = 1/z sobre . Notemos que D no es un dominio de conexion simple para
1/z. Como z = eit entonces 1/z = eit y dz = ieit dt.
1
dz =
z
eit ieit dt = i
dt = 2i = 2i coef. de
1
.
z
dz
ieit dt
1
=
= 2i = 2i coef. de
.
it
za
e
| za |==1 z a
Notemos que este resultado vale para toda curva , crculo, centrada en a no importando el
radio . Si consideramos como el crculo de radio 0 la integral queda
| za |=0
dz
=
za
i0 eit dt
=
0 eit
ieit dt
= 2i .
eit
CAPITULO 14. INTEGRACION.
296
Im
Re
Figura 14.17: Camino cerrado .
Proposici
on 14.2 Sea f holomorfa en cierto dominio simplemente conexo. Sea F la
primitiva, entonces la integral
(14.2)
t2
f ((t)) (t) dt =
t1
t1
dF ((t))
= [F ((t))]tt21 = F ((t2 )) F ((t1 )) = F (b) F (a) .
dt
q.e.d.
f = 0.
Ejemplo Integremos f (z) = z 2 en el camino cerrado, fig. 14.16. La curva puede ser
parametrizada por z = eit , con t .
z 2 dz =
e3it dt = i
e2it ieit dt = i
1 3it
e
3i
1
1
= (e3i e3i ) = (1 1) = 0 .
3
3
Usando la primitiva
z 2 dz =
z3
3
=
1
1 1
=0.
3
3
297
(14.3)
Notemos que
f (z) dz = (u + iv)
dx
dy
+i
dt
dt
dt ,
donde u = u(x(t), y(t)) y v(x(t), y(t)). La invariancia frente a un cambio de parametro permite
simplificar el dt.
u
v
=
.
y
x
Premisas:
1. Conexion simple.
2. Condicion de integrabilidad.
3. Continuidad de las derivadas parciales.
Todo lo anterior implica independencia del camino.
Proposici
on 14.3 Si f es continua en D (de conexion simple) y si la integral
z
f (z ) dz = F (z) ,
a
z0
f () d
a
z0 +h
f () d =
a
z0 +h
R() d d ,
f () d = hf (z0 )+
z0
R() d h Max | R | .
z0
Luego
F (z0 + h) F (z0 )
= f (z0 ) + ,
h
z0
CAPITULO 14. INTEGRACION.
298
donde
z0 +h
z0
R() d
h0
Max | R | 0 ,
por lo tanto 0 si h 0.
q.e.d.
14.5.
Evaluaci
on de integrales impropias reales.
x2
dx =
.
2
(14.4)
b+ib
ib
III
II
Evaluaremos
b+ib
exp(z 2 ) dz ,
dz =
x2
dx
.
2
(14.5)
Ademas,
=
III
+
I
(14.6)
II
ez dz = i
II
exp((b + it)2 ) dt = i
0
2 b2
et
0
e2ibt dt ,
14.6. FORMULA
INTEGRAL DE CAUCHY.
299
z 2
dz
e
II
t2 b2
e e
b2
2ibt
dt e
b2
bt
e dt = e
0
ebt
b
eb 1
b
b2
=e
0
0 .
(14.7)
Consideremos ahora la curva III, la parametrizacion z = (1 + i) con 0 b y
dz
2
2
= 1 + i, ademas notemos que (1 + i)2 = 2i, tal que ez = e2i . Luego
dt
z 2
b
2
b
2
(cos 2 i sen 2 ) d =
dz = (1+i)
III
b
2
(cos 2 2 sen 2 2 ) d .
(cos 2 +sen 2 ) d +i
(14.8)
Luego en el lmite b y usando (14.5), (14.6), (14.7), (14.8) tenemos que
z 2
e
III
dz =
b
2
(cos 2 sen 2 ) d =
(cos 2 + sen 2 ) d + i
0
,
2
(14.9)
sen 2 2 d .
cos 2 d =
0
(14.10)
cos 2 d =
0
,
2
(14.11)
2
2
cos x2 dx =
0
2
dx
2
1
,
4
finalmente
cos x2 dx =
0
1
2
(14.12)
14.6.
F
ormula integral de Cauchy.
Proposici
on 14.4 Sea una curva cerrada sin puntos dobles y de orientacion positiva,
incrustada en un dominio D de conexion simple, en el cual f es holomorfa, y sea a un punto
de D, entonces
1
f (z)
f (a) =
dz
(14.13)
2i z a
CAPITULO 14. INTEGRACION.
300
Lo anterior muestra que el valor de una funcion que es holomorfa en una region esta determinado en toda la region por el valor que toma en los bordes.
Demostraci
on La integral es
f (z)
dz =
za
f (a)
dz +
za
f (z) f (a)
dz
za
=0,
(14.14)
(14.15)
f (a)
f (z) f (a)
dz +
dz
za
za
f (z) f (a)
= f (a)2i +
dz .
za
f (z)
=
za
f (z) f (a)
dz
za
| f (z) f (a) |
| f (z) f (a) |
dz L Max
,
|z a|
|z a|
f (z) f (a)
dz 2
=.
za
2
14.6. FORMULA
INTEGRAL DE CAUCHY.
301
Luego
f (z)
dz = f (a)2i
za
(14.16)
q.e.d.
Tenemos pues:
f (z) =
si derivamos
f (z) =
1
2i
1
2i
f ()
d ,
z
f ()
z
z punto interior de .
d =
1
2i
f ()
d .
( z)2
Existen f , f , . . .
f (n) (z) =
n!
2i
f ()
d
( z)n+1
(14.17)
entonces f es holomorfa en D.
Demostraci
on
f = F (z) = F (z) = f = F = f , . . .
a
302
Captulo 15
Series de Potencias.
versi
on final 1.3, 2 de Junio del 2003
15.1.
a (z z0 ) = lm
=0
a (z z0 ) ,
=0
(z) .
=0
2. La serie geometrica
1 + z + z2 + . . . + zn =
1 z n+1
1
z n
=
z .
1z
1z 1z
=0
(z)
exp(z) .
!
!(z) ,
=0
jamas converge.
303
(15.1)
304
Demostraci
on Usando el criterio de la raz, la convergencia absoluta esta garantizada si
n
n
| an z | k < 1, desde cierto n en adelante, esto dice:
|z|
| an | k ,
| z | lm
| an | < 1 ,
luego
1
|z| <
lm
| an |
r,
convergencia garantizada.
La divergencia se tiene si
|z|
| an | k > 1 ,
| an z n | > 1 ,
|z|
1
>1,
r
|z| > r .
z , no converge para | z | = 1.
1.
=0
2.
=0
z
, el radio de convergencia es r = lm n n = 1, sobre el radio
n
z=1 :
z = 1 :
3.
=0
1 1 1
+ + + ...
2 3 4
1 1 1
1 + + + . . . = log 2
2 3 4
+1+
diverge
converge
z
n
,
el
radio
de
convergencia
es
r
=
l
m
n2 = 1 converge para todo | z | = 1 ,
2
n
=0
1
1 1
1
2
=
1
+
+
+
+
.
.
.
=
.
2
4 9 16
6
305
z
1
Esta serie funciona como mayorante convergente, ya que 2 2 para todo | z | 1.
z
z
Por lo tanto, si
converge sobre el borde implica que
converge absolu2
2
=0
=0
tamente sobre el borde.
Consideremos la sucesion senn x para n = 1, 2, 3, . . . con 0 x .
1
n=1
/2
Existe
1 si x =
2
lm senn x =
n
0 si x =
2
No existe convergencia uniforme. Es decir, la convergencia es no uniforme.
Consideremos
fn (z) = f (z)
para todo z D.
(15.2)
n=0
f (z) < ,
=n
para todo n > N (z) y para todo p 0. La convergencia es uniforme si N (z) es independiente
de z.
Proposici
on 15.1 Un criterio (o condicion) suficiente para la convergencia uniforme: basta
la existencia de una mayorante convergente. Si en D cada f (z) cumple con | f (z) | c , con
c 0 constantes, y si c converge entonces f (z) converge uniformemente en D.
306
Demostraci
on
f (z)
| Rn (z) | =
=n
| f (z) |
=n
c < ,
=n
r = radio de convergencia
= radio de convergencia
uniforme
Demostraci
on
=0
tiene
a z1
| a | < ,
=n
=n
=n
| a |
q.e.d.
15.2.
Propiedades.
15.2. PROPIEDADES.
307
Demostraci
on
f (z)
| f (z) f (z0 ) | =
=0
n1
f (z0 )
=0
(f (z) f (z0 )) +
f (z0 ) < ,
f (z) +
=0
=n
=n
Si cada uno de los terminos lo acotamos por /3, tomamos un n suficientemente grande y
hacemos z z0 .
q.e.d.
Proposici
on 15.3 Afirmamos que
f=
f =
f .
=0
Demostraci
on
=0
n1
f=
f =
f +
=0
(15.3)
=0
f ,
=n
luego
n1
f =
f ,
=0
=n
n1
f =
=0
f .
=n
n1
f LMax
f =
=0
=n
f ,
=n
donde L es el largo del camino y cuando n es suficientemente grande el maximo puede ser
reemplazado por .
n1
f L ,
=0
lm
f = 0 .
=0
q.e.d.
308
Proposici
on 15.4 La funcion f es holomorfa y f = (
f ) =
f .
Demostraci
on Sea una curva cerrada con su interior en D.
f =
f=
=0
f = 0 ,
=0
f (z0 ) =
=0
f ()
d .
( z0 )2
f ()
1
d =
2
( z0 )
2i
f (z0 ) =
=0
1
2i
f ()
d =
( z0 )2
f (z0 ) .
=0
q.e.d.
Consideremos
a z ,
f (z) =
(15.4)
=0
a z
f (z) =
=0
a z 1 .
(15.5)
=0
ii)
r r porque los coeficientes | a | son mas grandes que los coeficientes a . Recordemos
que = lmn n 1/ | an |
zD
q.e.d.
Consideremos la serie
=0
funcion holomorfa f (z) dentro del crculo de convergencia. La derivacion termino a termino
es lcita y el radio de convergencia sigue igual. Se tiene:
a z 1 ,
f (z) =
=1
f (p) (z) =
( 1)( 2) ( p + 1)a z p ,
=p
15.2. PROPIEDADES.
309
(p)
(z) =
=0
p!
,
p!
compactando
+p
a+p z
p
f (p) (z) = p!
=0
(15.6)
Esta serie conserva el mismo radio de convergencia que la original. En el caso particular z = 0
tenemos
f (n) (0) = n!an ,
despejando el coeficiente an tenemos
an =
1 (n)
1
f (0) =
n!
2i
| |=<r
f ()
d .
n+1
Max| |= | f |
1
,
2
2
n+1
finalmente
| an |
M ()
n
(15.7)
=0
z
.
=0
z
+1
converge uniformemente en | z | q < | |, usando uno de los teoremas anteriores. Por Cauchy
1
f (z) =
2i
| |=
f ()
d =
z
z
=0
1
2i
| |<
f ()
d
+1
310
lo que podemos reescribir como
f (z) =
=0
f (0)
z
!
(15.8)
f (z) =
=0
f (z0 )
(z z0 ) ,
!
Taylor.
(15.9)
b (z z0 )
=0
=0
con radio de convergencia r2 > 0. Si sus sumas coinciden para todos sus puntos en una
vecindad de z = z0 entonces son identicas.
Demostraci
on Si z = z0 entonces a0 = b0 . Supongamos que hemos probado ak = bk para
k = 0, . . . , m, entonces tenemos
am+1 + am+2 (z z0 ) + . . . = bm+1 + bm+2 (z z0 ) + . . . .
Puesto que esta serie es continua podemos hacer z z0 obteniendo am+1 = bm+1 .
q.e.d.
1
Ejemplo Sea f (z) = log z, como f (z) = = log z =
z
z
1
centro en 1
Figura 15.3: Region simplemente conexa Re(z) > 0.
15.2. PROPIEDADES.
311
(1) (z 1) ,
(1 z) =
=0
=0
(1)
log z =
=0
1
1
(z 1)+1
= (z 1) (z 1)2 + (z 1)3 + . . . .
+1
2
3
(15.10)
Esta expansion es u
nica. Notemos que no se incluye una constante de integracion tal que
log 1 = 0. Podemos evaluar en un punto sobre el borde
log 2 = 1
1 1 1 1
+ + +... .
2 3 4 5
Cuando se conoce que f (z) es holomorfa en todos los puntos de un crculo 0 la convergencia de la serie esta garantizada, no es necesario hacer una prueba para la convergencia.
El maximo radio de 0 es la distancia desde el centro z0 de la expansion al punto singular
de f mas cercano a z0 , ya que la funcion debe ser holomorfa en todo el crculo. Ver figura
15.3.
Ejemplos:
z
!
|z| <
(15.11)
z 21
(2 1)!
|z| <
(15.12)
z 2
(2)!
|z| <
(15.13)
|z| <
(15.14)
|z| <
(15.15)
|z| < 1
(15.16)
(1) z
|z| < 1
(15.17)
e =1+
=1
(1)+1
sen z =
=1
(1)
cos z = 1 +
=1
z 21
(2 1)!
senh z =
=1
cosh z = 1 +
=1
1
=
1z
1
=
1+z
z 2
(2)!
=0
=0
312
z
por medio de una serie de potencias
(z 1)(z 3)
positivas y negativas de (z 1) que converge a f (z) cuando 0 < | z 1 | < 2.
Ejercicio Representar la funcion f (z) =
(z 1)n1
1
.
Solucion: f (z) =
3
2(z 1)
2n+1
n=1
15.3.
M
aximos, mnimos y funciones arm
onicas.
Teorema 15.5 Una funcion holomorfa en z0 no puede tener all un maximo de su valor
absoluto salvo en el caso que f = cte.
Demostraci
on (1ra ) En la vecindad de z0 tenemos
f (z) = a0 + a1 (z z0 ) + a2 (z z0 )2 + . . . ,
con alg
un radio de convergencia r. Supongamos que por lo menos uno de los coeficientes
siguientes a a0 es no nulo. Sea am con m 1 el primero de estos coeficientes
f (z) = a0 + am (z z0 )m + am+1 (z z0 )m+1 + . . . ,
con a1 = a2 = . . . = am1 = 0. Sea
a0 = Aei ,
am = Bei ,
z z0 = ei ,
15.3. MAXIMOS,
MINIMOS Y FUNCIONES ARMONICAS.
313
B
,
2
Bm
Bm
= | f (z0 ) | +
.
2
2
Lo cual implica | f (z) | > | f (z0 ) | para todo punto suficientemente cercano a z0 .
q.e.d.
Principio de modulo maximo: El modulo maximo de una funcion holomorfa en una region
cerrada, se encuentra siempre sobre la frontera de la region.
Demostraci
on (2da ) Escribamos f (z0 ) a partir de la formula integral de Cauchy
f (z0 ) =
1
2i
| z0 |=
f ()
d ,
z0
1
2i
| z0 |=
f ()
1
z0
2
| f () |
1
d =
| z0 |
2
| f () | d .
1
2
| f () | d <
1
2
| f (z0 ) | d = | f (z0 ) | ,
contradiccion.
q.e.d.
Consideremos ahora funciones armonicas, escribimos f (z0 ) = u(x0 , y0 ) + iv(x0 , y0 ). Por
otra parte, de la formula integral de Cauchy tenemos
f (z0 ) =
1
2i
circunf.
f ()
d .
z0
1
2i
f (z0 + eit ) dt .
314
1
2
1
2
ds
tenemos
s=
uds ,
s=
0,
x2 y 2
esto excluye maximos y mnimos en el sentido estricto. Solo podemos tener puntos de ensilladura.
15.4.
N
umeros de Bernoulli.
Consideremos la funcion
ez
z
=
1
1
z
=
.
2
z
z
1
z
z2
+
+ +
+
1 + 1 + +
1! 2!
1! 2! 3!
=0
B
z .
!
(15.18)
15.4. NUMEROS
DE BERNOULLI.
315
B1
B2 2
z
z2
z+
z + ... = 1 + +
+ ...
1!
2!
1! 2!
1
B1
Bn 1
Bn1
1
1
=1+ 1 +
z + ... +
+
+ ... +
2!
1!
n! 1! (n 1)! 2!
(n + 1)!
Obtenemos
B0 +
zn + . . . .
Bn 1
Bn1
1
1
+
+ ... +
=0.
n! 1! (n 1)! 2!
(n + 1)!
Los n
umeros de impares B2n+1 = 0 para n 1 como ya probamos en la seccion 8.10, en esa
misma seccion listamos los primeros n
umeros de Berrnoulli en la tabla 8.1 que reproducimos
a continuacion.
n Bn
Bn
0
1 1.0000 00000
1 12 -0.5000 00000
1
2
0.1666 66667
6
1
3 30 -0.0333 33333
1
4
0.0238 09524
42
1
5 30 -0.0333 33333
5
6
0.0757 57576
66
Cuadro 15.1: N
umeros de Bernoulli
Ejemplo Encuentre el desarrollo en serie de potencias positivas y negativas de cot z en torno
a z = 0.
eiz + eiz
(e2iz 1) + 2
cos z
=
i
,
= i iz
cot z =
sen z
e eiz
e2iz 1
luego multiplicando por z,
z cot z = iz +
2iz
B2
22 B2 2 24 B4 4
2
=
iz
+
1
+
B
(2iz)
+
(2iz)
+
=
1
z +
z + .
1
e2iz 1
2!
2!
4!
cot z =
1
22 B2 21
z
z =1 (2)!
(15.19)
316
Captulo 16
Prolongaci
on Analtica.
versi
on final 1.3, 05 de Junio del 2003
16.1.
Definiciones.
Definici
on 16.1 El conjunto T es un conjunto acotado si existe un tal que | z | < z T .
Definici
on 16.2 El conjunto T es un conjunto no acotado si > 0 habra z T tal que
| z | > .
Definici
on 16.3 El punto es punto lmite del conjunto T si dado cualquier > 0 tan
peque
no como se quiera, existe en cantidad infinita de z T tal que | z | < .
z0
ANALITICA.
CAPITULO 16. PROLONGACION
318
Definici
on 16.4 El punto T es un punto aislado de T si existe una vecindad en torno
a que no contiene otros puntos de T .
Definici
on 16.5 El punto T es un punto interior de T si existe una vecindad en torno
a cuyos puntos esten en T . Los puntos interiores son siempre puntos lmites.
Definici
on 16.6 El punto es un punto exterior de T si y una vecindad en torno a no
pertenecen a T .
Definici
on 16.7 El punto es un punto de la frontera de T si en toda vecindad en torno
a hay por lo menos un punto que pertenece a T y por lo menos un punto que no pertenece
a T . El punto puede o no pertenecer al conjunto T .
Definici
on 16.8 El conjunto T es un conjunto cerrado si contiene a todos sus puntos lmites.
Por ejemplo, | z | 1.
Definici
on 16.9 El conjunto T es un conjunto abierto si z T es punto interior. Por
ejemplo, 0 < | z | < 1.
16.2.
Lema de Heine-Borel
Sea T un subconjunto del plano, acotado y cerrado. Si todo punto z T esta recubierto
por al menos un crculo Cz entonces basta una cantidad finita de crculos para recubrir todo
el conjunto T .
Demostraci
on
Supongamos que se requiere una cantidad infinita
de crculos para recubrir T .
Encerrando a T en un cuadrado Q1 subdividimos a
Q3
Q1
este
cuadrado en cuatro partes de las cuales consideraT
mos una llamada Q2 . El subconjunto T queda con una
parte en cada cuadrado y por definicion la cerramos.
Puesto que se requiere una cantidad infinita de crculos
para cubrir T , tambien se requerira una cantidad infinita para por lo menos una de las subdivisiones. ProseFigura 16.3: Lema de Heine-Borel I. guimos construyendo una sucesion de cuadrados encajados: Q1 , Q2 , Q3 ,. . . ,Qn ,. . . cada uno conteniendo
un subconjunto de T que requiere de una cantidad infinita de crculos para su recubrimiento.
Esto no puede ser as si T es cerrado.
Si el encaje de cuadrados se contrae a un punto, llamemoslo . el punto T es un
punto lmite de T , (T es cerrado). Por lo tanto, esta recubierto por uno de los crculos en
cuestion, sea C este crculo. Ahora bien, si p se elige tal que la diagonal de Qp es menor
que la distancia de a la circunferencia, entonces todos los puntos dentro de Qp ya estan
recubiertos por el crculo C y sin embargo se supuso que una cantidad infinita de crculos se
necesita para recubrir estos puntos, contradiccion.
q.e.d.
Q2
319
16.3.
Teorema de identidad.
ANALITICA.
CAPITULO 16. PROLONGACION
320
16.4.
Prolongaci
on analtica.
f1
f2
D1
D2
en D1 D2 .
z en el dominio | z | < 1.
z =
1
funcion vale
.
1z
1
= f (z). Tambien en todo el plano salvo z = 1, la
1z
ANALITICA.
16.4. PROLONGACION
321
Consideremos ahora
1
1i
g(z) =
=0
zi
1i
2.
1
1
1
.
zi =
1 i 1 1i
1z
z x0
1 x0
=0
=0
z | x0 |
1 | x0 |
converge para | z | x0 | | < | 1 | x0 | |. i.e. crculo centro en x0 < 0 y radio 1 < r < 2.
zn
(z i)n
Problema: Muestre que las series
y
, son las continuaciones analticas
n+1
n+1
2
(2
i)
=0
=0
de una respecto a la otra.
Ejemplo Consideremos las funciones
x3 x5
+
+ ,
sen x = x
3!
5!
e =
=0
x
!
ANALITICA.
CAPITULO 16. PROLONGACION
322
Im
intervalo
Re
ez =
=0
z3 z5
+
+
3!
5!
z
!
Ambas expresiones u
nicas son u
nicas.
Vimos en el ejemplo de la funcion 1/(1 z) que sobre el borde del crculo | z | < 1 se
podan efectuar nuevos desarrollos en serie, en particular en z0 = i. Haba un problema serio
en z = 1.
Teorema 16.1 En la periferia del crculo de convergencia hay por lo menos un problema
serio para el desarrollo de f en una serie de Taylor.
Demostraci
on Si as no fuere, cada punto de la periferia estara recubierto por un crculo
donde f existe como holomorfa.
Definiendo la zona de convergencia
| z z0 | < r ,
r >r,
podemos ver que hay una contradiccion ya que podramos agrandar el radio de convergencia:
r
r
ANALITICA.
16.4. PROLONGACION
323
q.e.d.
Ejemplo
1
=
1z
z ,
=0
tiene un obstaculo en z = 1.
Ejemplo
22
24
B2 z 2 + B4 z 4 + . . . ,
2!
4!
con radio de convergencia , en efecto z cot z = z cos z/ sen z el denominador se anula y da
problemas en z = , 2, 3,
z cot z = 1
Consideremos la funcion
1
,
1z
z =
f (z) =
=0
para | z | < 1.
1/2
ANALITICA.
CAPITULO 16. PROLONGACION
324
que buscamos es
s (1) =
(s 1) =
=0
=0 =0
(1)
=0
0
1
2
(1)0 +
(1)1 +
(1)2 + . . .
0
0
0
1
2
3
+ s1
(1)0 +
(1)1 +
(1)2 + . . . + . . .
1
1
1
= s0 (1 1 + 1 1 + 1 + ) + s1 (1 2 + 3 4 + ) + ,
= s0
1
esto fracaso porque la funcion f (z) no converge en 1. Tratemos con otro centro z0 = ,
2
1
1
1
= s , prolongacion
luego z = z +
2
2
2
f (z) =
=0
=0 =0
1
2
1
2
= s0 1
=0
1
2
1 1 1
+ +
2 4 8
1
1
1
+ s1 1 2 + 3 4 +
2
4
8
ahora s converge.
1
1
en z0 =
1z
2
n!
f (n) (z) =
,
(1 z)n+1
al evaluar en z0 =
1
2
f (n)
1
2
2
3
n+1
n! ,
2
3
1
son
2
n+1
f (z) =
bn z +
n=0
1
2
=
n=0
2
3
n+1
z+
r = lm
2 n+1
3
3
1
3
lm
= .
2 n n 2
2
3
1
2
+ ,
DE RIEMANN.
16.5. FUNCION
16.5.
325
Funci
on de Riemann.
Los n
umero primos: 2, 3, 5, 7, 11, 13,. . . . Los n
umeros naturales los podemos escribir
como: n = 2 3 5 7 . En general, cada n
umero natural tiene una expansion u
nica
en n
umero primos que podemos escribir
n = todo p pe
con e 0 y p1 = 2, p2 = 3, . . . .
(16.1)
1
2
1
3
1
5
1
,
n
1
1
1
=0
=0
=0
1
1
{...}
2
3
5
donde la notacion {. . .} significa que la suma corre sobre todos los n que solo tienen los
factores primos 2, 3 y 5. Podemos pensar en el caso general, es decir:
1
1
?
,
(16.2)
todo p
=
1
n
nN
1
p
lamentablemente la serie de la derecha diverge, luego no podemos hacer la identificacion, tal
como esta planteada en (16.2).
1
n=1
1
= (x) ,
nx
(16.3)
1
1
Definici
on 16.10 Definimos la funcion llamada funcion zeta de Riemman z(x) para todo
x > 1 como
1
1
(x) todo p
=
(16.4)
1
nx
n=1
1 x
p
ANALITICA.
CAPITULO 16. PROLONGACION
326
+1
x
c
1
=
(z) =
ez log n .
(16.5)
z
n
n=1
n=1
La funcion as definida tiene los valores conocidos (2) =
4
2
o (4) = .
6
96
Proposici
on 16.1 La serie (16.5) converge uniformemente en Re[z] c > 1.
Demostraci
on
ez log n = ex log n
1
1
c .
x
n
n
1
Pero
n=1 nc converge independientemente de z y de acuerdo a lo anterior es una mayorante
1
convergente, luego
n=1 nz converge absolutamente y uniformemente en Re[z] c > 1.
q.e.d.
Con esto se tiene que (z) es holomorfa. Es posible atravesar la frontera, paralela al eje
imaginario y que pasa por 1?
16.6.
Definici
on 16.11 Un punto z0 de una region donde f (z) es holomorfa, es llamado lugar
nulo de f (z) si f (z0 ) = 0.
Definici
on 16.12 Tal punto z0 de una region donde f (z) es holomorfa, es llamado un a-lugar
de f (z) si f (z0 ) = a.
Definici
on 16.13 El punto z0 es un lugar nulo de multiplicidad m > 0 de f (z), si f (z) es
holomorfa en z0 y admite el desarrollo
f (z) = am (z z0 )m + am+1 (z z0 )m+1 + ,
con am = 0.
327
Ejemplo La funcion g(z) tiene un lugar nulo de multiplicidad uno en z0 si acepta un desarrollo
g(z) = a(z z0 ) + con a = 0.
Definici
on 16.14 El punto z0 es un a-lugar de f (z) de multiplicidad m > 0 si g(z) = f (z)a
tiene en z0 un lugar nulo de multiplicidad m.
a (z z0 ) ,
f (z) = a +
con am = 0.
=m
Proposici
on 16.2 Si f tiene en z0 un a-lugar de multiplicidad m 1, entonces f tiene en
z0 un lugar nulo de multiplicidad m 1.
Demostraci
on Como f tiene en z0 un a-lugar de multiplicidad m 1 la podemos escribir
f (z) = a + am (z z0 )m + am+1 (z z0 )m+1 + ,
con am = 0. Derivamos esta ecuacion y obtenemos
f (z) = am m(z z0 )m1 + am+1 (m + 1)(z z0 )m + ,
claramente mam = 0 luego f tiene en z0 un lugar nulo de multiplicidad m 1.
q.e.d.
Teorema 16.2 Sea f (z) = cte., holomorfa en alg
un dominio D. Entonces en un parte finita
y cerrada de D, la condicion f (z) = a se puede cumplir solo en un conjunto finito de puntos.
Demostraci
on Supongamos que la funcion f (z) tiene infinitos a-lugares en z distintos con
= 0, 1, 2, . . ., es decir, f (z ) = a. Existira en D un punto lmite llamemoslo z0 , por lo tanto,
por el teorema de identidad : Si dos funciones f y g son holomorfas en un dominio abierto
y conexo D, y si ellas coinciden en una vecindad de un punto z0 D, o a lo largo de un
segmento que termina en z0 , o en un n
umero infinito de puntos distintos con punto lmite en
z0 , entonces las dos funciones son iguales en todo D. En nuestro caso las dos funciones son
f y g = a = cte. luego f = cte, contradiccion. No hay un n
umero infinito de puntos en los
que la funcion f (z) tenga a-lugares en D.
q.e.d.
Teorema 16.3 Si f (z) es holomorfa en z0 , existe una vecindad de z0 donde f (z) = f (z0 )
z = z0 .
Demostraci
on Consecuencia del teorema anterior.
q.e.d.
Contraejemplo: (Aparente)
Consideremos la funcion
f (z) = sen
1
,
1z
ANALITICA.
CAPITULO 16. PROLONGACION
328
1
1
1
= 0 , =
= k = xk = 1
,
1x
1x
k
con k = 1, 2, 3, . . .. La funcion f tiene infinitos lugares nulos entre 0 y 1. Lo que pasa es que
el punto de acumulacion o punto lmite es x = 1 y en ese punto f (z) no es holomorfa.
16.7.
Comportamiento en infinito.
Definici
on 16.15 La funcion f (z) es holomorfa en z = si la funcion f
1
s
lo es en
1
s
1
s
=f
1
s2
debe existir en s = 0.
1
s
= c implica f
1
s
= 0. Evaluemos la
derivada cuando s 0
1
s
lm f
s0
1
s2
= lm 0
s0
1
s2
=0,
1
s
1
implica f
s
1
s
= 1. Evaluemos la
derivada cuando s 0
lm f
s0
1
s
1
s2
= lm 1
s0
1
s2
am z m + + a1 z + a0
,
bn z n + + b1 z + b0
1
s
1
s
am sm + + a1 s1 + a0
am snm + + a1 sn1 + a0 sn
=
.
bn sn + + b1 s1 + b0
bn + + b1 sn1 + b0 sn
329
+ + n1 + n
nm
z
z = bn
lm f (z) = lm z
b1
b0
z
z
0
bn + + n1 + n
z
z
en ambos casos tiende a una constante, luego f
que f (z) es holomorfa en z = .
1
s
si m = n,
,
si m < n,
330
ANALITICA.
CAPITULO 16. PROLONGACION
Captulo 17
Funciones Multivaluadas.
versi
on final 1.1, 10 de Junio del 2003
17.1.
Funci
on
z.
f(z)=z2
v w
1
2
1
2
f (x) = (1 + (x 1)) =
=0
(x 1) ,
0 x 1.
f (z) =
=0
1
2
(z 1) =
331
332
f(x) 1
0
x.
(f (z)) =
1
2
(z 1)
(z 1)
=
n=0
+=n
1
2
1
2
(z 1)n .
=0
En nuestro caso = =
1
2
+
n
1
n
1 , si n = 0
= 1 , si n = 1 ,
0 , si n > 1
(17.1)
luego
+=n
1
2
1
2
luego
(f (z))2 = 1 (z 1)0 + 1 (z 1)1 = z = rei ,
con < < +. Si despejamos f (z) tenemos
f (z) = r ei/2
o
r(1) ei/2 .
f (z) = r ei/2 ,
con < < +.
(17.2)
Usando la definicion anterior de la raz veamos lo que pasa al acercarnos el eje real negativo
desde el plano complejo
lm+
y0
1 + iy = 1 ei/2 = i
lm
y0
1 + iy = 1 ei/2 = i .
17.1. FUNCION
Z.
333
+1
z.
La funcion f (z) =
z.
+ r ei/2
r ei/2 ,
una funcio
n as es conocida como bivaluada o bivalente, y cada posibilidad es conocida como
ramas de z.
Se acostumbra asignar a una rama el nombre de rama principal.
Notemos:
z
A
1
334
Plano z
A = rei1
Plano w
A = rei1 /2
<
realizando un circuito en
torno al punto 0 se tiene
A = rei(1 +2)
17.2.
Superficies de Riemann.
La funcion z tiene dos superficies de Riemann. Notemos que dando dos vueltas en torno
al origen volvemos al punto f (A):
Superficies de Riemann
Consideremos el producto
ab =
b,
Usando se llega a ? (Donde sus valores tienen parte real positiva). La respuesta
es NO, en efecto, por ejemplo
a = b = (1 + 2i)2 = 3 + 4i = ab = (3 + 4i)2 = 7 24i ,
17.3. OTROS PUNTOS DE RAMIFICACION.
335
Im
Re
a = b = 1 + 2i ,
ab = 3 4i ,
a b = (1 + 2i)2 = 3 + 4i .
17.3.
z a = ei/2 ,
si z a = ei .
lnea de ramificacin
A a = eiA =
Aa=
z a.
eiA /2 ,
considerando un giro en 2
Aa=
z.
336
1
Es z = punto de ramificacion de z a ? Tomemos z
s
za=
1
a=
s
1 as
=
s
1 as
1
=
s 1 as ,
s
s
f (z) =
(z a)(z b) =
(z a)
z a.
(z b) ,
1
s
1
1
1
+
p
+
q
=
s2
s
s
1 + ps + qs2 =
1
sa sb .
s
z2 + 1 = z +
z+1 z1 ,
+1
LOGARITMO.
17.4. LA FUNCION
337
+1
corte
17.4.
La funci
on Logaritmo.
1
1
=
=
x
1 + (x 1)
(1) (x 1) ,
=0
(1)
(x 1)+1 .
(17.4)
log x =
+
1
=0
338
f (z) = log z =
=0
z 1 (z 1)2 (z 1)3
(1)
+1
(z 1)
=
+
+... .
+1
1
2
3
(17.5)
Comprobemos la expansion
2
+
+ ...
1!
2!
1
1
1
= 1 + (z 1) + +
1!
2 2!
exp(f (z)) = e = 1 +
(z 1)2 +
1
1
1
+
3 2! 6
(z 1)3 + . . . = z .
(17.6)
= reit
0<t<
ARCOTANGENTE.
17.5. LA FUNCION
Por lo tanto
Log z =
1
d
=
339
r
dx
+
x
reit i dt
,
reit
resolviendo obtenemos
Log z = Log r + i , < < +
(17.7)
(17.8)
1
= i .
2
17.5.
La funci
on Arcotangente.
Consideremos la integral
x
f (x) =
0
dt
,
1 + t2
(1) t2 dt ,
f (x) =
0
=0
Integrando
f (x) =
=0
(1) x2+1
.
2 + 1
f (z) =
=0
(1) z 2+1
,
2 + 1
La idea es
f (z) =
0
con | z | < 1.
d
1 + 2
(17.10)
340
+1
+
=
1 + 2
2i i + i
2 1 + i 1 i
Definici
on 17.1 Definimos la funcion
z
Arctan z
0
d
.
1 + 2
+1
i
centro +i
d
1
=
2
1+
2i
d
1
= 2i = .
i
2i
(17.11)
ARCOTANGENTE.
17.5. LA FUNCION
341
Consideremos el camino
+i
+1
i
centro i
d
1
=
2
1+
2i
1
d
= 2i = .
+i
2i
Es decir, cada vez que se cruzan las fronteras prohibidas se aumenta en +. Ramificacion
de orden infinito.
/2
0
/2
10
10
d
1
= Log(1 + iz)
1 + i
i
z
0
d
1
= Log(1 iz) ,
1 i
i
(17.12)
342
o sea,
Arctan z =
Demostraci
on
1
(Log(1 + iz) Log(1 iz))
2i
(17.13)
eiw eiw
= iz ,
i tan w = iw
e + eiw
usando lo anterior
eiw + eiw + eiw eiw
eiw
1 + iz
= iw
=
= e2iw .
1 iz
e + eiw eiw + eiw
eiw
luego despejando
2iw = log
1 + iz
1
1 + iz
w = arctan z = log
.
1 iz
2i
1 iz
Buscamos un smbolo Arctan z univaluado. Sea z = x + iy, Log(1 + iz) esta definido salvo
en caso Im(1 + iz) = 0 y Re(1 + iz) 0, es decir, siendo 1 + iz = (1 y) + ix esto implica
que esta definida salvo en caso x = 0 e y 1.
Log(1 iz) esta definido salvo en caso Im(1 iz) = 0 y Re(1 iz) 0, es decir, siendo
1 iz = (1 + y) ix esto implica que esta definida salvo en caso x = 0 e y 1.
1
Ademas se cumple Arctan 0 = 0 = (Log 1 Log 1) = 0.
2i
q.e.d.
Captulo 18
Desarrollo de Laurent.
versi
on final 1.1, 18 de Junio del 2003
18.1.
Desarrollo en torno a z0 = 0.
p
z0=0
.
2i
1 z p
2 z p
Escribamos lo siguiente:
1
=
zp
1 1
1
=
p
z 1
z
z
1
1 1
1
=
=
z
zp
p 1
p
p
=0
=0
p
z
z
p
343
344
Luego
f (p) =
1
2i
=0
f (z)dz
z +1
p+1
=0
1
2i
z f (z)dz
(18.1)
Si nombramos por a al primer termino entre parentesis del lado derecho y por a1 al
segundo termino entre parentesis podemos reescribir (18.1) como
p a +
f (p) =
=0
=0
a1
p+1
(18.2)
Notemos que la primera serie converge para | p | < R y la segunda converge en | p | > r.
Hacemos el cambio de ndice + 1 = = 1 y tenemos
p a +
f (p) =
=0
=1
a
=
p
Por lo tanto,
p a +
=0
p a .
=
a p ,
f (p) =
(18.3)
18.2.
1
2i
centro en z0 = 0
f (z)
,
z +1
= , . . . , + .
(18.4)
a q ,
f (p) = f (q + z0 ) = g(q) =
=
con
a =
1
2i
centro 0 en z
g(z)dz
.
z +1
Tenemos dz = d, luego:
a =
y
1
2i
centro z0 en
a (p z0 ) =
f (p) =
f ()
d ,
( z0 )+1
a (p z0 ) +
=0
a
=1
(18.5)
1
.
(p z0 )
(18.6)
345
La serie
converge
=0 a (p z0 ) converge en | p z0 | < R y la serie
=1 a (p z0 )
en r < | p z0 | < .
La serie converge automaticamente en el dominio anular mas grande posible que sea
compatible con cualquier prolongacion analtica de f . Sobre | p z0 | = r y sobre | p z0 | = R
existe por lo menos un obstaculo serio.
Un caso interesante es cuando r = 0, en este caso se admiten dos posibilidades,
i
f holomorfa en z0 .
ii
18.3.
b z .
a z =
=
Sabemos que
c z dz =
0,
si = 1
c1 2i , si = 1,
luego concluimos que a1 = b1 . Para los demas coeficientes, multiplicamos por una potencia
adecuada, z k1 , y tenemos
z k1+ dz =
z k1 dz ,
18.4.
Ejemplos.
1
,
z1
346
i)
ii)
i)
1
f (z) =
=
z .
1z
=0
ii)
1
1
1
z
=
=0
1
z +1
1
,
(z 1)(z 2)
ii)
iii)
1
1
.
z2 z1
=1
1
.
z
18.5. DEFINICIONES.
347
i)
1
1
1
1 1
1
+
f (z) =
=
=
z
z2 z1
21
1z
2
2
ii)
z
2
=0
z =
=0
=0
1
2+1
z .
z
1
1 1
1 1
,
f (z) =
z
+1
+1
1
2 1
z
2
z
=0
=0
1
2
z
la primera serie del lado derecho converge para | z | < 2 y la otra converge en 1 < | z | < ,
luego ambas convergen en 1 < | z | < 2.
iii)
1 1
1
=
2 z
1
z
1
1
z
z
=0
2
z
=0
1
z
(21 1)
=
=1
18.5.
1
1
= 2 +... .
z
z
1.
Definiciones.
a (z z0 ) .
a (z z0 ) +
f (z) =
=0
=1
348
R
z0
Definici
on 18.1 El punto z0 es un lugar regular si el desarrollo de Laurent en torno a z0
tiene la parte principal nula.
Definici
on 18.2 El punto z0 es un polo de orden si la parte principal es del tipo
=1
a
,
(z z0 )
a = 0 ,
a1 = a2 = = 0 .
(z z0 ) f (z) ==
a (z z0 )+ +
=0
=1
a
.
(z z0 )
Definici
on 18.3 El punto z0 es una singularidad esencial si la parte principal es infinita, es
decir, existe una cantidad infinita de coeficientes a ( = 1, 2, 3, . . . , ) = 0.
18.6.
La funci
on Arcosecante.
Consideremos la funcion
f (z) =
1
,
sen z
sen z z
=
z sen z
z2 z4
+
+...
3!
5!
c0 +
c2 2 c4 4
z + z + ...
2!
4!
ARCOSECANTE.
18.6. LA FUNCION
349
=
2! 3!
2!
6
c
1
c
c
c4
7
4
2
0
=
z4 :
4! 2! 3! 5!
4!
360
c
31
6
z6 :
=
.
6!
15120
Luego
c2 2
1
1 1
7 3
31 5
1
= + z+
z +
z + = +
z ,
sen z
z 6
360
15120
z =0 2!
(18.7)
este desarrollo, de Laurent con centro en cero, converge para 0 < | z | < .
Busquemos el desarrollo entre y 2, tenemos que sen z = sen(z ), luego
1
1
1
c2
=
=
(z )21 .
sen(z )
sen z
z =1 2!
Definamos una funcion auxiliar que tenga desarrollo de Taylor. La funcion que estamos
considerando es g(z) = 1/ sen z, si a esta funcion le restamos las partes principales que dan
singularidades nos queda una funcion holomorfa:
f (z) =
1
1
1
1
+
+
,
sen z z z z +
=0
a z convergente en
|z| < .
350
2z
2z
= 2
2
2
z
1
z
1
2z
= 2
=0
2z 2z 3 2z 5
4 6
2
|z| < .
Combinandolas
f (z) =
1
2
2
6
7
2
4
360
z+
Tenemos
1
=
sen z
a z +
=0
Pero
2z
2z
=
z2 2
z2
1
z
2
z
z3 +
| z | < 2 .
1
2z
.
2
z z 2
=0
|z| > ,
luego:
1
=
sen z
1 2
a z +
z z
=0
=0
(18.8)
18.7.
Funciones enteras.
Definici
on 18.4 La funcion entera es una funcion holomorfa en todo el plano y que por lo
tanto posee un desarrollo de Taylor de radio infinito respecto a cualquier centro.
Estas funciones enteras se clasifican en
351
=0 b s
con b = 0.
con arbitrario. Podemos demostrar que a = 0 para todo salvo a0 , basta tomar suficientemente grande. Lo anterior implica que g(s) = a0 .
q.e.d.
Corolario: Sea g entera y no constante. Sea R un radio, y sea K > 0 tan grande como
se quiera, entonces existe p con | p | > R tal que | g(p) | > K.
Teorema 18.2 Sobre polinomios
Sea g un polinomio de grado n 1. Entonces para K > 0 tan grande como se quiera se
puede indicar un radio R tal que | g(z) | > K para todo | z | > R.
Demostraci
on
bn z n = g(z) bn1 z n1 b1 z b0
bn = 0 .
Sea | z | =
n1
n
| b | ,
| bn | | g(z) | +
=0
n1
| g(z) | n
| bn |
=0
| b |
n
| bn |
>K ,
2
|z| .
q.e.d.
352
lo cual contradice el teorema anterior.
q.e.d.
La funcion ez es entera trascendente, no tiene lugares nulo.
Teorema 18.3 Una funcion entera trascendente a lo largo de ciertos caminos hacia s = ,
crece mas rapidamente que | s |m .
En otros terminos: si g es entera y acotada por | g(s) | M sm , entonces g es un polinomio.
Demostraci
on
| b |
Max | g |
M m
M
m
tan peque
no como se quiera, luego b = 0 para = m + 1, . . ..
q.e.d.
1
s =
=
g(s) c =
luego
=1
=
g(s) c =1 s
+
s ,
s
=0
s ,
=0
=1
s > G ,
=0
donde G es tan grande como se quiera, lo que podemos escribir como G = 2/ con tan
peque
no como se quiera. El segundo termino del lado izquierdo es muy peque
no si | s | es
353
grande, digamos que lo podemos acotar por G/2. El primer termino del lado derecho, crece
a lo largo de ciertos caminos al infinito. Luego, para cierto p, donde | p | es grande, se tiene
1
G
1
G
2 1
1
+ G =
G = = .
g(p) c
2
g(p) c
2
354
Captulo 19
Residuos.
versi
on final 1.2, 24 de Junio del 2003
19.1.
Definici
on y teorema.
a (z z0 )
f (z) =
0 < | z z0 | < R ,
se tiene
f (z) dz =
centro z0
(z z0 ) dz = 2ia1 .
a
=
Definici
on 19.1 El residuo de la funcion f (z) en z0 , Resz=z0 f (z) a1 .
Teorema 19.1 Teorema de los residuos Sea D un dominio con un borde , en el cual f
es analtica, salvo en una cantidad finita de singularidades aisladas z1 , z2 , . . . , zn . Entonces
n
Res f (z)
f (z) dz = 2i
=1
z=z
(19.1)
Demostraci
on Usando el teorema de Cauchy en el camino de la figura 19.1, se tiene
n
f (z) dz
f (z) dz = 0 ,
=1
| zz |=
luego
n
f (z) dz = 2i
Res f (z) .
=1
z=z
q.e.d.
355
356
dx
,
1 + x2
(19.2)
notemos que sobre el eje real no hay singularidades. Usemos un camino de integracion como
el siguiente.
+R
i
dz
,
1 + z2
z=+i
1
2i
1
,
2i
1
1
zi z+i
Res f (z) =
z=i
1
,
2i
357
luego
I=
dz
1
= 2i Res f (z) = 2i = ,
2
z=+i
1+z
2i
por lo tanto,
dz
=
1 + z2
R
R
dx
+
1 + x2
arco
dz
= .
1 + z2
arco
dz
1
R 2
0 ,
2
1+z
R 1 R
dx
= .
(19.3)
2
1 + x
19.2.
Funciones racionales.
Sea f (z) = p(z)/q(z) el cociente entre dos polinomios tales que gr(p) gr(q)2. Premisa
q(x) = 0 para < x < . Tomaremos el dominio
+R
p(z)
p(z)
p(x)
p(z)
2i
Res
=
dz =
dx +
dz ,
z=z q(z)
q(z)
q(x)
arco q(z)
=1
ahora bien, sea am = 0 y bn = 0
p(z)
am z m + . . . + a0
am 1 1 +
=
=
n
q(z)
bn z + . . . + b0
bn z nm 1 +
am1 1
am z
bn1 1
bn z
+ +
+ +
a0 1
am z m
b0 1
bn z n
el valor absoluto de el u
ltimo termino tiende a +1 cuando | z | si n m + 2, luego
arco
p(z)
p
am
1
dz R Max
= R
0 .
| z |=R q
q(z)
bn Rnm R
358
19.3.
Funciones trigonom
etricas.
Consideremos eiz , sen z y cos z. Acotemos las diferentes funciones comenzando por la
exponencial
eiz = eRe[iz] = ey ,
y+
crece
al tomar modulo tenemos que | sen z | crece cuando y , ya que las dos funciones
hiperbolicas crecen. Analogamente
cos z = cos(x + iy) = cos x cosh y i sen x senh y ,
crece
crece
sen x
dx .
x
(19.4)
Para calcular esta integral estudiaremos la integral sobre el eje real entre R y +R, mediante
la integracion de la funcion sen z/z sobre diversos caminos. Esta funcion es holomorfa
sen z
z2 z4
=1
+
+ ,
z
3!
5!
no tiene polos. Sin embargo, cuando tomemos R deberemos acotar la funcion y en base
a lo expuesto al comienzo de esta seccion es mejor escribir las funciones trigonometricas como
combinaciones de exponenciales complejas.
eiz
eiz
sen z
=
.
z
2iz
2iz
Ahora bien, eiz y eiz estan acotadas para y 0 y para y 0 respectivamente. Ademas, las
dos funciones de la derecha tienen un polo de primer orden en z = 0.
En base a todo esto consideremos los caminos cerrados de la figura siguiente para lograr
nuestro objetivo (esta eleccion no es u
nica). Tenemos
sen z
dz =
z
eiz
dz
2iz
eiz
dz .
2iz
I+II
eiz
dz ,
2iz
19.3. FUNCIONES TRIGONOMETRICAS.
359
t+iR
+iR
II
R+it
R+it
+R
0<t<R
iR III
tiR
y para la segunda
I+III
eiz
dz ,
2iz
eiz
eiz
1
dz = 2i Res
= 2i Res
z=0 2iz
z=0 2i
2iz
1
= 2i = ,
2i
z
1
+ 1 + +
z
2!
es decir,
eix
dx +
2ix
arco,
eiz
dz +
2iz
+R
+
eix
dx +
2ix
II
eiz
dz = .
2iz
Acotemos la u
ltima integral:
Segmentos verticales | eiz | = eRi+iit = et .
Segmentos horizontales | eiz | = ei(t+iR) = eR .
II
eiz
dz 2
2iz
R
0
et
eR
dt + 2R
R
R
1
2
et
R
R
0
+ 2eR =
2
(1 eR ) + 2eR 0 .
R
R
En el lmite 0 la integral sobre el arco central es igual a /2 y por lo tanto nos queda
R
R
eix
dx .
R 2
2ix
Consideremos el segundo camino cerrado I + III, este camino no contiene polos de primer
orden y por lo tanto su residuo es igual a cero, es decir,
I+III
eiz
dz = 0 .
2iz
360
Descomponiendo la integral cerrada tenemos
R
R
eix
dx +
2ix
III
eiz
dz + = 0 .
2iz
2
III
eiz
dz 2
2iz
R
0
et
eR
+ 2R
0 ,
R
R R
por lo tanto,
R
R
eix
dx ,
R
2ix
2
sen x
dx =
x
(19.5)
En todos los casos anteriores hemos definido la integral entre - e de una de las siguientes
maneras:
P f (t) dt = lm
f (t)dt
R
lm
R,0
f (t)dt +
R
f (t)dt
(19.6)
19.4.
es decir,
g(z)
1
= k ak + ak1 z + + a1 z k1 + a0 z k + .
h(z)
z
Resz=0
g
h
361
= b0
= b1
= b2
.
= ..
= bk1 .
Son k ecuaciones lineales para k incognitas. Por la regla de Kramer tenemos para el coeficiente
a1 :
ck
0
... 0
b0
ck+1
ck
... 0
b1
1
..
..
..
..
...
.
.
.
.
,
(19.7)
a1 = k
Ck
..
..
..
. ck bk2
.
.
c2k1 c2k2 . . . ck+1 bk1
donde Ckk es el determinante de los coeficientes. Esta relacion, (19.7), nos da una relacion
explcita para el residuo.
Sea k = 1, entonces
a1 =
b0
g(0)
=
,
c1
h (0)
polo de orden k 1.
Sea k = 2, entonces
a1
1
h (0)g (0) 61 h (0)g(0)
6g (0)h (0) 2g(0)h (0)
1
2
.
= 2 (c2 b1 c3 b0 ) =
=
1
2
C2
3(h (0))2
(h (0))
4
1 +
1 +
k
(1 + potencias crecientes z z0 ) ,
z z0
362
lo cual implica
Res
z=z0
f
=k.
f
q.e.d.
Proposici
on 19.2 Sea N = 1 + 2 + + n donde 1 , . . . , n son las multiplicidades de
los ceros z1 , z2 , . . . , zn de f , respectivamente. Entonces
N=
1
2i
f (z)
dz .
f (z)
Demostraci
on Del teorema de los residuos
1
f (z)
f (z)
dz =
Res
=
z f (z)
2i
f (z)
(19.8)
= N ,
la pen
ultima igualdad corresponde a la proposicion anterior.
q.e.d.
Proposici
on 19.3 Si h tiene en z0 un polo de orden m entonces h /h tiene en z0 un polo de
primer orden con residuo igual a m.
Demostraci
on Hagamos z0 = 0, luego
h(z) = am z m + + a0 + a1 z + a2 z 2 + ,
am = 0 ,
la derivada de h
h (z) = mam z m1 + + 0 + a1 + 2a2 z + ,
am = 0 .
La derivada logartmica
mam z m1 1 + potencia creciente de z
m
h (z)
=
= [1 + O(z)] ,
m
h(z)
am
z
1 + potencia creciente de z
z
el residuo en z0
Res
z0
h (z)
= m .
h(z)
q.e.d.
Teorema 19.2 Sea h(z) = 0 sobre la curva , cerrada, (sin puntos dobles). Sea h univalente
y holomorfa en el interior de , salvo en z0 , z1 , . . . , zn donde existen polos. Entonces
1
2i
h (z)
dz = N P .
h(z)
(19.9)
19.5. EJEMPLOS.
19.5.
363
Ejemplos.
I=
Tenemos
I=
d
.
1 + sen2
d
=4
1 i
1 4 (e ei )2
d
.
e2i
e2i
con z1 = 3 2 2 y z2 = 3 + 2 2.
I=4
z2
dz
= 2i
6z + 1
dz
,
(z z1 )(z z2 )
z1
z2
,
(3 2 2 3 2 2)
el dos en la u
ltima fraccion corresponde a que las vueltas son dos.
2
I = 4 = 2 .
4 2
Finalmente
d
=
2
1 + sen2
(19.10)
364
Ejemplo II Evaluemos la integral
I=
0
x
dx .
1 + x2
Sea z lo que se obtiene por prolongacion hacia elsemiplano superior y luego en torno
al origen. Elegimos ad-hoc la univaluacion del smbolo
.
+i
r<1
R>1
z
z
dz
=
2i
Res
.
z=z 1 + z 2
1 + z2
=1
z
1
=
i
Res
=
i Res
Res
z=+i 1 + z 2
z=+i 1 + z 2
z=+i
z
i
=
Res
.
2
z=i 1 + z
2i
1
1
zi z+i
i
2i
19.5. EJEMPLOS.
365
2R R 2
0 ,
R 1 R
CR
donde hemos usado | 1 + z 2 | | z |2 1. Para la segunda integral
2r r
Cr
Ademas,
R
r
x
dx
1 + x2
r
R
1
0 .
1 r2 r0
x
dx +
1 + x2
+
Cr
= 2i
CR
i
i
2i
2i
En el lmite r 0 y R tenemos
x
2
(1 + i)
dx
=
(
2
i
i)
=
i(1 i) = (1 i) = .
2
1+x
2
2
0
Finalmente
x
dx =
2
1+x
2
I=
1
dx
dx .
(1 + x2 ) 1 x2
+i
1 z2 > 0
+1
R
1 z2 < 0
dz
1
= 2i
Res
.
z=z (1 + z 2 ) 1 z 2
(1 + z 2 ) 1 z 2
=1
(19.11)
366
Separemos la integral por pedazos
+1r
2
1+r
dx
(1 + x2 ) 1 x2
+
Cr centro 1
Cr centro +1
Res
= 2i
CR
=1
z=z
.
(1 + z 2 ) 1 z 2
Acotemos la integrales
2R Max
| z |=R
CR
(1 +
z2)
2R
z2
R2
1
1
0 ,
2
1 R 1 R
| z1 |=r
Cr
1
1
0 .
r r0
(1 + z 2 ) 1 z
dx
1
Res
= i
.
2
2
2
z=z (1 + z ) 1 z 2
(1 + x ) 1 x
=1
Los residuos
1
1
1
1
1
1
=
=+
2
2
(z + i)(z i) 1 z
2i 1 i
2i (+ 2)
1
1
1
1
1
1
=
=
,
Res
2
2
z=i (z + i)(z i)
2i 1 (i)
2i ( 2)
1z
Res
z=+i
dx
dx = i 2 =
(1 + x2 ) 1 x2
2 2i
2
(19.12)
I=
0
xp1
dx ,
1+x
0<p<1.
Consideremos la integral
z p1
dz .
1+z
Tenemos que z = 0 es un punto de ramificacion de z p1 : z p1 = e(p1) log z , multivaluada.
Tomamos log z = Log | z | + i con 0 < < 2, ahora si
z p1 = e(p1) Log| z | ei(p1) ,
con 0 < < 2, es univaluada. Tomemos la lnea de corte a lo largo del eje real. El integrando
tiene un polo simple en z = 1 dentro del contorno mostrado en la figura 19.9.
19.5. EJEMPLOS.
367
1
R
Evaluemos el residuo en z = 1 = ei
z p1
= ei(p1) .
z=1 1 + z
Res
Luego
z p1
dz = 2iei(p1) ,
1+z
xp1
dx+
1+x
2
0
Acotamos
2
0
(xe2i )p1
dx+
1 + xe2i
0
2
Rp1
(Rei )p1 iRei d
2R
0 ,
1 + Rei
R 1 R
p<1,
2
0 ,
1 + ei
1 0
usando 1 + ei 1 . Luego
xp1
dx +
1+x
xp1
dx
1+x
1 e2ip
0
p1
xp1 e2i(p1)
dx = 2iei(p1)
2i
1 + xe
xp1 e2ip
dx = 2ieip ,
1+x
xp1
dx = 2ieip ,
1+x
x
eip
1
.
dx = 2i
= 2i ip
2ip
1+x
1e
e
eip
368
Finalmente, tenemos
19.5.1.
xp1
dx =
1+x
sen(p)
(19.13)
z=z0
dm1
1
lm m1 [(z z0 )m f (z)]
(m 1)! zz0 dz
(19.14)
19.6.
lm
dx
+
x
+1
+
dx
x
+1
P
1
1
1
dx/x. Pero
dx
=0,
x
esto corresponde a tomar el valor principal de Cauchy de la integral, para un tan peque
no
como se quiera. Consideremos el grafico siguiente:
S
a
x0
369
a1
+ a0 + a1 (z x0 ) + .
z x0
Definici
on 19.2 Definamos el valor principal de Cauchy como
x0
P f = lm
f+
a
(19.15)
x0 +
Consideremos
0
a1 + a0 + iei d ,
ei
=
f=
S
=0 si 0
f = i
lm
a1 d = ia1 .
0
Definici
on 19.3 Definamos el valor principal de Cauchy sobre la curva
P f = lm
f
1
= i Res f =
z=x0
= 0 + ia1
1
2
f+
1
f
2
370
Captulo 20
Funciones Meromorfas.
versi
on final 1.1, 30 de Junio del 2003
Definici
on 20.1 Se llama funcion meromorfa a una funcion holomorfa en todo el plano,
salvo polos. Los polos no se pueden acumular en el plano.
Ejemplo Las funciones racionales
p(z)
con p(z) y q(z) polinomios
q(z)
p(z)
r(z)
= P (z) +
,
q(z)
q(z)
Nos interesa el u
ltimo termino solamente. Los lugares nulos de q(z): z1 , z2 , . . . , zk (distintos)
r
son los polos de . La correspondiente descomposicion en fracciones parciales
q
r(z)
c11
c12
c13
c1m1
+
+ +
+
=
+
2
3
q(z)
z z1 (z z1 )
(z z1 )
(z z1 )m1
c2m2
c21
c22
+
+
+
+
+
z z2 (z z2 )2
(z z2 )m2
+ +
ck1
c1mk
ck2
+
+ +
.
+
2
z zk (z zk )
(z zk )mk
Ejemplo La funcion
cot z =
1
z
z2
2!
z3
3!
+
+
1
(1 + potencias crecientes de z) .
z
1
El Res cot z = 1, lo que significa que la parte principal en z0 = 0 es .
z=0
z
Sabemos, ademas, que sen z = 0 solo si z = k, para k = 0, 1, 2, . . .. Las respectivas
1
1
1
partes principales son ,
,
, . . . . Si sumamos las partes principales en k
z z z 2
tenemos
1
1
2z
.
+
= 2
z k z + k
z k22
371
372
2z
1
+
cot z = +
2
z k=1 z k 2 2
?
(z)
(20.1)
funci
on entera
cos xt =
a0
+
a cos t ,
2
=1
cos xt cos t dt .
0
sen(x + ) sen(x )t
+
x+
x
1
=
2x
1
+
2
x =1 x 2
cos z
1
2z
+
= cot z = +
2
sen z
z =1 z 2
0
funci
on entera
1
.
2
1
,
2
373
Dentro del crculo | z | R hay una cantidad finita de polos. Tomemos en cuenta en la
serie solo los ndices suficientemente grandes > 2R.
z 2 2 2 | z |2 2 R2 > 2
2
3
= 2 .
4
4
4 1
1
,
2
3 2
1
.
2
A partir de lo anterior podemos encontrar un desarrollo para sen z/z como producto
infinito, sabemos que
d
1
log z =
dz
z
luego
d
cos z
log sen z =
= cot z ,
dz
sen z
y
2
2z
2z
d
2 z2
=
= 2 = 2
.
log
2
2
2
dz
z 2
Combinando
d
d
d
cot z =
log sen z =
log z +
log
dz
dz
dz
=1
integrando
log
=1
exponenciando
sen z = e z
=1
2 z2
2
z2
1 2
sen z
z2
= ec
1 2
z
=1
y tomemos el lmite z 0
= ec ,
luego
sen z
z2
1 2
=
z
=1
2 z2
2
374
cj,mj
cj,2
cj,1
+
+ +
.
2
z zj (z zj )
(z zj )mj
Entonces es posible construir una funcion meromorfa que tiene exactamente estas singularidades en el plano. Su representacion puede darse en forma de una descomposicion en fracciones
parciales. La funcion meromorfa mas general con dichas particularidades se obtiene sumando
cualquier funcion entera.
Ejemplo
Consideremos una red {m1 + n2 }, con m, n Z
2
1
prescribir
pj (z) =
1
,
(z zj )2
j=1
1
. Escribimos un intento de la funcion
z2
1
1
2
2
(z zj )
zj
1
+
z 2 0=m,nZ
1
1
(z m1 n2 )2 (m1 + n2 )2
375
derivemos
1
(z (m 1)1 n2 )3
f (z) = 2
m,nZ
1
((z + 1 ) m1 n2 )3
= 2
m,nZ
f (z + 1 ) .
Esto muestra que 1 es perodo de f y de la misma manera podemos probar que 2 tambien es
perodo de f . Luego, existen funciones doblemente periodicas. Integrando la relacion anterior
f (z) = f (z + 1 ) + C .
Si 0 = m, n Z entonces 0 = m, n Z, luego
f (z) =
1
+
(z)2 0=m,nZ
1
1
2
(z + m1 + n2 )
(m1 + n2 )2
= f (z) ,
1
1
f
2
2
= 0 = C .
Luego 1 , 2 son tambien perodos de f . Una funcion periodica dada sugiere definir:
Definici
on 20.2 Malla primitiva es un par de perodos 1 , 2 tal que, todo perodo de la
funcion es combinacion lineal de 1 y 2 con coeficientes en Z.
Sea el par de perodos 1 y 2 la malla primitiva. Entonces cualquier otro par
1
2
n11 n12
n21 n22
1
2
y
1
2
n22
n21
n12
n11
1
2
donde n11 n22 n12 n21 = = 0. La condicion necesaria y suficiente es que todos los ij sean
n11 n22 n12 n21
1
=
Z esto es cierto si y solo si = 1.
divisibles por , lo cual implica
2
2
376
Captulo 21
La funci
on .
versi
on final 1.2, 1 de Julio del 2003
21.1.
Definici
on.
ii)
iii)
(1) = 1.
377
(21.1)
.
CAPITULO 21. LA FUNCION
378
21.2.
Exploraci
on.
Proposici
on 21.1 La funcion (z) tiene polos simples en 0, 1, 2, . . . , n, . . ., con residuos
(1)n
en z = n,
.
n!
Demostraci
on Es cierto para n = 0. Por hipotesis inductiva, lo suponemos valido para
n = k, polo en z = k y probamos para k + 1, es decir, polo z = (k + 1). Por hipotesis,
(z) =
(1)k 1
+ a0 + a1 (z + k) + ,
k! z + k
construimos
1
(z + 1) =
z
1
+ potencias crecientes de (z + k + 1)
k+1
(1)k
1
+ a0 + a1 (z + k + 1) + ,
k! z + k + 1
1 (z)
(z + 1)
= +
.
(z + 1)
z
(z)
1
1
g(z) =
+ g(z + 2) ,
z z+1
379
1
1
+
+ g (z + 2) ,
2
z
(z + 1)2
21.3.
1
1
1
+
+
+ g (z + 3) .
2
2
z
(z + 1)
(z + 2)2
Definiciones precisas.
1
1
g (z) = 2 +
.
z
(z + )2
=1
Converge en el crculo | z | < R. Integremos g (z) termino a termino
1
g(z) = C +
z
=1
d
,
( + )2
1
d
=
2
( + )
+
1
1
+
z+
Recordando la definicion
1
d
log (z) = g(z) = C
dz
z
=1
1
1
z+
integrando
log(z + ) log()
=1
ya que la integral
z
o
1
1
d = log( + )
,
o
exponenciando
z
1
z
(z) = K eCz
e 1 +
z
=1
z+1
e
z
e
=1
+z
+z+1
.
CAPITULO 21. LA FUNCION
380
luego despejando la constate que queremos determinar
1
1
+z
e
z + 1 =1 + z + 1
eC =
(z + 1)(z + 2) (z + n)
1
z+1+n
lm e1 e1/2 e1/3 e1/n
z + 1 n
(z + 2)(z + 3) (z + 1 + n)
n+1
1+
1
1
+ + log(n + 1)
2
n
2
u= 1
x+1
u= 1
x
1
1
x 1+x
x
x+1
= log 2 .
1
1+
1
1
+ + log(n + 1)
2
n
< log 2
n
z
lm
e
=1
1
nz n!
= lm
.
z n (z + 1) (z + n)
Evaluando en z = 1
(1)
n n!
n
= 1 lm
= lm
=1,
n 2 3 (1 + n)
n n + 1
K
+z
381
nz n!
1
lm
z n (z + 1)(z + 2) (z + n)
ez
(z) =
z
(21.2)
ez/
z
=1 1 +
Ambas expresiones son debidas a Gauss. La funcion es meromorfa tiene polos simples en
z = 0, 1, 2, 3, . . ..
Formemos el inverso de un producto de funciones
1
z
= z (z)
1+
(z) (z)
=1
z
1
= z
1
=1
z2
2
(21.3)
1
Evaluemos (21.3) para z = , tenemos
2
1
1
= ,
2
[(1/2)]
luego
1
2
(21.4)
3
2
5
2
=
=
1
+1
2
3
+1
2
1
=
2
3
=
2
1
2
3
2
2
3 1
=
.
22
=
La expresion general
Si z =
2n + 1
2
3 1
(2n 1)!!
2n 1
...
=
2
22
2n
(21.5)
2n + 1
2n 1
entonces 1 z =
luego
2
2
(z)(1 z) =
2n + 1
2
2n 1
2
sen[(2n + 1) 2 ]
(2n 1)!!
(1
z)
=
,
2n
.
CAPITULO 21. LA FUNCION
382
20
10
-3
-1
-2
-10
-20
1
(2)n
2n
=
(2n 1)!!
(2n 1)!! sen[(2n + 1) 2 ]
(21.6)
1 2 3n
2n+1
n n!
= lm 1 3
n.
=
l
m
n
n 1 3 5 (2n 1) 2n + 1
2n+1
22
2
Elevando al cuadrado, tomando el recproco y multiplicando por dos, tenemos
2
1 3 3 5 5 (2n 1)(2n 1) 2n + 1 1 2n + 1
= 2 lm
n
2 2 4 4 6 2n
2n 2 2n
1
1
1
1
1 2
1 2 =
1
.
= 1 2
2
2
4
6
(2)
=1
Este u
ltimo resultado es conocido como el producto de Wallis.
1
=1
21.4.
1
(2)2
Representaciones integrales de .
(21.7)
383
tz+
tz+1 dt =
z+
=0
1 (z+) Log t
=
e
z+
(1) 1
=
! z +
=0
1
=
e(x+) Log t eiy Log t
z+
premisa x > 0 m
odulo = 1
1
.
z+
(1) 1
con = 0, 1, 2, 3, . . ..
! z +
(1)
!
t tz1 dt =
0
=0
(t) z1
t dt .
!
Luego
1
(z) =
0
et tz1 dt.
Afirmaci
on: La funcion entera es
1
Afirmaci
on:
et tx1 dt = lm
t
n
tx1 dt .
t
1
n
I=
0
tx1 dt =
(1 )n x1 nx1 nd ,
=0
(1 )n
+
0
n
x
(1 )n1 x d
=0
xn
n1
(1 )
x+1
x+1
n1
+
x+1
0
(1 )n2 x+1 d
=0
Obtuvimos pues
=
0
nx n!
(x) .
x(x + 1) (x + n 1) n
et tx1 dt = (x) ,
para x > 0.
(21.8)
et tz1 dt = (z)
0
(21.9)
.
CAPITULO 21. LA FUNCION
384
para Re[z] > 0.
Hagamos una observacion
1
2
21.5.
et t1/2 dt =
e d .
La funci
on Beta.
et tz1 dt
(z) (s) =
0
eu us1 du ,
=
0
ev
(z) (s) =
v=0
tz1 (v t)s1 dt
dv ,
t=0
1
v
(z) (s) =
z1 v z1 v s1 (1 )s1 v d
e
v=0
dv .
=0
Luego
ev v z+s1 dv
(z) (s) =
z1 (1 )s1 d .
=0
v=0
(z+s)
Definici
on 21.2 Definimos la funcion B(z, s) a partir de
(z) (s)
B(z, s) = B(s, z) =
=
(z + s)
para Re[z] > 0 y Re[s] > 0.
z1 (1 )s1 d
0
(21.10)
BETA.
21.5. LA FUNCION
21.5.1.
i)
385
Casos particulares.
(z)(1 z) =
0
z1
d
=
,
(1 )z
sen z
Re[z] > 0 .
Luego
B(z, 1 z) =
ii)
sen z
(21.11)
z1 (1 )n d =
0
n!
= B(z, n + 1) ,
z(z + 1) (z + n)
lo que implica
lm nz B(z, n + 1) = (z) .
(21.12)
n
iii)
Sea z =
n+1
1
ys=
, luego
2
2
B
1 n+1
,
2
2
=
0
(1 )n1
d ,
1 n+1
,
2
2
1
2
n+1
2
=2
n2 + 1
/2
cosn d .
0
386
.
CAPITULO 21. LA FUNCION
Captulo 22
Representaci
on Conforme.
versi
on final 1.2, 11 de Julio del 2003
22.1.
Introducci
on.
v
S
w0
z0
(22.1)
donde 0 = Ang f (z0 ). Es decir, las tangentes rotan en un angulo 0 fijo siempre que f sea
analtica en z0 y f (z0 ) = 0.
22.2.
Representaci
on conforme.
CONFORME.
CAPITULO 22. REPRESENTACION
388
C1
w
v
S1
C2
w0
z0
x
S2
u
Veamos lo que pasa con el angulo entre las curvas en el plano z y en el plano w,
1 = 1 + 0
2 = 2 + 0
= 1 2 = 1 2 = .
Definici
on 22.1 Un punto donde f (z0 ) = 0 se llama un punto crtico de la transformacion.
Por ejemplo, el punto z0 = 0 es un punto crtico de la transformacion w = z 2 + 1. Usemos
una forma polar para z = rei y w 1 = ei , entonces ei = r2 e2i , luego un rayo que salga
con un angulo c desde z = 0 se mapeara en un rayo que sale con un angulo 2c desde el punto
w = 1.
Definici
on 22.2 Un mapeo isogonal es aquel que preserva el angulo pero no su orientacion.
Por ejemplo, w = z es un reflexion sobre el eje real y es isogonal.
Ejemplo Toda transformacion conforme debe mapear curvas ortogonales sobre curvas ortogonales.
Ejemplo Consideremos la transformacion w = z 2 = x2 y 2 + 2ixy
En el plano w tenemos una parabola
u = 1 y2
v = 2y
parametro y, (x = 1) ,
22.3. TRANSFORMACIONES DE FUNCIONES ARMONICAS.
389
C1
S2
C2
S1
w0
z0
/4
2i
/4
i
1+ i
El coeficiente de magnificacion es | f (1 + i) | = 2 | 1 + i | = 2 2.
22.3.
Un problema viejo y prominente: encontrar una funcion que sea armonica en un dominio
dado y que satisfaga condiciones dadas (prescritas) en el borde del dominio.
Problema de condiciones de borde de primera clase o problema de Dirichlet: prescripcion
de los valores de la funcion sobre el borde.
CONFORME.
CAPITULO 22. REPRESENTACION
390
Problema de condiciones de borde se segunda clase o problema de Neumann: prescripcion de los valores de la derivada normal de la funcion.
Existen modificaciones y combinaciones de los dos problemas anteriores.
Toda funcion analtica proporciona un par de funciones armonicas:
f (x + iy) = u(x, y) + iv(x, y) ,
donde u y v satisfacen
2u 2u
+
=0,
x2 y 2
2v 2v
+
=0,
x2 y 2
v(x, y) = ey sen x ,
v=0
v=0
v= sen x
Condiciones de borde:
v(0, y) = 0 ,
v(, y) = 0 ,
v(x, 0) = sen x ,
lm v(x, y) = 0 ,
22.3. TRANSFORMACIONES DE FUNCIONES ARMONICAS.
391
Este procedimiento necesita muchas veces ayuda adicional ya que no siempre es simple.
Consideremos una funcion H(x, y) armonica. Sean u, v dos nuevas variables tales que
z = x + iy sea una funcion analtica de w = u + iv, es decir,
z = f (w) .
Sabemos que podemos encontrar una funcion G(x, y) armonica conjugada de H(x, y) y en
tal caso H + iG es una funcion analtica de z. Puesto que z es una funcion analtica de w se
tiene que H + iG es tambien una funcion analtica de w en tal caso
2H 2H
+
=0.
u2
v 2
Establecemos entonces el siguiente teorema:
Teorema 22.2 Toda funcion armonica de x, y se transforma en una funcion armonica de u,
v bajo el cambio de variable x + iy = f (u + iv) donde f es una funcion analtica.
Consecuencia: una funcion que es armonica en una vecindad permanece armonica bajo el
cambio de variable que proviene de la transformacion
w = F (z) ,
donde F es analtica y F (z) = 0 en la vecindad, puesto que la funcion inversa z = f (w) es
analtica.
Ilustraci
on: La funcion H(x, y) = ey sen x es armonica en alguna region del plano z. Si
transformamos z = w2 tenemos
x = u2 v 2 ,
y = 2uv ,
2H 2H
+
=0.
u2
v 2
CONFORME.
CAPITULO 22. REPRESENTACION
392
22.4.
H
Condiciones tpicas para H armonica: H = cte. o
= cte., etc. sobre porciones del
n
borde de una region.
Algunas de estas condiciones permanecen inalteradas frente a una transformacion conforme.
Definici
on 22.3 Curvas de nivel son aquellas sobre las cuales H(x, y) = cte.
Haciendo el cambio de variable: x = x(u, v) e y = y(u, v), si originalmente tenamos
H(x, y) = cte., ahora tenemos que H[x(u, v), y(u, v)] = cte.
z
y
H=c
w
v
H=c
La direccion del vector gradiente de H(x, y) es aquella en la cual esta funcion vara mas
rapido.
ii)
iii)
393
Supongamos que la derivada normal de H(x, y) es igual a cero sobre alguna curva C, es
dH
= 0 sobre C.
decir,
dn
z
y
w
v
H=c
H=c
x
que son las imagenes de H(x, y) = c. Por lo tanto, la derivada normal de H en w, sobre la
curva S, debe ser igual a cero.
De todo lo anterior podemos formular el siguiente teorema:
Teorema 22.3 Bajo una transformacion z = f (w), donde f es analtica y f (w) = 0, las
dH
condiciones de borde de los tipos H = c o
= 0, sobre una funcion armonica H, donde
dn
c = cte. permanecen inalteradas.
Ejemplo Consideremos la funcion armonica
H =2x+
x2
x
+ y2
= x2 + y 2 = e2u ,
CONFORME.
CAPITULO 22. REPRESENTACION
394
z
H=2
w
z=ew
x2+y2=1
1 x
luego
eu cos v
= 2 eu cos v + eu cos v ,
2u
e
2
para la imagen de la circunferencia x + y 2 = 1, que corresponde a la recta u = 0, se tiene
H = 2 eu cos v +
H = 2 cos v + cos v = 2 .
Vemos que la condicion H = 2 sobre el contorno x2 + y 2 = 1 se mantiene sobre su imagen
u = 0 en el plano w.
22.5.
Aplicaciones de la representaci
on conforme.
Solido con conductividad termica .
Flujo estacionario de calor, la Temperatura en el interior del solido, T = T (x, y),
satisface
2T
2T
+
=0.
x2
y 2
x
(22.2)
Definici
on 22.4 Las curvas isot
ermicas satisface T (x, y) = c, con c una constante. Estas
son las curvas de nivel de la funcion T . Claramente T es perpendicular a la isotermica.
Si S(x, y) es la funcion armonica conjugada de T (x, y), entonces las curvas S(x, y) = c
tiene a los vectores gradientes como sus tangentes, estas curvas son las lneas de flujo.
F (x, y) = T (x, y) + iS(x, y)
(22.3)
Tal que Re[F ] = cte. corresponden a las isotermicas y Im[F ] = cte. corresponden a las lneas
de flujo de calor.
22.5. APLICACIONES
395
T(x,y)=c
lneas de flujo
isotrmica
S(x,y)=c
22.5.1.
y
T=0
T=0
T=0
/2
/2
T= 1
T ,y = T
,y = 0 ,
2
2
T (x, 0) = 1 ,
r1
z 1
= Log + i(1 2 ) ,
z +1
r2
(22.4)
Una funcion armonica de u, v que es igual a cero para v = 0, igual a uno para v = y
acotada en la franja es claramente,
1
T = v,
(22.5)
w
ya que corresponde a la parte imaginaria de la funcion analtica f (w) = .
CONFORME.
CAPITULO 22. REPRESENTACION
396
z
z= sen z
z
r2
T=0
T=0
12
r1
/2
/2
T= 1
x
T=0 1
T= 1
isoterma
x
T=0
v
i
T= 1
T=0
T=0
z 1
z 1
z 1
= Log
+ i Ang
,
z +1
z +1
z +1
(22.6)
tenemos que
v = Ang
x 1 + iy
x + 1 + iy
= Ang
x 2 + y 2 1 + 2iy
(x + 1)2 + y 2
o bien
2y
+y21
donde la funcion arctan va entre 0 y puesto que
v = arctan
Ang
x2
z 1
= 1 2 ,
z +1
1
arctan
2y
x2 +y2 1
(22.7)
z 1
v
es analtica en y > 0. Puesto que la funcion T =
es
z +1
analtica en la franja, la funcion (22.7) debe ser armonica en y > 0. Las condiciones de borde
deben ser las mismas en las partes correspondientes de los bordes.
La transformacion w = Log
22.5. APLICACIONES
397
2
y 1=0 ,
tan c
las cuales corresponden a circunferencias con centro en el eje y y que pasan por los puntos
(1, 0).
Volviendo al problema original, z = sen z luego tenemos
x = sen x cosh y
y = cos x senh y ,
luego
1
1
=
1
=
1
=
T (x, y) =
arctan
arctan
arctan
arctan
finalmente
T (x, y) =
2 cos x senh y
sen2 x cosh2 y + cos2 x senh2 y 1
2 cos x senh y
2
2
cosh cos x(cosh2 y senh2 y) 1
2 cos x senh y
senh2 y cos2 x
2 cos x/ senh2 x
,
1 (cos x/ senh y)2
2
cos x
arctan
,
senh y
0T 1.
(22.8)
Puesto que sen z es analtica la transformacion z = sen z asegura que la funcion (22.8)
sera armonica en la franja /2 < x < /2, y > 0. Ademas, se mantendran las condiciones
de borde. Mas a
un, | T (x, y) | 1 en la franja. Por lo tanto, (22.8) es la funcion buscada.
Las isotermas corresponden a T = c es decir dado (22.8)
cos x = tan
c
senh y ,
2
cada una de las cuales pasa por los puntos (/2, 0). La lneas de flujo S(x, y) = cte., con S
la funcion armonica conjugada de T (x, y).